静态存储和应用逻辑 MySQL、Redis、ES 都集中在这一台服务器上了,所以既要大硬盘,又要高读写,3 块 6T 的硬盘做 Raid,Raid0 好还是 Raid5 好?
Raid0 对硬盘损坏零容忍,3 块硬盘出错一块就完了,但是机械硬盘感觉没那么容易坏吧?(估计是我见识太短?)
另外 3 块机械盘做 raid0 读写性能是否可以和一块中规中矩的 SSD 差不多了?
1
a7a2 2018-07-11 11:14:50 +08:00
3 块机械盘做 raid0 也不及 一块中规中矩的 SSD
建议组建 Raid5,那点速度真心无用 |
2
julyclyde 2018-07-11 11:19:38 +08:00 1
raid0 是找死的选择
|
4
20015jjw 2018-07-11 11:48:03 +08:00
6x6T raid 10 吧 没 ssd 贵 但是肯定远没有 ssd 快
|
5
honeycomb 2018-07-11 11:51:16 +08:00 via Android
@Reign 老样子,三盘 raid0 的故障率大致依赖于三块盘任意一块出故障的概率,比双盘组 raid0 还要高了“单盘与双盘 raid 故障率之比”的倍数
所以 raid5,或者加一块盘搞 raid10 |
6
514146235 2018-07-11 11:58:54 +08:00
想要速度肯定要换 ssd,用了 ssd 你的代码都可以少优化很多。
11T 应该不是都是热数据吧。 如果都是热数据,那当我没说。 |
7
honeycomb 2018-07-11 12:10:04 +08:00 via Android
@Reign
比如按年故障率 3%(小概率)来算,单盘就是 3%,双盘 raid0 就是 6%(近似),三盘 raid0 就是 9%(近似)。 如果是 raid5,那么可以承受一块盘丢失,那么就是 0.26%(下限),实际要考虑数据恢复过程中剩下两款盘因为负载高而再次出现掉盘的问题。 |
8
mortal 2018-07-11 12:13:53 +08:00 via Android
RAID 5 据说也不大可靠。恢复数据能慢死个人还失败率高
|
9
mrzx 2018-07-11 12:56:03 +08:00
只有 3 块,不然 4 块可以组 raid10,速度上有保证,冗余上也有保证。
你觉得数据重要,不能丢失,那就组 raid5. 你觉得数据可以允许丢失,追求性能,那就 raid0. |
10
powergx 2018-07-11 13:38:02 +08:00
raid 1
|
11
mm163 2018-07-11 13:49:26 +08:00
加一块然后 Raid10。
|
12
relaxchen 2018-07-11 13:56:42 +08:00
首先排除 RAID0,其中一块坏了阵列就 GG 了
|
13
relaxchen 2018-07-11 13:58:06 +08:00
|
14
mhycy 2018-07-11 14:14:19 +08:00
硬卡,开缓存
跑 R6 性能还是不错的 太烂的卡除外。。。 利益相关:有个基于 LSI 9286CV-8eCC 的 5*3T 的 RAID6 阵列 |
15
Eleutherios 2018-07-11 14:19:23 +08:00 via iPhone
正确做法是 RAID6/RAIDZ2,用于冷数据存储
|
16
likuku 2018-07-11 15:00:16 +08:00 1
再加一块硬盘,RAID10 是最基本的。
"但是机械硬盘感觉没那么容易坏吧?(估计是我见识太短?)" 呵呵... 去年我这全新一套群晖+WD 红盘,不到 2 周,2 块盘 1 周内先后坏掉。 |
17
xuhaoyangx 2018-07-11 15:03:47 +08:00
@likuku #15 群辉真心坏盘几率高
|
18
likuku 2018-07-11 15:03:51 +08:00
就算组 RAID0,机械硬盘一堆,这些也只能满足持续读写时的带宽需求,
数据库这种对高 IOPS 需求 /seek 低延迟 需求,依然受制于机械硬盘本身低下的“随机读写 /磁头巡道时间", SSD 在这种用途上,性能超出太多了 |
19
kokutou 2018-07-11 15:03:59 +08:00
3 个 6t 是一起在同一家同时买的?
那组 raid5 也有可能一起挂掉。 |
21
likuku 2018-07-11 15:06:10 +08:00
@xuhaoyangx 后来,果断连盘带机退货,换了 8 盘位群晖,老老实实组 RAID6,改换 6T 的 HGST+ ST 硬盘,
至少密集使用了大半年也还都 OK。 |
23
xuhaoyangx 2018-07-11 15:11:10 +08:00
|
24
crazycen 2018-07-11 15:20:00 +08:00 via iPhone
raid0 没啥问题,看脸,数据丢了,爽一次就有记性了!
|
25
psweet 2018-07-11 15:36:33 +08:00
nas raid0 开机不超过 10 次 总时长不超过 24h 一次断电 4tb 酷狼狗带 你慌不慌
|
26
log4geek 2018-07-11 15:45:55 +08:00
之前玩过 Raid1,两块硬盘在一年内全坏了,卖硬盘的老板一脸惊讶的问我,你对硬盘究竟做了什么。。幸亏保修期内坏了可以换新盘,然后再也不玩 raid 了。单独两个盘,装个软件,每天定时同步一次,妥妥的,撑了快 5 年了,暂时还没坏。
|
27
c0878 2018-07-11 15:51:10 +08:00
建议 raid10 sata 的硬盘如果 raid5 故障了做恢复要非常久时间 这段时间再出问题就完蛋了
|
28
c0878 2018-07-11 15:52:00 +08:00
另外看 lz 这描述是所有鸡蛋放在一个篮子里呀 太危险了 为啥不把各系统拆开
|
29
mrzx 2018-07-11 16:02:53 +08:00 5
我当年移动硬盘坏掉之后,恢复数据花了 4000 元。还只恢复了 80%,且所有的文件,文件名全部乱掉了。花了 1 个星期才整理好。很多照片,这辈子无法在照了。是你对去世的人一种纪念方式。
我老婆当时提醒我,有什么办法避免这种事情发生?我说搞 NAS,但是很贵。老婆问我,多少钱吧,我说差不多 5000~6000 吧。老婆立刻回我啊,“傻老公,在发生这样的事情,你恢复数据的钱都足够在买一台 NAS 了。干嘛不一开始就采用这种方案?” 说的我激动,当天就就下单买了一台群晖加 4 块企业级的硬盘。 可是,后面,我渐渐发现群晖的一些安全性问题,因为这类商用的 NAS 产品,NAS 的操作系统不是写在 flash 芯片里,就是装在数据硬盘里。 我对 NAS 商用产品质量实在不放心,群晖的 DSM 系统原理很简单,是装在每块硬盘里的分一小块区域,且弄成 raid1,且不说系统盘和数据盘没有分离靠谱不靠谱,这样的做法搞得让我一点都不安心。而且群晖也不开源,出了任何问题,都要依靠群晖本身对产品的支撑和对客户的支持水平。这种依赖关系让我也是我考虑的因素之一。 后来被人安利了 freenas. 之后才采用了 hp gen8+freenas+系统盘+数据盘分离+raidz2 的方案来备份数据。 系统盘使用 2 块非常贵的 slc 原片得 U 盘组类似 raid1 镜像,.数据盘用 4 块 NAS 红盘组 raidz2 组成。 且因为是软 raid,及时切换到任何硬件平台,只要硬件配置够,随时可以迁移硬件平台,且不受任何底层硬件限制。我特别做过实验迁移过。 原先也考虑过用硬件 raid 卡。但是这种东西不靠谱,且不说 raid 信息单纯的保存在卡里,一旦该卡停产,想配个相同的卡也很难。且每块硬盘还有相对应的排列顺序等头疼问题。真要是 raid 硬件卡坏了,恢复数据相当麻烦且不安全。 反正在我心中,数据存放的冗余性安全放在第一位。性能倒是其次。 当然,有便宜的解决方式,就买多块移动硬盘,然后每次拷贝数据的时候,往其他移动硬盘上拷贝一份。 可是,对于搞 IT 的人来说,真有人有功夫每次都这么做吗? |
30
Reign OP @c0878 我目前就是准备把手上 6 台 2T 的小鸡一起,全部转移到一台大鸡上来,要不管理起来很麻烦,我也不知道这么做到底是对还是错,所有鸡蛋都放到这一个篮子里面了
|
32
HughRyu 2018-07-11 16:26:24 +08:00
看你数据的重要性.如果十分重要.你这容量只允许 2D 冗余度.一般 RAID5+1HS 或者直接 RAID6.
如果对高速区域空间不大的话,应该 SSD+Raid5 才是最合理配置.手动分层.... |
33
imn1 2018-07-11 16:30:51 +08:00
看你的用途是读写频繁,如果有另外的备份计划,选择快优先
家用和工用还是很不同的 家用必须备份数据不多时( 5 盘以上才算多,注意说的是「必须」),才建议上 raid 一来家用读多写少,二来必须备份的数据不多,因为数据之间的关联性不强,不会丢失部分数据导致全体作废 所以家用其实建议,多介质备份更保险 工用我没什么知识和经验,只是觉得运行和备份应该是两套设备分开 我自己不玩 raid,但认识的人中很多玩 raid,从他们身上吸收很多经验 1.raid 比起纯备份读写更多,因为有校验工作 2.raid 的投入其实也很大,真有备份需求,不适宜用廉价 raid 设备,数据量少用昂贵设备,费用比多介质还多 3.玩软 raid 要有「想自杀」的准备,出错真的很惨 4.raid 两盘同时(指相距时间很短)坏掉其实概率不低,很多情况是来不及补充新盘,隔天第二盘就坏掉,所以也要常备一到两个空盘及时应对 我一些国外友人,喜欢用昂贵的 raid6 设备,上百 T 扔车库,这种玩法真心比不上 |
34
wadjj 2018-07-11 16:43:20 +08:00 via iPhone
今天才碰到一个朋友两块硬盘同时换,不算什么罕见的事
|
35
wishuloveme 2018-07-11 18:16:33 +08:00
本地 raid5,再弄个便宜的 vps,每天深夜 rsync 同步,再不放心本地再接个移动硬盘,配个 crontab 定期复制去。
|
36
biaodianfu 2018-07-11 18:17:16 +08:00
相比组磁盘阵列,更容易被忽略的上购买的磁盘。购买硬盘最好的方式是希捷、西数交叉购买,交叉使用。这样才能把灾难降为更低。
综合来讲个人比较推荐 Raid10,但是从数据量上 11T 和 6T 的磁盘,不建议 Raid10,主要原因是冗余空间太少。4 块硬盘组成 Raid10 差不多也就 11G 左右,如果组 Raid5 的话大概可以有 17G 左右的空间。 在硬盘这么便宜的情况下,个人建议买 4 块 10T 的硬盘组 Raid10. 更多信息参见: https://www.biaodianfu.com/raid.html |
37
biaodianfu 2018-07-11 18:18:59 +08:00
@wadjj 买同一品牌,同一批次的经常会这样。
|
38
pynix 2018-07-11 18:21:51 +08:00
把存储和应用分开,各做各的。。。。
|
39
pynix 2018-07-11 18:23:47 +08:00
至少静态存储分离出去。。就方便很多。。。
|
40
gclove 2018-07-11 18:28:01 +08:00
确实一般不容易坏,只建议 RAID 10, 反对 RAID1, 速度奇慢
|
41
rootit 2018-07-11 18:35:07 +08:00
一般没人做 RAID0 吧 除非。。 数据是真的没用了。
|
42
likuku 2018-07-11 18:41:30 +08:00
带冗余的 zfs 当然是更好的选择,再没有财力入价值上千万软妹币的磁盘柜时,zfs 是最优选。
即便有了很可靠的 raid/zfs/磁盘柜,至少得再有一份可靠的并定期验证过的备份依然非常非常重要,甚至比当前在线主力用的存储更为重要。毕竟,出了事故时,可信赖的备份将很可能是唯一救命稻草。 |
43
likuku 2018-07-11 18:44:21 +08:00
@biaodianfu RAID5 也只能容忍一块硬盘毁坏,且在新硬盘完成重建上线之前那段漫长修复时期数据已经没有任何可冗余的硬盘了。
当经历过短时间内 2 块全新硬盘损毁事故之后,就不会对冗余度只为 1 的存储有好感。 |
44
whileFalse 2018-07-11 18:45:27 +08:00
我用西数企业级,淘宝货,挺便宜的。感觉比红盘靠谱。
|
45
likuku 2018-07-11 18:50:16 +08:00
单纯选硬盘,那么老生常谈得再次推荐参考这家云存储厂商的定期报告吧,下面是 2017 年度的:
2017 Hard Drive Failure Rate Comparison : https://www.backblaze.com/blog/hard-drive-stats-for-2017/ |
46
Judoon 2018-07-11 20:23:57 +08:00 via Android
raid50 吧,不要纠结了
|
47
AstroProfundis 2018-07-11 21:33:21 +08:00
我用 9 块 2T (品牌、成色不一)组的 RAID50 用了大概两年,几乎不间断开机状态,中间非自己手贱的原因导致的掉盘重建发生了 3 次,其中有一次是盘真的坏了,换了一块,另外两次似乎是散热不好造成的扩展卡死机;然后还出现过一次不明原因所有盘一起红掉的情况还好无损修复了
这个故障率楼主可以参考,反正我现在是感觉 50 的冗余度都不太够了,在慢慢屯盘准备换 10 了 |
48
AstroProfundis 2018-07-11 21:35:08 +08:00
@AstroProfundis 对了,我是家用 NAS, 楼主这个需求看来是线上业务,千万不要舍不得多买两块盘的钱去搞 RAID0 做死...
|
49
TJT 2018-07-11 22:03:41 +08:00
千万别想不开用 0,我 RAID5 就坏过两次。以前在学校帮忙维护校园网,有一次 RAID5 直接坏了两块盘,只能靠备份回滚,丢了一整天的数据。
移动硬盘每次回家我都备份一份到家里,重要数据备份到 Google Drive。 |
51
zn 2018-07-11 22:17:06 +08:00 1
前段时间看过一篇英文博客,写得很专业,大概内容如下:
一,由于现在硬盘容量动辄数 T,导致 RAID 5 重建过程可能长达一周甚至几周,这期间阵列以降级模式运行,性能惨不忍睹,导致重建期间服务器无法正常上线运行,对于重要应用来说是不可接受的。 二,重建期间硬盘都是满负载运转,这期间如果又有一块硬盘损坏的,那整个阵列就 over 了。 三,由于普通磁盘存在随机性的位翻转,虽然概率很低,但是由于磁盘容量高达数 T,所以概率要乘以 1,000,000,000,000,结果就是位翻转的概率已经高到无法忽视了,如果真的有一个比特的翻转,会导致重建的时候数据检校错误,而大部分 RAID 卡厂商为了稳妥起见(不背锅),一旦发现检校错误就立即停止重建!!!也就是说只要有一个比特的错误数据,都会导致整个数 T 的磁盘阵列重建失败! so......... |
52
luozic 2018-07-11 22:17:12 +08:00
数据比啥垃圾硬盘贵多了,事前不规划好,等出了问题,就各种 SB 了, 为啥工程设计里面都有余量?
|
53
rssf 2018-07-11 22:29:48 +08:00 via iPhone
我只用 raid1,第一组 raid1 再备到第二组 raid1,家庭内使用而已
|
54
honeycomb 2018-07-11 22:47:09 +08:00 via Android
|
56
yangqi 2018-07-11 22:56:00 +08:00
raid0 和 5 都别用,现在大容量盘 raid5 重建可能还没有直接恢复备份快。钱不是问题肯定上 ssd, 或者把应用都分到单独的服务器上,大容量和性能不可兼得,除非不差钱。
|
57
msg7086 2018-07-11 23:29:26 +08:00 2
|
58
msg7086 2018-07-11 23:30:54 +08:00 1
另外 RAID 0 的性能连 SSD 的尾巴都够不到。
你要是做 12 盘 SAS RAID 10 阵列说不定能和 SSD 一战,3x6T 还是算了。 |
59
likuku 2018-07-12 00:00:28 +08:00
|
60
likuku 2018-07-12 00:05:10 +08:00
|
61
notgod 2018-07-12 00:30:20 +08:00
@Reign
大兄弟 我最近部署了一套基于 ELK 的集中日志系统 单天过亿的级别 看到这个 我还是给你些意见 经过各种环境测试 我想还是有发言权的 我不知道我们的实际需求是否一致 简单来说 按你的描述 因为我不知道你数据量 和数据重要性 这个是需要一个规划的 根据你的数据增长情况,规划一个拓扑和容灾结构 排除硬件因素 先说你指望的 MYSQL REDIS ELK 全部部署在一起 这个是有严重问题的 REDIS 无所谓, MYSQL 如果你查询大 CPU 消耗问题很严重 不知道你是不是对 ELK 有什么误解, ES 最好的发挥是集群,不是单机 最大消耗不是 I/O 而是内存和 CPU, 我的版本是最新的 ES 我测试环境 Linode 16G 的套餐 准备迁我的 ES 数据 超 300G ,搭配 Linode 1T 的存储 (读写 500 多 M 的速度) 内存 over heap 迁移完启动,接收日志,一直会自动挂掉 CPU 持续 100%+ 最后不得已还是继续使用 64G 内存+6 块 200G 的 SSD 的设备 来接收日志 这个还是我优化过的 在说硬盘问题 , 你存储数据不可能不查询 ELK 我实际测试亿的数据 在 Raid5 3x2T 的情况下 在 kibana 根本查询不出 一直 TIMEOUT Raid0 如果你不考虑数据安全性的话 就是你容许挂了重装系统 重新来过 那可以使用 Raid5 的性能, 非常差 你测下就知道了 你的情况 如果期待放一起 最好的硬件方案 内存 64G 其中 32G 给 ES 硬盘使用带 BBU 的 HW 卡 搭配 6 块 HHD + 4-6 块 SSD 一种是 SSD 做缓存 另外一种是 SSD 放热数据, HDD 放冷数据 这种密集型 I/O 的 而且还是 6T 的单硬盘 寻道时间和稳定性都有待考证的产品 实在不建议 我觉得你应该先测试性能在考虑其他 |
62
wwhc 2018-07-12 07:47:06 +08:00
两块做 RAID0,另一块单独做备份,机械硬盘无论是 RAIDx,4K 都无法与 ssd 相提并论
|
64
sunzen 2018-07-12 09:30:08 +08:00 via iPhone
建议搞 raid50
|
66
mrzx 2018-07-12 10:17:33 +08:00 1
@fetich 随时可以,就是盘数一开始是固定好的。
可以拿小容量硬盘堆盘数。后面预算宽裕拿大容量硬盘扩容。 还有个缺点是 freenas 需要大量的内存。基本上 1TB 硬盘容量需要 1G 左右的内存做缓存。如果你要开启 zfs 中的一个特性“ ZFS 重复数据删除”,这个功能,虽然可能增加硬盘存储容量,但耗费的内存更多了。 像我那台 gen8 已经老了。最大只支持 ECC 16G 内存。也就是说,理论上我最多知道 4TBx4 的硬盘存储量就到极限了。 现在我只不过才 2tbx4,容量对于家庭备份使用的我来说,已经足够用了。 |
67
mrzx 2018-07-12 10:18:39 +08:00
@msg7086 你说的对,所以我打算买个 1TB 的移动硬盘,插在 gen8 上,设定个计划任务,定期将文件增量备份到移动硬盘里。
|
68
wangfei324017 2018-07-12 10:28:39 +08:00 via iPhone
数据重要,raid6+hs 也比不为过
|
69
wekw 2018-07-12 10:48:35 +08:00 1
过来人告诉你,老老实实 RAID0,觉得速度不够就上 SSD,那就不用 RAID 了。
RAID 5 可以说是菜鸟毒药,只是看起来很美,坏了一块盘没有专业人士操作基本就全报废了。 |
70
wekw 2018-07-12 10:49:53 +08:00
机械硬盘没那么容易坏。。。。。尴尬。。。。同学你是买了多差的 SSD。。。。。。
我用 SSD 七年了,没见过坏的,机械硬盘我自己都用坏过好几块。 |
71
tailf 2018-07-12 10:52:12 +08:00 1
我家用来存电影的群晖用的都是 HGST 企业硬盘 RAID 1。世界加钱可及。
|
72
wekw 2018-07-12 10:53:02 +08:00 1
修正 #69,关键信息打错了:
老老实实 RAID 1 |
73
zj299792458 2018-07-12 11:01:51 +08:00 via iPhone
Raid0 不如 SSD+1
|
76
mchong 2018-07-12 11:21:23 +08:00
预算够就拆分服务器,上商业存储。
|
77
noahzh 2018-07-12 11:30:28 +08:00
raid 不适合穷人。
|
78
ryd994 2018-07-12 11:30:39 +08:00 via Android
@mrzx 其实内存完全不用担心
内存不够只是会影响随机读写性能而已 zfs 1G/T 是生产环境中高性能的要求 实际上大多数人 lan 也就千兆,而且仓库盘主要是顺序读写。 我现在 8G,6*8T,完全没有问题。 dedup 就别想了 |
79
zhjits 2018-07-12 11:58:16 +08:00
>4T 单盘建议 RAID6,不要尝试 RAID5
|
80
likuku 2018-07-12 13:39:54 +08:00
|
81
AsisA 2018-07-12 13:40:43 +08:00 via Android
机械用坏了几个了……还是 SSD 靠谱,推荐 SSD,别贪便宜,直接买口碑好的 SSD,用到想换电脑了都坏不了
|
82
likuku 2018-07-12 13:42:39 +08:00
@honeycomb RAID0 ... 太疯狂了,只适合用于 缓存文件 什么之类的 “临时文件”,
不如直接加大内存,用内存 tmpfs 文件系统,效能秒掉 SSD 是没得说,还没有磁盘 /SSD 损耗。 |
83
usernametoolong 2018-07-12 13:56:38 +08:00
加一块盘做 raid10 raid5 和 6 也是非常不靠谱的玩意。
|
85
honeycomb 2018-07-12 16:45:35 +08:00 via Android
@likuku 楼主似乎想搞三块盘的 raid0,然后 mysql,Redis,ES 都放在里面
|
86
bubuyu 2018-07-12 16:47:42 +08:00
RAID0 就是作死啊... 机械硬盘哪里不容易坏?
|
87
mrzx 2018-07-12 16:59:26 +08:00
@likuku 看来我的 GEN8 还能在撑个几年。总硬盘容量扩到 8TBx4 应该不成问题。我现在组 raidz2 (类似 raid6 ),写入速度其实很慢,有的时候,即使传输个大文件,最快也不过 70MB/s。
GEN10 M 终于出来了,可惜在也没有 lio4,而且最大内存不过从 16G 变成了 32G 而已。那还真不如我自己组个 X86 平台兼容机呢。服务器的最大特色都没了。 |
88
msg7086 2018-07-12 17:13:48 +08:00
|
89
openbsd 2018-07-12 18:07:35 +08:00
这是弄来玩还是 ?
RAID0............... RAID5 也是神坑,咬牙再+个 6T 上 RAID10 吧 |
91
likuku 2018-07-12 18:35:06 +08:00
|
92
likuku 2018-07-12 18:36:38 +08:00
@honeycomb “ mysql,Redis,ES 都放在里面” ... 即便用 SSD 堆起来,一般的机器,内存 CPU 都也不够了...
|
93
20has 2018-07-12 19:17:51 +08:00 via Android
我的建议是保证高可用就 raid5 或者 raid0 (只是成本更高) 再别的地方单独备份 一套 冷备份
|
94
20has 2018-07-12 19:19:34 +08:00 via Android
上面陈本更高的应该是 raid1
raid0 速度快 快不过 ssd (*•̀ᴗ•́*)و ̑̑ 要快就来 raid0 的 ssd 冷备份倒是随便了 单盘都行 |
95
fjzjk 2018-07-12 19:26:00 +08:00
raid0 不如裸盘
|
96
mrzx 2018-07-12 20:31:31 +08:00
@likuku 我猜应该是 raidz2 的写入性能就是差,跟千兆网卡也没关系,因为读取的速度,我轻松达到 120MB/S,我的共享方式是 smb 和 iscsi.
我家台式机只有一个 256G 的 SSD 做系统盘,其他盘符全是加载 iscsi 当硬盘使得。 |
97
tempdban 2018-07-12 20:40:29 +08:00 via Android
我们服务器上的 raid 卡有个奇怪的 raid 模式 要求至少五块盘 四个主用一个备用 要是六块就两备用。最大 8 个盘也是两个备用。
他明确说了不叫 Raid 5。 |
98
likuku 2018-07-12 21:26:37 +08:00
@mrzx 你组的 raidz2 成员硬盘数是偶数么?奇数会降低效能。
不知你有否测过直接写 zpool 时的效能? zpool iostat -v 1 监测硬盘 io 状态 , 同时再起个 ssh 上去 在本地直接 dd if=/dev/zero bs=1m of=/zpool/vol/test 直接从内存写入 zfs 卷, 如此可以当作 zpool 纯写入性能的参考值 (总写入量必须超过系统内存总量才有意义) |
99
janssenkm 2018-07-12 21:54:10 +08:00 via Android
做缓存可以 raid0,坏了就重建。存数据还是 raid5 吧
|
100
pubby 2018-07-12 22:32:53 +08:00 via Android 1
|