1
akira 2019-02-14 03:26:36 +08:00
3 次备份,每次 40g,应该是 120g,现在才用了 90g,你已经赚到了。。
|
2
whileFalse 2019-02-14 09:13:13 +08:00
如 LS 所说,如果都是全量备份,那么快照的总容量是磁盘的总容量*备份数量。注意,如果你有一块 100G 磁盘,里面放了 10G 文件,那么磁盘总容量是 100G。
业界通常是基于增量进行压缩,也即是第一个快照是全量的,后面的快照是增量的。 但这里还有一个问题是,增量快照依赖全量快照才能使用;你总共保留 3 次快照,超过一周的时候删除,那么假设过期的是全量快照,而未过期的快照是依赖这个全量快照的增量快照,那么这个全量快照只能逻辑删除,容量还是占用了(直到依赖该全量快照的增量快照全部删除,该全量快照的容量才能真正释放)。再次打快照时,因为已经没有逻辑存在的全量快照,就需要再保存一个新的全量快照。也就是,有可能会占用两个全量快照的空间。 |
3
SoraneKazehana OP @akira #1 是三块硬盘总数据不到 40G,每块硬盘一份备份
|
4
SoraneKazehana OP @whileFalse #2 我尝试把所有快照删除,在 6 个小时候重新只做快照,而且每个盘只做一份快照,容量比之前 7 个快照( 1 个 WIN 系统盘,3 个数据盘,3 个 LINUX 系统盘的)的大小只小了 3 个 G
要这么说的话,我觉得快照这个功能还不如自己做全量备份,这个计算额度增大也太恐怖了,30 多 G 的数据,快照 86G,是原来的数据两倍多 |
5
y10210118 2019-02-14 11:25:15 +08:00
其实快照是对云盘块设备的一个克隆。
1. 如果云盘的某个 block 曾经写过数据,那么在制作快照时这个 block 将会永远被记录到快照中。也就是假如曾经写入过一个 100GB 的文件,那么即使后续删除了这个文件,快照的总大小也永远会大于 100GB 2. 用户删除数据时,文件系统只是修改元数据,并不会释放 block,再打快照时还是会按照实际占用的磁盘空间来备份,所以删除文件并不能降低快照大小。另外,根据文件系统分配 block 的策略,新创建的文件占用的空间不一定会复用以前已删除的文件的空间,所以随着使用时间的增加,快照的总大小一定会逐渐大于用户看到的文件系统层面的大小。也就是假如我的 D 盘始终保持到 20GB 的使用空间,但是在频繁的创建和删除文件,那么做出来的快照一定是大于 20GB 的 3. 快照是基于 block 做的,会包含用户写入数据和文件系统元数据,用户一般只能看到文件系统层的数据大小而看不到元数据占用的空间,所以做快照时,快照大小要比用户看到的文件大小统计要大。文件系统元数据的大小可以按照磁盘大小的 2%左右来预估 |
6
ferock 2019-02-14 11:25:45 +08:00
@SoraneKazehana #4 你自己做备份,你能如快照一样的恢复效果吗?
|
7
SoraneKazehana OP |
8
9hills 2019-02-14 11:37:48 +08:00
块设备的快照是块级别的复制,不一定和实际使用空间一样的。
|
9
ferock 2019-02-14 13:36:09 +08:00
@SoraneKazehana #7 那就自己尝试一下呗,说白了就是愿意花多少钱在消防设备上的问题
|
10
iloim 2019-02-15 05:19:36 +08:00 via iPhone
用的阿里云国际版 快照设置的每小时备份一次 没收任何费用
|
11
realpg 2019-02-18 20:47:58 +08:00
如果你的云服务器不会自动收缩硬盘,那么容量就是你曾经用过的峰值容量。
|
12
mufengyulin 2019-02-25 17:17:59 +08:00
好像有规定的容量限制,超过了就要收费,没有超过的话就免费
|
13
SoraneKazehana OP @mufengyulin #12 50G,WIN 系统很容易就会超了,毕竟更新要执行很多删写操作
|