您的位置: 网界网 > 存储 > 正文

“备份进化论”系列(二):文件备份方式评估之重复数据删除阵列

2014年04月28日 10:41:15 | 作者:Brien Posey | 来源:TechTarget中国 | 查看本文手机版

摘要:对于想要进行文件备份的企业级用户,他们可以选择的方式有重复数据删除阵列、集成备份设备以及云备份技术,在本篇中,我们先来探讨重复数据删除阵列。

标签
云备份
集成备份设备
重复数据删除阵列

在系列(一)中,我们谈到了磁带驱动器、磁带库和虚拟磁带库。不过对于想要进行文件备份的企业级用户,他们还可以选择其它的方式,这其中就包含有重复数据删除[注]阵列、集成备份设备、当然还包括云备份技术。

在之后的文章中,我们会更为深入地谈到每一种方式的细节,首先我们先来看重复数据删除阵列。

重复数据删除阵列

虽然磁盘存储在许多方面都优于磁带,但基于磁盘的备份目标也远非毫无缺点。在为数不多的磁带优于磁盘的项目中,容量占了其中一份儿。磁带是一种可移动的存储介质,因此可以提供近乎无限的存储容量。一家企业如果需要更多的存储空间,只要简单购买些磁带就可以了。

但这对于磁盘阵列而言就截然不同。虽然有些时候你也可以通过增加磁盘数量来提升阵列的容量,但这种方式显得代价高昂并且难以持续。磁盘阵列最终会达到阈值,其容量无法继续提升。而这对于企业而言就是一个很大的问题,他们必须要保护呈指数级增长的数据集。克服这种容量限制最常用的方法之一就是使用重复数据删除阵列。

重复数据删除技术使得阵列在备份文件时可以实现较其它方式多得多的逻辑存储容量。举例来说,EMC表示他们的Data Domain全局重复数据删除阵列可以提供高达14.2 PB的逻辑备份容量。

虽然这种能够存储如此海量数据的备份存储阵列从技术角度是可行的,然而在你投资购买重复数据删除阵列之前仍需考虑几个问题。

首先,重复数据删除阵列所宣称的逻辑容量只是一种在最佳环境下的预期。现实环境的部署中,其所提供的容量通常会比宣称的最大逻辑容量缩小很多。原因在于其取决于重复删除程序的工作方式。

虽然重复数据删除有很多种方式可以执行,不过重复数据删除程序通常都是基于数据块的(当然也有部分厂商可以处理局部的数据块组)。重复数据删除的设想是每个数据块只需要存储一次。因此,重复数据删除引擎通过消除冗余的数据块存储降低整体存储的冗余度。

在虚拟机备份环境中,这种重复数据删除技术十分有效。举例来讲,假如一家企业有大量的虚拟机,并且都运行同一种操作系统,那么重复数据删除引擎就可以消除这些操作系统文件副本相关的数据块。

但是一些其它类型的数据或许就不适宜用重复数据删除技术。以科研数据为例,这类数据并没有很高的冗余度(+微信关注网络世界),因此很难大幅度进行重复数据删除。类似的,诸如ZIP等压缩文件以及MP3和MP4等媒体文件也难以执行重删。就其本身而言,所存储的数据类型最终决定了重复数据删除阵列的效率。

而在考虑购买重复数据删除阵列时所要考虑的另一项因素就是冗余度。和其它类型的存储阵列类似,重复数据删除阵列通常配备有冗余磁盘,在磁盘故障时保护数据。但即便如此,设备自身也可能成为单点故障。为避免设备级的故障,你可能需要购买另一台设备,在两台之间复制相同的数据,或者定期将数据副本拷贝到磁带上。

参考资料

1.重复数据删除:是一种数据缩减技术,通常用于基于磁盘的备份系统,旨在减少存储系统中使用的存储容量。它的工作方式是在某个时间周期内查找不同文件中不同位置的重复可变大小数据块。重复...详情>>

[责任编辑:存储 chai_shasha@cnw.com.cn]