您的位置: 网界网 > 存储 > 正文

给主存储瘦身(下)

2011年10月28日 09:42:35 | 作者:Jacob Gsoedl | 来源:TechTarget中国  | 查看本文手机版

摘要:最近有很多关于将重复数据删除技术从备份应用到主存储的讨论。重复数据删除对主存储的瘦身有很大贡献,但还有很多其他技术也能对主存储减负有所帮助。

标签
主存储
磁盘阵列
重复数据删除

自动存储分层

自动存储分层是主存储上减少数据的另外一种机制。一个磁盘阵列能够把活动数据保留在快速、昂贵的存储上,把不活跃的数据迁移到廉价的低速层上,以限制tier-1存储的花费总量。自动存储分层的重要性随着固态存储在当前磁盘阵列中的采用而提升,并随着云存储的来临而补充内部部署的存储。自动存储分层使用户数据保留在合适的存储层级,因此减少了存储需求的总量并实质上减少了成本,提升了性能。

自动存储分层有两个关键的特性:

•数据从一层迁移到另一层的粒度越精细,可以使用的昂贵存储的效率就越高。子卷级的分层意味着数据是按照块来分配而不是整个卷,而字节及的分层比文件级的分层更好。

•如何控制数据在层间移动的内部工作规则,会决定需要把自动分层放在正确的位置的努力程度。一些系统,像EMC公司的Fully Automated Storage Tiering(FAST),是根据预先定义的什么时候移动数据和移动到哪一层的策略。相反的,NetApp公司和Oracle公司(在Sun ZFS Storage 7000系列中)倡导存储系统应该足够智能,能够自动的保留数据在其合适的层,而不需要用户定义的策略。

重复数据删除[注]

在备份和归档领域的良好表现,使得重复数据删除逐渐找到了其进入主存储的途径。重复数据删除用于主存储最主要的挑战是性能慢。“去重[注]和性能完全无法相处,” Greg Schulz说,位于明尼苏达州斯蒂尔沃特的StorageIO Group的创始人和高级分析师。不过尽管如此,重复数据删除已经找到了进入一些存储系统的途径,而大家的跟风只是时间的问题。

NetApp公司为其所有系统提供重复数据删除选项,并且可以针对每个卷进行激活。NetApp公司的重复数据删除并不是实时执行的。相反,它是使用预先设置的进程执行的,一般是在闲暇时间执行,通过扫描把重复的4KB数据块替换为相应的指针。NetApp公司并不对每一个4KB数据块生成一个唯一的哈希值,而是使用数据块的校验和来标识重复的数据块。为防止哈希冲突,这种情况发生在不同的数据块却有着相同的校验和(哈希)的情况,NetApp公司执行了数据块级别的比较,并去掉那些重复的部分。至于所关心的性能问题,“我们平均每小时可以去重1TB数据,”NetApp公司的Freeman表示。NetApp公司的重复数据删除一般是针对单个卷或LUN执行的,并且不会跨越它们。

与NetApp公司相似,Oracle公司在其Sun Storage ZFS 7000系列系统中也具备块级别重复数据删除的功能。与NetApp公司不同的是,去重是在其写入磁盘时实时执行的。“根据环境以及环境中的变化总量,去重的负荷小于7%,” Oracle公司的存储产品管理高级主管Jason Schaffer说。一些较小的厂商,像BridgeSTOR LLC公司,利用其应用优化存储(AOS)以支持去重。

另外一个明确投身数据缩减的厂商是戴尔公司。随着2010年对Ocarina Networks公司的并购,戴尔公司获得了内容感知的去重和压缩技术,并企图把这种技术整合到其所有的存储系统中。“从下半年开始,我们会发布具有Ocarina去重和压缩技术的存储产品,”戴尔康贝的产品市场化主管Bob Fine说。

当前面这些公司开发或收购重复数据删除技术的时候,Permabit Technology公司已经开发出了Albireo,一个可以授权给存储厂商的去重软件库,使这些厂商为及时适应市场而在其存储系统中增加重复数据删除的功能,同时避免了自己开发所带来的风险。“我们已经有了Xiotech公司、BlueArc公司以及LSI公司三个客户,我们希望具备Permabit去重功能的第一个产品会在2011年晚些时候发货,” Permabit公司的CEO,Tom Cook说。

压缩

压缩和去重一样,在用于主存储时面临许多相同的挑战。压缩也有性能负荷;它仅限于一个卷,并且无论什么时候数据要移出这个卷,数据必须要解压缩,这就像去重后的数据从一个卷迁移到另一个卷的时候必须先恢复。在理想情况下,不同的层,包括备份和恢复层(+微信关注网络世界),应该能够接受并应对压缩和去重的数据,但因为标准的缺失,他们通常还不能。

压缩和去重是互补性的技术,提供去重的厂商通常也提供压缩——BridgeSTOR公司、戴尔公司和Sun公司都是这样。而对于虚拟服务器卷、电子邮件附件、文件和备份环境来说,去重通常更加有效,压缩对于随机数据效果更好,像数据库。换句话说,在数据重复性比较高的地方,去重比压缩有效。

除了上述这些厂商以外,EMC公司能够在其VNX统一存储产品中提供压缩功能,以及对于文件内容提供单实例存储特性,这个功能可以实现对于相同的文件只存储单个拷贝,它确实达到了一定程度的重复数据删除功能。IBM公司为前端的NAS存储提供了Real-time Compression Appliances(STN6500和STN6800);该设备及其压缩技术来自IBM公司在2010年对于Storwize公司的收购。“Storwize公司的实时压缩软件在今年晚些时候将会成为IBM磁盘阵列的功能,在18个月之内,可以用在所有的产品线上,”IBM公司存储效率战略主管Ed Walsh说。

新老技术的并存

主存储的数据缩减是当今的现实,而且随着数据的无节制增长,它无疑会成为存储效率的关键部分。数据缩减功能,像RAID 6、精简供应、高效克隆和自动存储分层正在变得必不可少,并且成为评价主存储时的必要特性。另一方面,重复数据删除和压缩是新兴技术,随着时间的推移将变得更加普遍,但现在这些相对的新来者刚刚开始对主存储产生影响。

相关链接1:主要存储缩减技术

技术

功效

普及率

挑战

RAID级别

RAID 5/6提供了容量、性能、可用性的最佳折衷

使用广泛;成熟的技术

RAID 6的处理开销;不同的厂商RAID 6的性能有很大的不同

精简供应

·卓越的容量节约

·无性能影响

使用在逐渐增加;精简供应正在成为必不可少的功能

大多数厂商根据容量收费;不是所有的实现都是无预定的

高效克隆

·卓越的容量节约

·无性能影响

精简克隆仍然没有广泛使用

变化的效率级别

自动存储分层

有效利用昂贵的快速存储层

使用在逐渐增加

根据实施,需要管理规则以保证数据处于合适的存储层级

重复数据删除

虚拟机影像、电子邮件和内容文件的最佳组合

处于早期采用阶段;仍没有广泛使用

处理开销导致性能影响

压缩

随机数据优于去重

处于早期采用阶段;仍没有广泛使用

处理开销导致性能影响

相关链接2:主存储的快速数据缩减

取回主存储上宝贵空间最简单的方法是通过归档。公司,像个人一样,有保留太多东西的倾向。企业在其主存储上保留了大量某天可能会用到的数据。归档可以像迁移数据到归档存储以及在需要的时候恢复到主存储一样简单——零成本。如果想要自动迁移数据到归档存储并恢复到主存储的,可以使用像赛门铁克公司的Enterprise Vault或Waterford Technologies公司的归档产品,它们可以对已经归档的数据,在主存储上留下一个“存根”,对用户隐藏文件的真实位置。访问的时候,归档产品会根据“存根”自动拉回数据,对用户完全透明。

参考资料

1.重复数据删除:是一种数据缩减技术,通常用于基于磁盘的备份系统,旨在减少存储系统中使用的存储容量。它的工作方式是在某个时间周期内查找不同文件中不同位置的重复可变大小数据块。重复...详情>>

[责任编辑:存储 chai_shasha@cnw.com.cn]