您的位置: 网界网 > 存储 > 正文

浪擎“双活”容灾,可在线查询的容灾

2014年06月28日 21:07:46 | 作者:厂商投稿 | 来源:it168网站 | 查看本文手机版

摘要:传统的数据备份技术在一定程度上是可以保证数据安全的,但应用于容灾时却面临备份窗口、备份间隔、数据可恢复性等众多问题,并且不能满足RTO和RPO这两个要求趋于0的技术指标,因此仅用于一些非常低等级的容灾要求。

标签
浪擎
容灾
数据备份

传统的数据备份技术在一定程度上是可以保证数据安全的,但应用于容灾时却面临备份窗口、备份间隔、数据可恢复性等众多问题,并且不能满足RTO和RPO这两个要求趋于0的技术指标,因此仅用于一些非常低等级的容灾要求。

如果需要将数据库复制到另外一个地方,必须满足一个重要的指标:

1、数据必须实时:如果不是实时,那只能叫数据库迁移,属于数据仓库ETL的范畴。

2、数据必须准确:对复制过去的数据必须经得起验证,保证数据准确无误。

3、数据必须可在线查询:如何知道数据复制过去了,必须提供查询手段保证实时在线查询。

4、数据复制独立性:数据库复制软件不能安装在主库,特别是不能在主库上进行编译,否则对主库的应用系统将产生不可估量的影响。

5、数据复制配置简单:这里面的指标包含不停机初始化、数据库表过滤机制、数据库用户过滤机制,这些都需要简单配置可用。

6、数据复制便于监控:必须提供数据复制的过程监控机制,保证数据复制监控实时性,保证对数据复制过程及更改数据的可审计方式

数据复制是容灾主要使用的技术。数据复制技术按数据写的过程可分解成4大种类:基于应用级事务复制、基于文件层复制、基于逻辑卷层复制、基于磁盘阵列复制。四种复制技术的大致说明:

基于应用系统事务级:技术复杂,完全能保障数据库的一致性,但是支持应用有限。

基于文件层:复制技术简单,但不能保障数据库一致性,一般用于文件复制。

基于逻辑卷层:实施可能需要改造生产环境,实施复杂。

基于磁盘阵列层:磁盘阵列厂商的复制技术,与硬件绑定,成本高昂,实施复杂。

四种复制技术各有优缺点,一般而言文件层复制因不能保障数据库的一致性,较少用于大型数据库的容灾。

浪擎科技的镜像系统采用应用层和文件系统的复制技术,结合两层的优点,打造了一款备端在线的、可验证的应用级容灾产品。浪擎镜像系统结合了文件层复制技术简单和复制速度快的优点,同时采用应用层的复制技术,具备完全保障数据库一致性的特性。

业务系统的数据主要保存在数据库中,比如SQLServer、Oracle等,要做到容灾,浪擎镜像系统就要对这些数据库进行实时复制。浪擎镜像系统的数据复制过程:文件驱动实时捕获数据库的增量数据,分析引擎扫描和分析这些数据块,然后组装成数据集,保存到目标数据库。

浪擎镜像系统的关键技术理解数据块的语义,按照数据库的语法组装成数据库能识别的数据集合,才能使用数据库自身的数据装载方法把增量数据保存到在线的备用数据库。

其他层次的复制技术做不到备端在线,在于不能理解数据块语义,不能使用数据库的数据装载方法来保存数据,只能复制软件替数据库保存数据。在保存数据期间,备用数据库必须处于不在线状态,否则不能保存数据。

其他层次的复制技术做不到保存数据和备用数据库在线这二者的统一。

可验证的容灾

浪擎科技的容灾备份软件是可验证的容灾,在实施完毕后,需要定期抽检或不定期的灾难演练,从而验证容灾系统的好坏,验证备用数据库的可用性。备端在线可以直接去验证备用数据库的好坏,进而可以验证主、备两端的数据差异。

这个本质的优势(+本站微信networkworldweixin),完全解决了其他容灾技术和传统备份技术的最大缺陷。这个最大的缺陷就是在复制期间不能查看备用数据库的好坏,或者数据。

可靠的容灾

复制或备份数据不是目的,这只是一种技术手段,其目的是要起到主端发生故障时能立即使用备用端容灾系统,要达到这个目的就必须做到可靠的容灾。

仅就备用数据库而言,要做到可靠就必须保障数据库级别的一致性,就是要保证备用数据库的数据存储结构是好的,内部关联性是一致性的。镜像系统的备用数据库处于实时在线状态;其他复制技术的目标数据库在复制期间处于不在线状态,必需要启动才能使用,但是复制期间丢失数据块可能导致备用数据库损坏,不能正常启动。

备端在线带来了一个额外的用处,备用数据库可以用来实现查询统计功能,分流主数据库的性能压力。如,极其消耗性能的报表统计就可部署在备用数据库上。这是备端在线的附加值,超越了容灾的范畴。

其他特性

实施全程不停机,避免因停机带来的风险,同时避免业务的中断。

应用灵活,支持一对一,多对一等方式。尤其是多对一容灾方式,可节减备用端的硬件投入成本。

应用领域

浪擎镜像系统主要用于保障关键业务系统运行,如金融、证券、电信、能源、医疗、税务、社保、电商等实时交易类的业务系统。

[责任编辑:存储 chai_shasha@cnw.com.cn]