您的位置: 网界网 > 存储 > 正文

性能与ILM的平衡:服务器闪存缓存的思考

2015年01月22日 10:46:35 | 作者:黄亮 | 来源:cnw.com.cn

摘要:本文想给大家介绍下服务器闪存缓存是如何在提供高性能、低延时的同时,实现共享、高可用以及和后端阵列整合的。

标签
戴尔
全闪存阵列
服务器闪存
PCIe SSD

而当换成Fluid Cache for SAN方案时,性能在全闪存阵列基础上又提升了5-6倍。

那么是否测试压力的时间还不够长?进一步增加到1亿条记录,Fluid Cache for SAN的表现并没有下降较多,仍然有着令人满意的结果。

我自己提出一个问题:Server Flash Cache这样的性能表现,有多少IO落到了后端的外部存储上?是不是绝大多数都命中到服务器上的PCIe SSD上了?

上述测试用了5节点x 800GB NVMe,需要考虑写缓存因为冗余容量利用率为50%。Oracle数据库典型的读/写IO比例通常为7:3、8:2或者9:1,闪存对读加速的效果比写更好。OLTP应用的交易量大,但在一定时间内访问的热点数据集通常有限,像历史数据这样的冷数据放在后端大容量磁盘阵列上,倒是比较符合ILM(信息生命周期管理)的目标。混合阵列中的闪存也能达到类似的效果,但性能表现我觉得不如Server Flash Cache。

我们试想一下,将来某一天7200转硬盘的大容量SAN存储,会不会也白菜价呢?

最后,看下Fluid Cache for SAN的参考架构。

最少3台戴尔PowerEdge R620作为缓存贡献服务器,其中2台必须包含至少1个PCIe SSD,也就是说另外1台可以作为见证(仲裁)节点。

Fluid Cache for SAN目前支持Red Hat企业版Linux 6.3和6.4,SLES 11.3和VMware vSphere 5.5。我记得赛门铁克的SmartIO初期只支持Linux。Windows下的难题估计在于缓存软件/客户端驱动,可能还有用户需求和稳定性的原因。

最少1个交换机,当然2个有冗余会更好。因为一旦这个专用互连网络中断的话,写缓存就失效了(不受保护,将刷新到后端阵列),此时最多也只能实现独立的本地读缓存了。

最小SSD配置是2台服务器上各1个175GB Express Flash PCIe SSD,这款应该是来自Micron的SLC型号。

3块RoCE网卡,这里列出的是Mellanox的万兆产品。

SC8000后端阵列和SC220 JBOD,单控仅可用于测试环境,生产环境不被支持哦。

Fluid Cache for SAN最大8个服务器节点,每个节点都可以作为缓存贡献服务器。

交换机这里换成了2个40GbE,还是RoCE,之前听说InfiniBand也能支持。

32个400GB NVMe SSD,每服务器4个。前面的测试配置中我看到了800GB的型号,猜测可能没有认证完毕?或者缓存池的最大可管理的物理容量就是12.8TB?

毕竟维护一个闪存缓存池,通常是需要消耗服务器内存来放元数据的。

我想对本文做个简单的总结:“没有万能的技术,只有适合的场景”。无论是服务器闪存缓存技术与其它方案比较,还是看待不同服务器闪存缓存产品之间的差异。每家的方案在设计上都有所取舍,用户选择适合自己的就ok了。

12 3
[责任编辑:周源 zhou_yuan@cnw.com.cn]

我也说几句