|
影响重复数据删除技术的因素
重复数据删除(De-Duplication)成为最近存储备份领域的一个热门词汇。业内关于这项技术有多种不同的命名,比如单一实例存储、容量优化、公共分流、数据缩减。不管是用何种名称,重复数据删除都意味着只备份经过更改的数据。这与传统的每周或每天备份所有数据的模式形成鲜明对比。 对于那些希望降低带宽成本并改善备份性能的公司来说,重复数据删除无疑是一个极具吸引力的概念。但是和其他新技术一样,重复数据删除也带来了很多问题。 目前市面上应用重复数据删除技术的产品的主要区别在于实施重复数据删除的地点和文件被分割的片段大小。用户在购买之前必须弄清楚这些区别。 举个例子,ADIC、Avamar、Symantec在PC、笔记本和服务器上利用软件代理来压缩数据,但是这种方式将文件分割为不同的片段,在需要的时候复原文件。这种方法需要很大的处理功率,而且部署起来比较困难。 Asigra和Data Domain利用在备份服务器后端的设备来运行软件,由这些设备来负责重复数据删除处理而不用服务器。Diligent Technologies的虚拟磁带库运行在Linux服务器上,从备份服务器中收集数据,然后将数据复制到虚拟磁带库中。但是有人指出这种方法只是减少了所需的存储容量,并没有直接解决带宽问题。 另一个重要因素是文件片段的大小。较小的片断需要更多的指示器和更大的指针,这就延缓了备份时间。然而,较小的片断通常意味着压缩比率更好。 影响重复数据删除性能的因素还包括:压缩是块级的还是字节级的,所用的压缩技术种类、是否与备份软件整合以及价格等。 责编: 微信扫一扫实时了解行业动态 微信扫一扫分享本文给好友 著作权声明:畅享网文章著作权分属畅享网、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。 |
最新专题 |
|