|
PCI-Express将会改变存储I/O史的技术PCI-Express,通常被称作PCI-E,这种新兴的总线架构将在未来成为你设计系统构架时所必须要考虑的重要因素。PCI-E技术促进了基于Infiniband的存储和连接的普及速度。
如果使用400MB/S的无其它开销的传输速度来应付16KB请求的话,每秒可完成25000个(400MB/S 16000KB)请求,而250MB/S的一个单通道每秒则能够处理16000个请求。但因为有附加的头文件,所以实际应用中永远达不到这个速度。但是从另一方面说,一个或两个通道已经能够满足大部分的服务器、HBA卡和RAID系统的传输需求了。 如果只以IOPS的角度来看,一个单通道就能够和一块4GB HBA协同工作了。如果使用双端口的话,一个或者两个通道就满足大多数RAID架构的需求。 如果假设一块硬盘每秒的随机I/O读取次数最多在150次左右的话,那么很多数量的磁盘驱动器和缓存才能使其达到全速。由于大多数的RAID控制器没有8K的命令序列, 因此你也将大大超越RAID控制器的命令序列。 我记不得有哪个时期I/O总线的性能超过了最快的主机接口速度,因此我认为我们到达了一个科技史上非常重要的时刻,总线已经足以满足各种外接卡的速度需求。而这就意味着有了一些新状况已产生: 要有足够的内存带宽才能使总线全速运行:使用新的16通道PCI-E,全速双向运行总线可达10 GB/S(2.5 Gb/S*2 *16/8)的带宽。对于如今大部分x86和AMD系统的内存带宽来说的这都是一个不小的值。 系统中的瓶颈:许多来自各类厂商的PCI和PCI-X总线接口与内存系统之间总是存在性能瓶颈。在大多数情况下,这些性能设计缺陷限制了总线性能,即限制了总线从内存中读取和写入性能。偶尔总线本身也存在设计缺陷,但这种情况比总线与内存间出现问题的几率要小。可以明显地看出,我们需要这个接口的性能达到PCI-X的1GB/秒或更高。这就需要厂商检查接口的设计、进行早期的测试。 新I/O卡:随着新一代总线的推出,相对应的I/O卡也必须得到发展。这其中包括Fibre Chnanel、InfiniBand和新一代以太网(1G和10G)卡。测试这些卡的流量性能是很困难的。虽然找到测试设备并非难事,但是找到了解硬件知识的人才和确定卡所部属的软件堆栈是比较困难的。如果这些卡有良好的速度和IOPS性能,那会很理想。但如果存在瓶颈,就很难更正。其中的问题可能存在于很多方面:应用程序、操作系统、I/O驱动、卡驱动、PCI-E总线、内存带宽或者其它数据通道的问题。在1990年,我参与了早期Fiber Channel的测试,当时就有厂商表示我们可以通过解决数据通路上的一些问题来提高其接口速率。 架构工程师该怎么做? 很明显的,PCI-E在I/O处理性能和IOPS方面都比PCI-X有更多的优势。DELL、HP和其它厂商的很多低端PC产品上都已经开始采用PCI-E了。 但是拥有大型SMP系统的服务器厂商呢?PCI-E总线在哪里?这主要是由于大型SMP系统的服务器有更强大的内存带宽和更复杂的内存基础结构。当你在一个单一的主板上设计PCI-E总线是非常简单的。而设计大型系统就复杂多了,有很多总线和内存的相互接口纵贯在板子上。当然,厂商们应该提前考虑一下新一代服务器能够实现这种升级,但这不是一个简单的问题。如今,大部分的SMP服务器厂商使用PCI-X技术,而不是PCI-E.出现这种情况有很多原因: 由于卡片的电压问题,PCI-E和PCI-X的NIC、HBA和HCA卡是不可互换的。这就意味着必须有两套接口:一套是用于刀片系统运行PCI-E,另一套是针对大型机的SMP系统。 SMP I/O性能不如刀片系统。高端家用PC拥有8X PCI-E的I/O接口和16X的图形卡接口。因此这些系统需要比内存带宽更大的带宽需求。其实际的带宽超过了12个PCI-X插槽全速运行的带宽。 PCI-E将会在图形总线技术上使用很多年。不幸的是许多大型SMP厂商没有计划在当前产品中加入PCI-E接口。这个设计的改变是非常复杂的,但是许多厂商总是会对I/O设计的滞后性感到懊悔。而作为最终用户,也许我们需要努力让大型SMP厂商认识到I/O的重要性。 责编:王立新 微信扫一扫实时了解行业动态 微信扫一扫分享本文给好友 著作权声明:畅享网文章著作权分属畅享网、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。 |
最新专题 |
|