PCIe的传输速度已经达到20甚至100Gbps,而且具备即插即用与可扩展性,这些都是数据中心经理们梦寐以求的,当然也是需要衡量性价比的。
这一能够彻底改变服务器的技术已经应用了很长很长的时间。
我们了解到IT业内的一些分类实践。Cisco推出了一系列UCS服务器,M-Series将服务器作为组件的一部分。Intel在各种活动上展示了其硅光子技术,包括Intel开发者论坛。
这是数据中心迈出的有趣一步,因为有了更高的带宽,我们正在重新定义“什么是服务器”。
要了解到底发生了什么,需要看一下底层的技术:PCI Express。PCIe诞生于2004年,是一些自协议的合集,具有物理层、数据链路层与传输层标准定义。听起来是OSI网络模型的一部分,对吧?而且就像网络一样,你可以改变物理层。
早期,PCI Express只出现在电脑内部,但2011年之后所谓的Thunderbolt接口将PCI Express接口扩展到了机箱外。
Thunderbolt接口非常块,传输速度在20Gbps,但其实际上是PCIe的不同物理转接方式。事实上你还可以使用具有普通PCIe插槽的扩展Thunderbolt外壳。Thunderbolt被认为是光学组件,基于Intel硅光子学设计,而且Thunderbolt对非IT消费者来说是非常具有性价比的选择。
与此同时,Intel同样还在耐心的开发Light Peak——Thunderbolt的光电版——可以利用PCI Express达到100Gbps的速度。唯一的问题是100Gbps的接口是以太接口,而且它们极其昂贵。Intel硅光子产品看起来会经济的多,因为它是针对消费级别互联设计的。此外,该设局具有整个PCIe总线,还支持以太网设备。
试想一下你的网络交换机、存储阵列和其他服务器集群,都作为设备模块连接到PCIe总线上。不仅可以让他们以100Gbps的速度通信,还可以利用两条线缆实现冗余,而不再需要六个、八个或更多。
这种高速PCIe对系统管理的影响十分显著。想想,如果你的存储阵列是个即插即用的设备?不管你不信,但它确实发生了。插上服务器,Windows Update会搜索驱动程序,接着将其分配到一个存储组,大功告成。你还希望繁琐、容易出错的存储管理方式吗?这同样还适用于网络。当谁需要IP时,你可以通过远程直接访问内存,将IP直接写入。自动化是一块创可贴;这种分类管理方法是对IT复杂性问题发起的一次挑战。
最有趣的是服务器的可能性。服务器使用非统一内存访问(NUMA),可以把服务器中的每个CPU变成一个计算资源岛。四路服务器摇身变成四台单路服务器,可以单独进行交互——你猜对了——PCIe的功劳。如果所有的“服务器”都只是单CPU与内存,并且可以根据企业需求来自由添加?看看32路的IBM System p多少钱?那么贵。看看Cray CS-Storm集群多少钱?Cray的秘密武器就是互联。与Cisco M系列相同。它借鉴了UCS互联光钎方案,实现了我在文中描述的内容,将1个CPU、32GB内存的离散计算节点开始,连接所有其他计算资源,让这些设备形成互相连通的更大的“服务器”。
这是Intel即将商品化的领域,在多方面拥有巨大的好处:标准、成本、灵活性、运营成本,甚至资本支出。这样可以整合所有IT,不再利用以太网和IP链接所有2U机箱,而是将其全部接到分布式背板上,这都得益于Intel的创新,他们在几十年前就已经在该架构应用上初具规模了。