“高效制胜、扩展无限—Dell HPC 行业应用实践交流会”于2012年6月20日在北京悠唐皇冠假日酒店盛大召开,戴尔技术专家及行业技术精英和与会者切磋交流,共商HPC发展之大计。
以下是现场快递。(声明:本稿件来源为现场速记,可能有笔误和别字,仅供参考)
主持人:非常感谢凌顾问的精彩分享,接下来有请到的是Dell Force10团队售前工程师王亮,他给我们分享的是高性能计算中Dell万兆网络解决方案。有请王总。
Dell Force10团队售前工程师王亮
王亮:各位下午好,我叫王亮,是Force10团队的售前工程师,我不知道各位有没有听说过Force10,Force10是做万兆以太网交换机的,我们是去年被Dell收购,加入Dell大家庭,在HPC领域Force10也是做了很多年,有一些案例,以及一些成功的经验,今天愿意和大家一起分享一下。
说到大型计算,高性能计算这块,可能目前主流的有这么几种类型,像SMP,还有Cluster集群,在以太网和Cluster的应用中还是比较广泛的。Force10提供高密度的10G、40G的交换机。
那么我们更多的是Cluster的应用,在Cluster的应用当中,我们的存储网络,到中断用户的网络,以及管理网络,还有就是内部连接,就是连接到这个计算节点的网络,我们通常在设计上都会采用一台交换机这么一个结构,为什么喜欢这么一个结构呢,因为首先我们在高性能计算中,可能关心的最大的一个问题是高可用性,一个计算跑了两天、一星期,由于交换机的原因,计算结果丢失了,这肯定是您不能忍受的。在Cluster应用中,Force交换机提供足够多的端口,所以它在整个使用一台设备就可以计算节点,管理节点。
我们以前在InfiniBand,带宽足够大,时延是比较低的,现在随着以太网技术的发展,以太网这块也是有了40G甚至100G的交换机,时延也是越做越小,除了交换机这一端对时延进行优化以外,在服务器端,网卡那一端也可以对时延进行一定的优化,通过这样的优化,通过IP以太网组成的高性能计算网络,基本上这些参数也可以去追赶InfiniBand这些优势了。
那么这也就是我在这里跟各位讨论的,主连接,也就是到计算节点的连接,是否采用以太网。就像我们在做一些实例,跟客户做交流的时候,其实现在有一些高性能计算的应用,他的底层就是基于TCIP技术的,如果要在IB网络上的话,他可能要做IP或者IB的转换,这个其实效果比不是很好。
在地球物理,石油勘探,其实我们现在也已经有了很多的通过以太网络实现高性能计算的应用案例。时延现在在高性能计算中,各位的需求是时延越低越好,对于我们的交换机,对于数据中心,或者为高性能计算设计的IP交换机的话,其实像Force10所有产品的时延基本上低于5微秒,甚至有一款产品,刚才在门口各位都看到了,有一台4810,他的时延是700纳秒,是非常低的。
那么IP网在结构设计上,还有一个由于IB的优势,以太网可以通过Cluster的算法,分布式核心的算法,非常方便的横向扩展,然后组成一个很大型的计算节点集群。我这列了一个实例,Cluster这个结构我简单给大家解释一下,通过两层架构,一层做骨干,一层做枝叶,骨干做转发数据,枝叶做服务器计算节点介入。他遵循的原则是,从枝叶层的交换机去下连计算节点的带宽,一定要小于等于上连到骨干层带宽,这样才能整个网络结构里面是一个无阻塞的全线速的网络。那么为什么说它易于扩展,在这个结构里面我可以以两个核心作为起始结构,甚至一个核心做起始结构,然后不断的添加或减少枝叶,在这个过程中并且影响现有节点的数据通讯,而且这个结构可以做到很方便,您可以看到我们有这么几个例子,用我们的4180做核心及枝叶结点,16台设备就可以做到576个,3:1的万兆端口。
其实还是在讨论采用以太网在HPC里面的优势,Force10的设备提供是全线速的板卡,三层、二层的全线速转发的设备,并且端口密度,节能降效这块都会有很好的体现。您可以看到,我这只选了一个我们最大的一台设备,1200,如果我们采用高密度的万兆端口一台设备可以达到280个,时延甚至达到320纳秒。
目前我们支持的端口数有1G、10G、40G,可靠性后面我可能会有一些成功案例的分享,在我们很多高性能计算案例中,尤其是在中科院的科研机构,他们可能就是用一台设备把一个集群连起来,已经很长时间了,没有任何问题,低时延也强调了,再有就是Force10所有设备是经过第三方评测机构评测的结果,Force10所有的设备,在相同的端口数或者是相同转发需求的情况下,它的单位功耗是最低的。
那么在高性能计算领域,高性能计算TOP500里面,有很多是采用了Force10的产品,世界上最快的HPC,这也是举个例子,刚才同事介绍上一个片子的时候,屡次提到华大基因,其实华大基因也是我们Force10在国内重大的客户,它在高性能计算这块也是采用了我们的高性能Force10交换机。
下面是几个成功案例的分享。包含这个是新疆地球物理所,下面的计算节点直接挂到我们大盒子叫1200下面,就跟刚才那个图差不多。然后这个是一个实拍的照片,在它的机柜上拍的照片,现在一个交换机已经插满了,基本上交换机的面板已经看不到了,全部被线遮盖掉了,好处是Force10机器还自带一个线的整理架,整体来说这个线还是比较规范的。
辽河油田,这也是我们一个成功的案例,我们Force10在除了性能上的特色以外,他在软件功能,操作系统上也有一些特色,像辽河油田,链路捆绑数你可以看到,一般的话,链路捆绑是八条,那么我们可以支持16条甚至更高,我们最新的支持64条捆绑,这个案例中我们是做了十条链路捆绑,为这两个核心节点下面的这些数据通讯保证一个互联带宽,高可用,大带宽。
这是一个西地所,计算节点一共是256个,其实大家可以看到,在这个图上面的全部是他的计算节点,直接连到一台Force10 1200交换机上面,下面是存储的服务器,再下面是散网络,以及它的存储系统,管理系统挂在这个地方。其实这个结构可以很清晰地看到,一台高性能,高密度的交换机,就可以完成他所有的HPC计算的需求。
这还列了一个上海超算的案例,我就不详细讲了,结构也是差不多的,计算节点更多一些,1536个。另外我们在深圳星云,跟政府合作,做了一个当时是亚洲最大的云超算中心,深圳星云这个项目,可以看到他是几个区域,HPC区,云计算区,那么在这个区域内部,采用的全部都是Force10的,从接入层交换机,到核心交换机,两层结构,全线速交换的网络。区域跟区域之间由于含有一定数据量的通讯,我们采用两台4810,这个结构也类似Cluster的结构,全互连,这个肯定不是全线速的。保证了区域跟区域之间的一个数据通讯,并且保证了一定量的带宽。
我讲的内容就这么多,因为时间确实比较短,就没有展开给各位讲Force10产品,多数是讲一讲以太网在HPC领域,其实我们能做些什么,Force10产品是能在以太网的基础上为HPC的应用提供基础架构,至于具体的产品,如果各位有兴趣,我们想我们之后会有更多的交流,我们也愿意把我们的产品资料,愿意把我们的一些经验和大家一起来分享。谢谢大家!