当前位置:云计算行业动态 → 正文

创新网络构建高效云计算平台

责任编辑:cres |来源:企业网D1Net  2016-06-15 14:36:53 原创文章 企业网D1Net

2016 CCS企业云计算高峰论坛(ccs.d1net.com)于6月15日在北京国际会议中心盛大举行,这是国内面向政企客户的最重要的一个云计算会展。CCS企业云计算高峰论坛上,云与大型企业的兼容性将成为主要议题。

以下是现场速递。(声明:本稿件来源为现场速记,可能有笔误和别字,仅供参考)

主持人:感谢张主任的精彩分享,下面有请Mellanox亚太市场开发经理罗云飞为我们分享“创新网络构建高效云计算平台”,掌声有请!


Mellanox亚太区市场开发经理 罗云飞

罗云飞:大家好,我是来自Mellanox公司,我们是一家网络的厂商,是一家以色列公司,在美国上市,在中国我们也是经营了十多年的时间了。Mellanox的网络它的特点是什么?我们其实主打的就是高带宽、低延迟网络,针对云计算我们有很多虚拟化和云计算加速的技术。所以我们在国内跟很多云计算的合作伙伴,包括用户都有很多成功的案例。

说到网络,大家会首先想,我们这个数据中心的网络带宽现在是一个什么样的水平?千兆网络毫无疑问已经是退出了,千兆网络其实现在只是用来做一个管理网会用的比较多。那么,其实如果我们去谈云计算,云计算最基本的一个基础设施都是要做到万兆,也就是10G这样的一些带宽,并且现在很多用户考虑上更高的带宽,比如40G,甚至也有到56G等等这样一些。Mellanox的优势在于我们是去做高带宽、低延迟网络互联,帮助我们提升云计算的技术,包括虚拟化加速的一些技术。

首先给大家介绍我们的一个产品,这张图可以看的非常清楚,我们做的是端到端的InfiniBand和以太网的互联。Mellanox在全球的InfiniBand市场份额95%以上,基本上是一家独大。以太网的产品线我们也有,而且最下面我们做到10G,就是咱们讲的万兆,25G、40G、50G、100G,现在全面发售,全面在交货。所谓端到端,就是我们的产品涵盖了包括芯片、网卡、交换机、线缆、软件,还有一些原生通信的方案,全套的都有,我们是业界唯一的一家做端到端的网络的厂商,因为做网络的厂商很多,交换机、网卡都有很多的厂商。Mellanox的网卡我们的芯片全部是自己的芯片,不依赖与任何上游的厂商,这是业界唯一的一家这样的一个公司。我们其实更可靠的说,我们是一家芯片的厂商,其实有很多国内的一些大的OEM是用我们的芯片自己去做系统,去OEM我们的芯片。

那么,从2015年下半年开始,Mellanox全面交付了100G,100G的概念是什么?一个端口里面跑10万兆的带宽,非常高的带宽,外面有我们的展台,也有一些设备,它的带宽非常高,基本上是传统的万兆网络的10倍了。包括基于ConnectX.4芯片的网卡,包括基于Switch IB InfiniBand的交换机,还有Spectrum交换机,还有LinkX。比如ConnectX.4网卡延迟只有700纳秒,0.7微妙,包转发可以达到150万的速度。Spectrum交换机,32个端口,每个端口都是100G,里面只有一个芯片来支撑。所以,性能非常的强劲。我们的研发能力在业界是数一数二的,这是100G。

另外,大家有没有听说过,现在在企业数据中心和云计算里面很多人都在所谓25G。25G是一个什么概念?如果从数据中心的演变来说,可能大家会说,我的速度是10G,40G,再到100G。但是,很多用户他会说,40G太贵,确实,40G相对10G来说价格会很高。所以,Mellanox我们跟下面这些合作厂商成立了25G的联盟,我们认为25G会是一个比较热门的网络的一个速度,因为它相对10G来讲延迟更低,比40G有更好的性价比。所以我们把25G作为我们助推的方向,我们认为25G会成为服务器上仅次于10G,仅次于万兆的第二大网络接口。所以,其实现在包括国内的一些云计算厂商,甚至我们的BAT他们都在去验证我们的25G的解决方案,甚至也有一些也是在OEM我们的芯片,自己去做25G的交换机和网卡,比如百度、比如阿里巴巴,他们都在跟我们做合作。

25G的交换机我们的芯片叫Spectrum,它的性能是一个国际性的测试的组织,叫Test report,跟国际的另外一个大厂他们交换机的芯片是很高的市场份额,跟他们100各的芯片叫Tomahawk他们的一个对比。Mellanox我们就做高性能,主打性能,比如我们的丢包,不管多大的数据包括发送都没有丢表,延迟始终维持在0.3微秒的水平,我们功耗很低,转发率很高,这都是我们的一些特点。

对于云计算来讲都要做到开放,Mellanox的交换机,我们不仅可以跑Mellanox自己的交换机操作系统,也可以跑其他的网络系统,比如百度OS,百度的操作系统也可以跑在我们的交换机上。比如Cumulus是一家美国的公司,专门做网络操作系统,它的特点就是基于Linux的网络的交换机操作系统,也就是说只要咱们的管理员熟悉Linux就可以非常非常简单的去操作这个Cumulus。不像有一些厂商的交换机是一些私有的协议的操作,非常复杂,很多情况要一些手册。所以,我们的交换机也可以跑Cumulus Linux,所以我们始终在拥抱开放,去推动开放。

我们产品的一个很重要的技术就是RDMA的加速,RDMA是远程内存直接访问。它的意思是说,你的设备,你的硬件,也就是你的网卡可以直接访问你的内存,而绕过了CPU和系统内核。就是我把内核旁路掉,这样不需要把数据再从用户态拷贝到内核态。它的好处什么?它的好处就是我释放CPU,减少了网络的CPU消耗,如果你的I/O负载很高的时候,你可能会因为网络传输消耗掉很多的CPU。所以,第一释放CPU。第二,因为绕过CPU的内核,所以延迟很低。我们低延迟就是这么来的。RDMA可以显著的把我们的延迟降低下来。

我们经常用的iSCSI,ESXi对比iSCSI性能怎么样?ESXi在很多云计算厂商都获得他们的认可。iSCSI其实TCP/IP,我做ESXi,就是RDMA以后带宽有10倍的提升,所以这就是RDMA加速的效果。Mellanox我们公司所有的网卡都全面支持RDMA去部署存储的性能,对存储的性能进行优化。

这里有一个例子,是通过iSCSI访问存储,在计算节点部署VDI,它的VDI的性能,如果从TCP/IP升级到RDMA之后,TCP/IP可能万兆网络里面只能部署60个虚拟桌面,但是如果做到iSCSI之后访问存储,单节点可以达到140个。一方面释放CPU,处理能力变强了,另外延迟很低,所以吞吐量也能上去。

云计算里的虚拟化,我们很多厂商会用的一个技术叫做SR-IOV。就是硬件直通的技术。Mellanox的网卡我们可以很好的支持SR-IOV技术,我在网卡里面内置了一个嵌入式的交换机,可以帮助它进行优化。

另外一个技术,Overlay Networks,特点就是把虚拟网络潜逃到物理网络里面发送出去。但是,带来的一个问题就是VXLay(音译)也好,NVGRE也好,它的技术涉及到数据包的封装、解压、聚合等等会消耗大量的CPU,系统性能会明显的下降,这怎么办?我们Mellanox提出的方案也是硬件卸载,其实说白了就是让我们的网卡硬件帮助CPU去分担更多的你的负载。所以,我们把Overlay Networks这些数据包的处理操作全部卸载到网卡上,让网卡完成这部分工作。这样就可以把CPU释放出来,你的系统性能有一个很明显的提升。

右边这张图,这里面跑40G的网络,就是4万兆,蓝色的表示采用VXLay,但是通过消耗你的CPU进行处理。所以,带宽40G跑到10G就上不去了,原因在于系统的CPU被消耗殆尽,所以你的贷款也上不去。但是,如果紫色的这个是我们做VXLay的卸载,就是让网卡处理VXLay的操作,这样带宽可以达到三十六七的样子,接近限速,因为释放了CPU,这是网卡帮助虚拟加速直接的表现。

此外还有一个技术叫做OVS,也是在云计算里边会用的比较多,因为它作为一个控制平面,功能非常的强大。Mellanox提出的一个方案,我们做基于我们的网卡做OVS off-flow(音译),去学习你的OVS的流表,创建自己的路由规则到网卡里面进行卸载,在这种情况下,我们就可以实现包括SLV,包括OVS在内的一个既有数据平面加速,又有管理平面功能的这么一套完整的方案,一套SDN的一套网络就搭建出来。

相信OpenStack,云计算很多知道OpenStack,它是一个主流的开源的一套云的操作系统,如何跟OpenStack结合呢,我们其实是去针对OpenStack做了几个插件,因为我们是一个底层的网络厂商,我们要把网络功能映射到OpenStack的管理界面上,所以我们做了两个插件,一个是Neturon,第二个是Cinder,我们在计算节点有一个Neturon,通过Neturon可以调用网卡的能力。对于存储来讲,我们通过RDMA加速,它可以把存储的性能提高到5倍,甚至更多,这就是我们跟OpenStack结合的一些方案。OpenStack的版本,我们都支持,并且是内置的,跟主流的版本,他们的版本都会内制Mellanox的插件。

Ceph的存储也是用的比较广泛,中国也有很多社区活跃的开发人员在从事Ceph,确实是分布式性能比较高的存储系统,高性能的存储仍然离不开高性能的网络,所以要发挥云计算最佳的优势,那么你也需要去把网络进行一个升级。那么,这里可以看到,千兆网络10G,万兆网络,我如果采用更高的带宽都会有很高的提升。Mellanox的网络支持免费的由40G升级到56G,56G是独家的标准,因为比40G又多了40%,当我们升级到56G,性能也会有不小的提升。

100G的云有点夸张,现在云计算基础设施带宽还是以万兆为主,可能聚合网络很多厂家会采用4万兆。100G的云是什么概念?这只是为了证明我们的演示,在OpenStack峰会上做的一个演示,是两个物理节点,每个物理节点上不是一个虚拟机,这两个虚拟机打带宽,连接包括ConnectX-4100G网卡,Switch-IB/Spectrum交换机,和25/100G的线缆。我们虚拟机达到90多G的带宽已经非常了不起。另外,它的CPU利用率,在这么高带宽的情况下,CPU的利用率很低,只有0.71%,基本上对CPU没有损耗。怎么做到,还是RDMA,RDMA是绕过CPU的,所以它是释放你的CPU。所以,在高带宽的同时,其实可以把你系统的性能也提上去,可以降低CPU的损耗,这是我们解决方案的优势。

另外提供一些管理工具,我们的工具叫NEO。NEO跟Neturon通信,可以帮助我们减轻一些管理工作。前面介绍的是Mellanox的网络,我们有很多虚拟化的加速技术,我们在云计算的领域有很多很多的成功案例,比如微软,微软的公有云叫Azure,在中国有两三年的历史了。这是他们自己的一段引言,他们说我们通过把Azure的存储升级到40G,我们的性能有了提升,并且成本有了大幅度的下降。所以,RDMA,包括40G也是我们一个比较有优势的一个方案,可以告诉大家,我们40G网卡出货量,全球的出货量2015年是94%。非常高的一个出货量,基本上也是垄断。这是国内的OpenStack的合作伙伴基于我们的网络做的案例,它采用万兆,中间紫色的那一部分,万兆实际的端到端的网络互联,另外它跑的是KVM的虚拟化,加上Gluster的分布式存储。它跑OpenStack这样一个操作系统。给大家介绍这么多,介绍我们在云计算上的方案,我们外面有展台,希望大家跟我们交流。谢谢!

关键字:云计算

原创文章 企业网D1Net

x 创新网络构建高效云计算平台 扫一扫
分享本文到朋友圈
当前位置:云计算行业动态 → 正文

创新网络构建高效云计算平台

责任编辑:cres |来源:企业网D1Net  2016-06-15 14:36:53 原创文章 企业网D1Net

2016 CCS企业云计算高峰论坛(ccs.d1net.com)于6月15日在北京国际会议中心盛大举行,这是国内面向政企客户的最重要的一个云计算会展。CCS企业云计算高峰论坛上,云与大型企业的兼容性将成为主要议题。

以下是现场速递。(声明:本稿件来源为现场速记,可能有笔误和别字,仅供参考)

主持人:感谢张主任的精彩分享,下面有请Mellanox亚太市场开发经理罗云飞为我们分享“创新网络构建高效云计算平台”,掌声有请!


Mellanox亚太区市场开发经理 罗云飞

罗云飞:大家好,我是来自Mellanox公司,我们是一家网络的厂商,是一家以色列公司,在美国上市,在中国我们也是经营了十多年的时间了。Mellanox的网络它的特点是什么?我们其实主打的就是高带宽、低延迟网络,针对云计算我们有很多虚拟化和云计算加速的技术。所以我们在国内跟很多云计算的合作伙伴,包括用户都有很多成功的案例。

说到网络,大家会首先想,我们这个数据中心的网络带宽现在是一个什么样的水平?千兆网络毫无疑问已经是退出了,千兆网络其实现在只是用来做一个管理网会用的比较多。那么,其实如果我们去谈云计算,云计算最基本的一个基础设施都是要做到万兆,也就是10G这样的一些带宽,并且现在很多用户考虑上更高的带宽,比如40G,甚至也有到56G等等这样一些。Mellanox的优势在于我们是去做高带宽、低延迟网络互联,帮助我们提升云计算的技术,包括虚拟化加速的一些技术。

首先给大家介绍我们的一个产品,这张图可以看的非常清楚,我们做的是端到端的InfiniBand和以太网的互联。Mellanox在全球的InfiniBand市场份额95%以上,基本上是一家独大。以太网的产品线我们也有,而且最下面我们做到10G,就是咱们讲的万兆,25G、40G、50G、100G,现在全面发售,全面在交货。所谓端到端,就是我们的产品涵盖了包括芯片、网卡、交换机、线缆、软件,还有一些原生通信的方案,全套的都有,我们是业界唯一的一家做端到端的网络的厂商,因为做网络的厂商很多,交换机、网卡都有很多的厂商。Mellanox的网卡我们的芯片全部是自己的芯片,不依赖与任何上游的厂商,这是业界唯一的一家这样的一个公司。我们其实更可靠的说,我们是一家芯片的厂商,其实有很多国内的一些大的OEM是用我们的芯片自己去做系统,去OEM我们的芯片。

那么,从2015年下半年开始,Mellanox全面交付了100G,100G的概念是什么?一个端口里面跑10万兆的带宽,非常高的带宽,外面有我们的展台,也有一些设备,它的带宽非常高,基本上是传统的万兆网络的10倍了。包括基于ConnectX.4芯片的网卡,包括基于Switch IB InfiniBand的交换机,还有Spectrum交换机,还有LinkX。比如ConnectX.4网卡延迟只有700纳秒,0.7微妙,包转发可以达到150万的速度。Spectrum交换机,32个端口,每个端口都是100G,里面只有一个芯片来支撑。所以,性能非常的强劲。我们的研发能力在业界是数一数二的,这是100G。

另外,大家有没有听说过,现在在企业数据中心和云计算里面很多人都在所谓25G。25G是一个什么概念?如果从数据中心的演变来说,可能大家会说,我的速度是10G,40G,再到100G。但是,很多用户他会说,40G太贵,确实,40G相对10G来说价格会很高。所以,Mellanox我们跟下面这些合作厂商成立了25G的联盟,我们认为25G会是一个比较热门的网络的一个速度,因为它相对10G来讲延迟更低,比40G有更好的性价比。所以我们把25G作为我们助推的方向,我们认为25G会成为服务器上仅次于10G,仅次于万兆的第二大网络接口。所以,其实现在包括国内的一些云计算厂商,甚至我们的BAT他们都在去验证我们的25G的解决方案,甚至也有一些也是在OEM我们的芯片,自己去做25G的交换机和网卡,比如百度、比如阿里巴巴,他们都在跟我们做合作。

25G的交换机我们的芯片叫Spectrum,它的性能是一个国际性的测试的组织,叫Test report,跟国际的另外一个大厂他们交换机的芯片是很高的市场份额,跟他们100各的芯片叫Tomahawk他们的一个对比。Mellanox我们就做高性能,主打性能,比如我们的丢包,不管多大的数据包括发送都没有丢表,延迟始终维持在0.3微秒的水平,我们功耗很低,转发率很高,这都是我们的一些特点。

对于云计算来讲都要做到开放,Mellanox的交换机,我们不仅可以跑Mellanox自己的交换机操作系统,也可以跑其他的网络系统,比如百度OS,百度的操作系统也可以跑在我们的交换机上。比如Cumulus是一家美国的公司,专门做网络操作系统,它的特点就是基于Linux的网络的交换机操作系统,也就是说只要咱们的管理员熟悉Linux就可以非常非常简单的去操作这个Cumulus。不像有一些厂商的交换机是一些私有的协议的操作,非常复杂,很多情况要一些手册。所以,我们的交换机也可以跑Cumulus Linux,所以我们始终在拥抱开放,去推动开放。

我们产品的一个很重要的技术就是RDMA的加速,RDMA是远程内存直接访问。它的意思是说,你的设备,你的硬件,也就是你的网卡可以直接访问你的内存,而绕过了CPU和系统内核。就是我把内核旁路掉,这样不需要把数据再从用户态拷贝到内核态。它的好处什么?它的好处就是我释放CPU,减少了网络的CPU消耗,如果你的I/O负载很高的时候,你可能会因为网络传输消耗掉很多的CPU。所以,第一释放CPU。第二,因为绕过CPU的内核,所以延迟很低。我们低延迟就是这么来的。RDMA可以显著的把我们的延迟降低下来。

我们经常用的iSCSI,ESXi对比iSCSI性能怎么样?ESXi在很多云计算厂商都获得他们的认可。iSCSI其实TCP/IP,我做ESXi,就是RDMA以后带宽有10倍的提升,所以这就是RDMA加速的效果。Mellanox我们公司所有的网卡都全面支持RDMA去部署存储的性能,对存储的性能进行优化。

这里有一个例子,是通过iSCSI访问存储,在计算节点部署VDI,它的VDI的性能,如果从TCP/IP升级到RDMA之后,TCP/IP可能万兆网络里面只能部署60个虚拟桌面,但是如果做到iSCSI之后访问存储,单节点可以达到140个。一方面释放CPU,处理能力变强了,另外延迟很低,所以吞吐量也能上去。

云计算里的虚拟化,我们很多厂商会用的一个技术叫做SR-IOV。就是硬件直通的技术。Mellanox的网卡我们可以很好的支持SR-IOV技术,我在网卡里面内置了一个嵌入式的交换机,可以帮助它进行优化。

另外一个技术,Overlay Networks,特点就是把虚拟网络潜逃到物理网络里面发送出去。但是,带来的一个问题就是VXLay(音译)也好,NVGRE也好,它的技术涉及到数据包的封装、解压、聚合等等会消耗大量的CPU,系统性能会明显的下降,这怎么办?我们Mellanox提出的方案也是硬件卸载,其实说白了就是让我们的网卡硬件帮助CPU去分担更多的你的负载。所以,我们把Overlay Networks这些数据包的处理操作全部卸载到网卡上,让网卡完成这部分工作。这样就可以把CPU释放出来,你的系统性能有一个很明显的提升。

右边这张图,这里面跑40G的网络,就是4万兆,蓝色的表示采用VXLay,但是通过消耗你的CPU进行处理。所以,带宽40G跑到10G就上不去了,原因在于系统的CPU被消耗殆尽,所以你的贷款也上不去。但是,如果紫色的这个是我们做VXLay的卸载,就是让网卡处理VXLay的操作,这样带宽可以达到三十六七的样子,接近限速,因为释放了CPU,这是网卡帮助虚拟加速直接的表现。

此外还有一个技术叫做OVS,也是在云计算里边会用的比较多,因为它作为一个控制平面,功能非常的强大。Mellanox提出的一个方案,我们做基于我们的网卡做OVS off-flow(音译),去学习你的OVS的流表,创建自己的路由规则到网卡里面进行卸载,在这种情况下,我们就可以实现包括SLV,包括OVS在内的一个既有数据平面加速,又有管理平面功能的这么一套完整的方案,一套SDN的一套网络就搭建出来。

相信OpenStack,云计算很多知道OpenStack,它是一个主流的开源的一套云的操作系统,如何跟OpenStack结合呢,我们其实是去针对OpenStack做了几个插件,因为我们是一个底层的网络厂商,我们要把网络功能映射到OpenStack的管理界面上,所以我们做了两个插件,一个是Neturon,第二个是Cinder,我们在计算节点有一个Neturon,通过Neturon可以调用网卡的能力。对于存储来讲,我们通过RDMA加速,它可以把存储的性能提高到5倍,甚至更多,这就是我们跟OpenStack结合的一些方案。OpenStack的版本,我们都支持,并且是内置的,跟主流的版本,他们的版本都会内制Mellanox的插件。

Ceph的存储也是用的比较广泛,中国也有很多社区活跃的开发人员在从事Ceph,确实是分布式性能比较高的存储系统,高性能的存储仍然离不开高性能的网络,所以要发挥云计算最佳的优势,那么你也需要去把网络进行一个升级。那么,这里可以看到,千兆网络10G,万兆网络,我如果采用更高的带宽都会有很高的提升。Mellanox的网络支持免费的由40G升级到56G,56G是独家的标准,因为比40G又多了40%,当我们升级到56G,性能也会有不小的提升。

100G的云有点夸张,现在云计算基础设施带宽还是以万兆为主,可能聚合网络很多厂家会采用4万兆。100G的云是什么概念?这只是为了证明我们的演示,在OpenStack峰会上做的一个演示,是两个物理节点,每个物理节点上不是一个虚拟机,这两个虚拟机打带宽,连接包括ConnectX-4100G网卡,Switch-IB/Spectrum交换机,和25/100G的线缆。我们虚拟机达到90多G的带宽已经非常了不起。另外,它的CPU利用率,在这么高带宽的情况下,CPU的利用率很低,只有0.71%,基本上对CPU没有损耗。怎么做到,还是RDMA,RDMA是绕过CPU的,所以它是释放你的CPU。所以,在高带宽的同时,其实可以把你系统的性能也提上去,可以降低CPU的损耗,这是我们解决方案的优势。

另外提供一些管理工具,我们的工具叫NEO。NEO跟Neturon通信,可以帮助我们减轻一些管理工作。前面介绍的是Mellanox的网络,我们有很多虚拟化的加速技术,我们在云计算的领域有很多很多的成功案例,比如微软,微软的公有云叫Azure,在中国有两三年的历史了。这是他们自己的一段引言,他们说我们通过把Azure的存储升级到40G,我们的性能有了提升,并且成本有了大幅度的下降。所以,RDMA,包括40G也是我们一个比较有优势的一个方案,可以告诉大家,我们40G网卡出货量,全球的出货量2015年是94%。非常高的一个出货量,基本上也是垄断。这是国内的OpenStack的合作伙伴基于我们的网络做的案例,它采用万兆,中间紫色的那一部分,万兆实际的端到端的网络互联,另外它跑的是KVM的虚拟化,加上Gluster的分布式存储。它跑OpenStack这样一个操作系统。给大家介绍这么多,介绍我们在云计算上的方案,我们外面有展台,希望大家跟我们交流。谢谢!

关键字:云计算

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^