当前位置:云计算虚拟化 → 正文

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

责任编辑:editor007 作者:赵效民 |来源:企业网D1Net  2015-09-06 17:26:30 本文摘自:ZD至顶网

EVO SDDC是VMorld 2015大会上一个重要的亮点产品,它标志着VMware在超融合基础设施(HCI,Hypervisor-Converged Infrastructure)领域里所取得的新的突。由于EVO RAIL在本届VMorld的主题讲演中从无提及,所以也让业界认为EVO SDDC将是VMware更为看重的HCI业务方向。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

VMware这次发布了全新的EVO SDDC,它的前身就是去年发布的代号为EVO RACK研发项目的技术预览。这次发布的新増重点是新的管理平台EVO SDDC Manager,其他方面与EVO RACK基本一致。EVO SDDC Manager是一个智能的自动化管理引擎,大幅简化部署与整体IT资源池的管理,除了虚拟资源也包括物理设备(物理服务器与网络交换机),而在它之下,所集成的均是最新的VMware产品。

 

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

 

EVO SDDC的软件堆栈就是一系列的VMware产品组合,在虚拟化层集中了VMware五大产品——服务器虚拟化平台vSphere、网络虚拟化平台NSX、存储虚拟化平台VSAN,以及虚拟化管理平台vCenter Server。而在运营管理层则集成了运维管理平台vRealize Operations和日志分析管理平台vRealize Log Insight。这只是针对虚拟化资源与运营的管理,在全局整系统的管理上则就引入了EVO SDDC Manager。它除了可以调用vRealize管理套件外,还连接硬件管理服务(HMS,Hardware Management Services),可以直接管理经认证的硬件物理资源(服务器、存储、网络)。

EVO SDDC Manager可被云基础设施的管理员直接访问,并可通过表述性状态传递(REST) API供第三方管理工具调用。不过到现在为止,EVO SDDC仍只是一个集成的虚拟化平台,若进一步部署vRealize Automation云自动化组件,或Horizon之后才会变成一个IaaS化的云平台或虚拟桌面(VDI)平台。在销售时,根据最终的部署形态,上文中相关软件的授权费用已经包含其中,不再单独计算。

 

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

 

既然是EVO RACK的延续,那么EVO SDDC的构建基础单位就是一个机柜,在这里我们可以看出在硬件平台上,服务器与存储是融合的(VSAN),在网络交换方面,典型的首机柜配置一共有5台以太网交换机,两台做TOR交换机冗余,两台做机柜间的主干交换机(Spine Switch)冗余,一台用于管理交换机(Management Switch),专门用于带外管理服务器与各交换机。

据VMware技术人员介绍,一个EVO SDDC机柜标配24台服务器,8个机柜最多192台服务器,起始配置不能少于8台服务器。需要注意的是,主干交换机,整个扩展集群(单一管理分区)只需要两台即可,首机柜部署了,后面的机柜就不需要了,但管理交换机与TOR交换机是每个机柜都必备的。

 

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

 

第一个EVO SDDC机柜是最重要的,如果是8台集群,总联网出口也是在第一个机柜的TOR交换机,但如果只是一个机柜,事实上并不需要主干交换机,每台TOR有两路40Gb链路连接数据中心网络。TOR至服务器,管理交换机至所有设备的连网接口都是10G

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

当配置了两个EVO SDDC机柜后,就需要主干交换机(一般部署于第一个机柜)做东-西向的柜间互联,每个机柜的TOR都与主干交换机进行冗余双40G连接,机柜间的互联带宽应该为80G,而第一机柜的TOR将用8条10G链路与数据中心连接,带宽也是80G

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

在EVO SDDC的方案集成分工上,软件堆栈全部由VMware负责,而合作伙伴则提供硬件基础设施,包括服务器,TOR交换机、主干交换机、管理交换机、配电模块以及相应的硬件管理服务平台,供EVO SDDC Manager调用。在销售方面,也是由合作伙伴完成,并交付最终的解决方案,VMware会在某些情况下予以技术上的支持,但不会参与EVO SDDC的销售。而硬件的连接与预配置在出厂前已经完成,在客户现场可以说是一个“交钥匙”(Turnkey)的部署模式,EVO SDDC Manager将根据用户需求,完成自动化现场配置。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

在VMworld 2015上,VMware宣布单个EVO SDDC机柜(按24台服务器计算)最多可支持1000个IaaS虚拟机,配置为2 vCPUs、8 GB内存、160 GB存储,以及2000个VDI虚拟机,不过在一些文档中,这一数字高达3000个, 配置为1-2 vCPUs、4GB内存与80GB存储,在此谨供参考吧,而单机柜的IOPS超过了200万,但很可能不能算作是与VM数量的关联指标

如果部署了完整的软件堆栈,那么一个机柜的EVO SDDC就是一个软件定义数据中心(SDDC),单个EVO SDDC Manager可以最多管理8个EVO SDDC机柜,虚拟机数量可达8000个,而配置这样一个SDDC只需要2个小时。虽然VMware的技术人员介绍8个机柜时,总服务器数量为192台,但在目前所透露了来的技术文档中,并没有这样一个明确的说法。而在一些文档中则强调这个限制并不是软件能力造成的,而是主干交换机容量只能支持8个机柜的互联,似乎并没有提到具体的服务器数量限制。在未来,也许随着主干交换机容量提高,就会自动带动EVO SDDC横向扩展能力的提升。

如果需要更多的机柜,则要新开EVO SDDC Manager管理区,并且不能跨区管理。不过VMware表示,现在很少有客户会需要这么多的虚拟机。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!
EVO SDDC:两个小时给你一个8000虚拟机的私有云!

对于整体的数据中心而言,EVO SDDC可以让用户在一个“虚拟机柜”(相当于一个单一的IT基础设施资源池)的界面上进行统一的管理,并且可为不同的工作负载划分相应的“域”,比如分出一个做IaaS云平台,一个用于大数据(基于虚拟化平台的),另一个则专门用VDI交付,不过现在还不清楚在一个EVO SDDC Manager的管理区下可以生成多少个工作域

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

由于集成了VMware NSX,所以用户可以在EVO SDDC上通过网络虚拟化,灵活地实现不同工作域的网络安全策略

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

EVO SDDC Manager的一个重要功能是,可以对全部硬件以及VMware软件堆栈进行全生命周期管理(比如软件补丁与物理设备固件更新等)。换作以前,让VMware的产品直接管理硬件,是不可想像的,虽然主要的功能实现依赖于合作伙伴的HMS,但由此也可以看出业界的竞争也在不断改变着厂商的既有习惯

在这里顺便说一说EVO SDDC中的VSAN,众所周知,目前VSAN 6.1最高支持64个节点(最大容量可达8PB),但在EVO SDDC中,显然不可能将192个节点划分为单一的VSAN存储池,至少要三个。事实上,VMware也不认为会有用户这么使用,而是会针对不同的工作区来分块使用VSAN,但这也预示了一个工作区应该无法超过64个物理节点。而64个节点的VSAN又会提供怎样的实力呢?

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

64节点(1U服务器)全闪存VSAN阵列

这是本届大会上展出的64节点全闪存VSAN阵列(与英特尔合作,全部采用英特尔的SSD),总可用容量500TB,可最高支持6500个虚拟机,如果按VMware所宣称的单机柜超过200万IOPS是24台标配所达到的标准(这个性能应该是在全闪存配置下实现的),那么64节点的VSAN性能应该至少可以超过400万IOPS,就看哪个客户这么土豪了。

接下来我们来我们来看看具体的EVO SDDC的产品实例,在本届大会上,首批宣布支持EVO SDDC的厂商有三家:DELL、广达(QCT)、VCE,它们将在2016年上半年正式推出获认证的硬件整合方案,而富士通将会在10月份正式宣传,成为第四家支持EVO SDDC的厂商。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

VCE展台所展出的EVO SDDC的原型设计(型号1032),据VCE的展台人员介绍,单机柜可以支持最多32台服务器,但不知道这是不是EVO SDDC的标准规格之一,如果是8个机柜的话,显然要比传说中的192台更多,而且如何用户恰好需要49至64台节点,那么VCE这个32节点的设计就会比24节点设计节省一个机柜的空间

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

目前EVO SDDC的服务器节点只有一个规格,1U高度,10个盘位、3xLAN网口,双CPU配置(总核心数量不少于10个),当然处理器肯定只能是英特尔至强,不过VMware表示,日后逐步增加EVO SDDC认证的机架服务器类型。但是,在单一机柜里不能混合部署不同厂商的服务器节点,但不同厂商出品的EVO SDDC机柜可以纳入统一的管理

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

从机柜的后面看,配电模块很规整,上面的交换机只认出了一台思科的Nexus 9332PQ,不过VCE的人表示这只是一个架构展示并非是最终的设计,所以并不能确认VCE的EVO SDDC的TOR与主干交换机的配置,而服务器的后端可以很清楚的看到有3个以太网口,其中两个10Gb接口分别接入两台TOR交换机,形成冗余连接,另一个则连接管理交换机

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

 

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

这是由广达云科技(QCT,Quanta Cloud Technology)推出的低配版的EVO SDDC,也可以说是迷你版的EVO SDDC,在20U的机柜里,共有12台服务器,服务器之上依次是管理交换机、TOR交换机、主干交换机,而其在网络平台上使用了Cumulus Linux网络操作系统,全面支持VMware NSX与HMS

这里需要强调的是,据VMware介绍,QCT的这个设计是基于OCP的硬件方案,也就是说EVO SDDC是有意与开放硬件平台合作的,VMware的发言人对此也并不回避,包括中国的天蝎整机柜也在合作计划之内,但VMware再三强调关键点在于,要做完整的硬件验证才能纳入到EVO SDDC的认证列表。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

富士通将在今年10月的欧洲VMworld大会上,正式宣布推出EVO SDDC的PRIMEFLEX集成系统,(首个机柜的)标准配置就是24台PRIMERGY RX2530 M1服务器、两台博科VDX6940做主干交换机、两台VDX 6740做TOR交换机,一台VDX 6740T-1G交换机用于带外管理

至此,有EVO SDDC的介绍就先告一段落。显然,它并不是一个传统意义上的Scale-Out集群系统,而是一个面向大规模虚拟化与云平台部署的机柜级HCI整合方案,只是在一定规模内提供了便利的Scale-Out的能力,但绝非针对公有云市场而设计,我们不能用“互联网”的眼光来看待它。

说到此,可能有人会问EVO SDDC到底是给谁用的?答案很简单——有SDDC或私有云需求的企业级客户,并且客户规模小不了(至少是中型企业的规模),而相较以往采用VMware的VCE vBLOCK、Cisco/NetApp FlexPod、HP Converged System等集成系统,我认为它最大的不同在于基于VSAN的超融合,以及更为紧密的VMware软件集成(比如NSX、EVO SDDC Manager),从而可以更快部署上线SDDC、私有云或VDI服务,并借此进一步稳固其基于vSphere的统一混合云(UHC)的战略。

根据VMware透露的进度,最快它也要到2016年上半年才会正式商用,而之所以从去年发布相应的代号项目,到现在仍然是技术预览,原因就在于VMware在和合作伙伴一起啃全局的虚拟化+物理环境管理的硬骨头,这其中有大量的硬件可管理性需要验证,以确保自动与智能管理的有效性。另一方面,自动化部署,一键式交付也是EVO SDDC努力的方向,EVO SDDC Manager就是最好的例证。但做过部署的人都知道,全局HCI的配置并不容易,如果再加上云服务与VDI将会更加麻烦,想确保自动化的效果,又需要大量的试验验证。

那么EVO SDDC到底有多大的市场呢?我还不好说。不过,VMworld 2015上vSphere集成容器的发布(VIS,vSphere Integrated Containers)应该说让人眼前一亮,它可能会让EVO SDDC拥有一个被企业级用户接纳的机会。毕竟很多用过vSphere的企业级用户应该会认同它的健壮性,能与容器很好的融合,并能快速部署,也正好符合企业级IT市场的变迁趋势,届时既有的VMware用户升级至EVO SDDC完全有可能,而且大多数EVO SDDC的目标客户已经是VMware的用户,所以打动了他们,EVO SDDC的前景也就非常可期。而在扩大私有云营收的同时,也必然会带动VMware统一混合云的业务……但对于非VMware的用户,EVO SDDC显然还需要更多的努力来证明自己相对高昂的价值,所带来的价值无可替代!

最后,让我们共同猜测一下,在中国厂商里,率先支持EVO SDDC(包括用中国的天蝎机柜)的厂商会是哪家呢?

关键字:EVOSDDCVDX管理分区

本文摘自:ZD至顶网

x EVO SDDC:两个小时给你一个8000虚拟机的私有云! 扫一扫
分享本文到朋友圈
当前位置:云计算虚拟化 → 正文

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

责任编辑:editor007 作者:赵效民 |来源:企业网D1Net  2015-09-06 17:26:30 本文摘自:ZD至顶网

EVO SDDC是VMorld 2015大会上一个重要的亮点产品,它标志着VMware在超融合基础设施(HCI,Hypervisor-Converged Infrastructure)领域里所取得的新的突。由于EVO RAIL在本届VMorld的主题讲演中从无提及,所以也让业界认为EVO SDDC将是VMware更为看重的HCI业务方向。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

VMware这次发布了全新的EVO SDDC,它的前身就是去年发布的代号为EVO RACK研发项目的技术预览。这次发布的新増重点是新的管理平台EVO SDDC Manager,其他方面与EVO RACK基本一致。EVO SDDC Manager是一个智能的自动化管理引擎,大幅简化部署与整体IT资源池的管理,除了虚拟资源也包括物理设备(物理服务器与网络交换机),而在它之下,所集成的均是最新的VMware产品。

 

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

 

EVO SDDC的软件堆栈就是一系列的VMware产品组合,在虚拟化层集中了VMware五大产品——服务器虚拟化平台vSphere、网络虚拟化平台NSX、存储虚拟化平台VSAN,以及虚拟化管理平台vCenter Server。而在运营管理层则集成了运维管理平台vRealize Operations和日志分析管理平台vRealize Log Insight。这只是针对虚拟化资源与运营的管理,在全局整系统的管理上则就引入了EVO SDDC Manager。它除了可以调用vRealize管理套件外,还连接硬件管理服务(HMS,Hardware Management Services),可以直接管理经认证的硬件物理资源(服务器、存储、网络)。

EVO SDDC Manager可被云基础设施的管理员直接访问,并可通过表述性状态传递(REST) API供第三方管理工具调用。不过到现在为止,EVO SDDC仍只是一个集成的虚拟化平台,若进一步部署vRealize Automation云自动化组件,或Horizon之后才会变成一个IaaS化的云平台或虚拟桌面(VDI)平台。在销售时,根据最终的部署形态,上文中相关软件的授权费用已经包含其中,不再单独计算。

 

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

 

既然是EVO RACK的延续,那么EVO SDDC的构建基础单位就是一个机柜,在这里我们可以看出在硬件平台上,服务器与存储是融合的(VSAN),在网络交换方面,典型的首机柜配置一共有5台以太网交换机,两台做TOR交换机冗余,两台做机柜间的主干交换机(Spine Switch)冗余,一台用于管理交换机(Management Switch),专门用于带外管理服务器与各交换机。

据VMware技术人员介绍,一个EVO SDDC机柜标配24台服务器,8个机柜最多192台服务器,起始配置不能少于8台服务器。需要注意的是,主干交换机,整个扩展集群(单一管理分区)只需要两台即可,首机柜部署了,后面的机柜就不需要了,但管理交换机与TOR交换机是每个机柜都必备的。

 

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

 

第一个EVO SDDC机柜是最重要的,如果是8台集群,总联网出口也是在第一个机柜的TOR交换机,但如果只是一个机柜,事实上并不需要主干交换机,每台TOR有两路40Gb链路连接数据中心网络。TOR至服务器,管理交换机至所有设备的连网接口都是10G

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

当配置了两个EVO SDDC机柜后,就需要主干交换机(一般部署于第一个机柜)做东-西向的柜间互联,每个机柜的TOR都与主干交换机进行冗余双40G连接,机柜间的互联带宽应该为80G,而第一机柜的TOR将用8条10G链路与数据中心连接,带宽也是80G

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

在EVO SDDC的方案集成分工上,软件堆栈全部由VMware负责,而合作伙伴则提供硬件基础设施,包括服务器,TOR交换机、主干交换机、管理交换机、配电模块以及相应的硬件管理服务平台,供EVO SDDC Manager调用。在销售方面,也是由合作伙伴完成,并交付最终的解决方案,VMware会在某些情况下予以技术上的支持,但不会参与EVO SDDC的销售。而硬件的连接与预配置在出厂前已经完成,在客户现场可以说是一个“交钥匙”(Turnkey)的部署模式,EVO SDDC Manager将根据用户需求,完成自动化现场配置。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

在VMworld 2015上,VMware宣布单个EVO SDDC机柜(按24台服务器计算)最多可支持1000个IaaS虚拟机,配置为2 vCPUs、8 GB内存、160 GB存储,以及2000个VDI虚拟机,不过在一些文档中,这一数字高达3000个, 配置为1-2 vCPUs、4GB内存与80GB存储,在此谨供参考吧,而单机柜的IOPS超过了200万,但很可能不能算作是与VM数量的关联指标

如果部署了完整的软件堆栈,那么一个机柜的EVO SDDC就是一个软件定义数据中心(SDDC),单个EVO SDDC Manager可以最多管理8个EVO SDDC机柜,虚拟机数量可达8000个,而配置这样一个SDDC只需要2个小时。虽然VMware的技术人员介绍8个机柜时,总服务器数量为192台,但在目前所透露了来的技术文档中,并没有这样一个明确的说法。而在一些文档中则强调这个限制并不是软件能力造成的,而是主干交换机容量只能支持8个机柜的互联,似乎并没有提到具体的服务器数量限制。在未来,也许随着主干交换机容量提高,就会自动带动EVO SDDC横向扩展能力的提升。

如果需要更多的机柜,则要新开EVO SDDC Manager管理区,并且不能跨区管理。不过VMware表示,现在很少有客户会需要这么多的虚拟机。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!
EVO SDDC:两个小时给你一个8000虚拟机的私有云!

对于整体的数据中心而言,EVO SDDC可以让用户在一个“虚拟机柜”(相当于一个单一的IT基础设施资源池)的界面上进行统一的管理,并且可为不同的工作负载划分相应的“域”,比如分出一个做IaaS云平台,一个用于大数据(基于虚拟化平台的),另一个则专门用VDI交付,不过现在还不清楚在一个EVO SDDC Manager的管理区下可以生成多少个工作域

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

由于集成了VMware NSX,所以用户可以在EVO SDDC上通过网络虚拟化,灵活地实现不同工作域的网络安全策略

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

EVO SDDC Manager的一个重要功能是,可以对全部硬件以及VMware软件堆栈进行全生命周期管理(比如软件补丁与物理设备固件更新等)。换作以前,让VMware的产品直接管理硬件,是不可想像的,虽然主要的功能实现依赖于合作伙伴的HMS,但由此也可以看出业界的竞争也在不断改变着厂商的既有习惯

在这里顺便说一说EVO SDDC中的VSAN,众所周知,目前VSAN 6.1最高支持64个节点(最大容量可达8PB),但在EVO SDDC中,显然不可能将192个节点划分为单一的VSAN存储池,至少要三个。事实上,VMware也不认为会有用户这么使用,而是会针对不同的工作区来分块使用VSAN,但这也预示了一个工作区应该无法超过64个物理节点。而64个节点的VSAN又会提供怎样的实力呢?

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

64节点(1U服务器)全闪存VSAN阵列

这是本届大会上展出的64节点全闪存VSAN阵列(与英特尔合作,全部采用英特尔的SSD),总可用容量500TB,可最高支持6500个虚拟机,如果按VMware所宣称的单机柜超过200万IOPS是24台标配所达到的标准(这个性能应该是在全闪存配置下实现的),那么64节点的VSAN性能应该至少可以超过400万IOPS,就看哪个客户这么土豪了。

接下来我们来我们来看看具体的EVO SDDC的产品实例,在本届大会上,首批宣布支持EVO SDDC的厂商有三家:DELL、广达(QCT)、VCE,它们将在2016年上半年正式推出获认证的硬件整合方案,而富士通将会在10月份正式宣传,成为第四家支持EVO SDDC的厂商。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

VCE展台所展出的EVO SDDC的原型设计(型号1032),据VCE的展台人员介绍,单机柜可以支持最多32台服务器,但不知道这是不是EVO SDDC的标准规格之一,如果是8个机柜的话,显然要比传说中的192台更多,而且如何用户恰好需要49至64台节点,那么VCE这个32节点的设计就会比24节点设计节省一个机柜的空间

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

目前EVO SDDC的服务器节点只有一个规格,1U高度,10个盘位、3xLAN网口,双CPU配置(总核心数量不少于10个),当然处理器肯定只能是英特尔至强,不过VMware表示,日后逐步增加EVO SDDC认证的机架服务器类型。但是,在单一机柜里不能混合部署不同厂商的服务器节点,但不同厂商出品的EVO SDDC机柜可以纳入统一的管理

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

从机柜的后面看,配电模块很规整,上面的交换机只认出了一台思科的Nexus 9332PQ,不过VCE的人表示这只是一个架构展示并非是最终的设计,所以并不能确认VCE的EVO SDDC的TOR与主干交换机的配置,而服务器的后端可以很清楚的看到有3个以太网口,其中两个10Gb接口分别接入两台TOR交换机,形成冗余连接,另一个则连接管理交换机

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

 

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

这是由广达云科技(QCT,Quanta Cloud Technology)推出的低配版的EVO SDDC,也可以说是迷你版的EVO SDDC,在20U的机柜里,共有12台服务器,服务器之上依次是管理交换机、TOR交换机、主干交换机,而其在网络平台上使用了Cumulus Linux网络操作系统,全面支持VMware NSX与HMS

这里需要强调的是,据VMware介绍,QCT的这个设计是基于OCP的硬件方案,也就是说EVO SDDC是有意与开放硬件平台合作的,VMware的发言人对此也并不回避,包括中国的天蝎整机柜也在合作计划之内,但VMware再三强调关键点在于,要做完整的硬件验证才能纳入到EVO SDDC的认证列表。

EVO SDDC:两个小时给你一个8000虚拟机的私有云!

富士通将在今年10月的欧洲VMworld大会上,正式宣布推出EVO SDDC的PRIMEFLEX集成系统,(首个机柜的)标准配置就是24台PRIMERGY RX2530 M1服务器、两台博科VDX6940做主干交换机、两台VDX 6740做TOR交换机,一台VDX 6740T-1G交换机用于带外管理

至此,有EVO SDDC的介绍就先告一段落。显然,它并不是一个传统意义上的Scale-Out集群系统,而是一个面向大规模虚拟化与云平台部署的机柜级HCI整合方案,只是在一定规模内提供了便利的Scale-Out的能力,但绝非针对公有云市场而设计,我们不能用“互联网”的眼光来看待它。

说到此,可能有人会问EVO SDDC到底是给谁用的?答案很简单——有SDDC或私有云需求的企业级客户,并且客户规模小不了(至少是中型企业的规模),而相较以往采用VMware的VCE vBLOCK、Cisco/NetApp FlexPod、HP Converged System等集成系统,我认为它最大的不同在于基于VSAN的超融合,以及更为紧密的VMware软件集成(比如NSX、EVO SDDC Manager),从而可以更快部署上线SDDC、私有云或VDI服务,并借此进一步稳固其基于vSphere的统一混合云(UHC)的战略。

根据VMware透露的进度,最快它也要到2016年上半年才会正式商用,而之所以从去年发布相应的代号项目,到现在仍然是技术预览,原因就在于VMware在和合作伙伴一起啃全局的虚拟化+物理环境管理的硬骨头,这其中有大量的硬件可管理性需要验证,以确保自动与智能管理的有效性。另一方面,自动化部署,一键式交付也是EVO SDDC努力的方向,EVO SDDC Manager就是最好的例证。但做过部署的人都知道,全局HCI的配置并不容易,如果再加上云服务与VDI将会更加麻烦,想确保自动化的效果,又需要大量的试验验证。

那么EVO SDDC到底有多大的市场呢?我还不好说。不过,VMworld 2015上vSphere集成容器的发布(VIS,vSphere Integrated Containers)应该说让人眼前一亮,它可能会让EVO SDDC拥有一个被企业级用户接纳的机会。毕竟很多用过vSphere的企业级用户应该会认同它的健壮性,能与容器很好的融合,并能快速部署,也正好符合企业级IT市场的变迁趋势,届时既有的VMware用户升级至EVO SDDC完全有可能,而且大多数EVO SDDC的目标客户已经是VMware的用户,所以打动了他们,EVO SDDC的前景也就非常可期。而在扩大私有云营收的同时,也必然会带动VMware统一混合云的业务……但对于非VMware的用户,EVO SDDC显然还需要更多的努力来证明自己相对高昂的价值,所带来的价值无可替代!

最后,让我们共同猜测一下,在中国厂商里,率先支持EVO SDDC(包括用中国的天蝎机柜)的厂商会是哪家呢?

关键字:EVOSDDCVDX管理分区

本文摘自:ZD至顶网

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^