当前位置:数据中心行业动态 → 正文

数据中心网络的100GbE之年

责任编辑:cres 作者:Mary Branscombe |来源:企业网D1Net  2018-09-11 10:02:01 原创文章 企业网D1Net

数据中心网络中100千兆以太网的稳步发展在今年似乎已经进入慢跑阶段。
 
根据戴尔•奥罗咨询集团(Dell'Oro Group)的调查数据显示,数据中心的40GbE时代已经过去了,而且从今年8月开始,100GbE端口的出货量已经从2017年翻了一番,而其采用率继续加快。该公司市场研究高级主管Sameh Boujelbene表示,预计出货量将在年底前增加近三倍。
 
Boujelbene对Dell EMC公司最近推出的100GbE开放式网络交换机进行了评论。他预测,到2022年,每年将有1940万个100GbE端口出货,而2017年仅为460万个。
 
Dell EMC公司的主要竞争对手惠普企业公司(HPE)也看到了类似的趋势。“100GbE将很快到来。”HPE公司首席技术专家Chris Dando在采访中表示。
 
也就是说,与先前从1GbE到10GbE或40GbE的转换速率相比,其速度真的很快。 “40GbE路线没有下一步,所以100GbE成为了自然的继承者。”Dando说。
 
为什么是现在?
 
千兆以太网并不是什么新技术,为什么现在市场上有这么多举动呢?
 
其部分原因是100GbE网络设备的成熟度和成本下降(以及相应的25GbE NIC用于来自日益密集的刀片服务和机架服务器的上行链路)。
 
瞻博网络公司和思科系统公司的100/25GbE交换机已经推出了一段时间。Broadcom、Cavium和Mellanox 科技公司现在提供标准的100GbE处理器,由戴尔、HPE、华为技术、联想集团、广达电脑、超微电脑等公司提供开关电源。
 
根据全球网络存储工业协会(SNIA)估计,100/25GbE设备网络数量的增长和激烈的竞争正在推动价格下降,其超过40/10GbE的溢价相对较低:网络接口卡(NIC)增加20%至30%,交换机增加50%。
 
服务器可能已经具有25GbE功能,“我们看到许多机架中的服务器正在使用最新的英特尔公司技术进行升级,其中包括双重25GbE IO功能。”戴尔公司网络和服务提供商解决方案总监Jeff Baher说。
 
100GbE产品向后兼容,简化了部署。通过在电缆上安装新的收发器或模块,可以使用现有布线。如今,几乎所有25GbE适配器和交换机端口都向后兼容10GbE、100GbE适配器和端口凝聚40GbE。大多数交换机可以支持混合速度。
 
除了速度之外还有更多
 
通过100GbE实现布线的整合使其从直接节省成本的角度来看具有吸引力,这是因为它减少了电源和空间需求。“可以使用更少的代码转换器,这可以降低部分成本。”Dando说,“使用上一代技术,如果拥有一个完整的机架,将交换机放入机架,那么你有16个计算节点,每个节点都有两个20GbE连接,所以将会增加320Gb。使用这项新技术,你可以在具有双重25GbE连接的10台服务器上运行该技术,因此可以使用500GbE连接到机架顶部交换机,但实际连接数较少:从32降至10。”
 
Dando表示,在内部测试中,HPE产品的性能提高了56%,总拥有成本比10GbE低27%,同时节省了31%的电力,降低了38%的布线复杂性。
 
将100GbE放在叶脊拓扑网络中也可以减轻对争用率和核心网络过载的担忧。
 
工作量
 
大型服务提供商和一些超大规模云计算平台已经采用100GbE产品,用于运行高性能计算或云计算基础设施服务(尽管微软公司今年已将Azure提高到100GbE)。
 
瞻博网络数据中心销售总监Brett Ley表示,支持高性能计算机、金融服务、政府平台、石油和天然气,以及公用事业的技术计算的数据中心也开始采用100GbE网络设备,并作为采用更扁平的数据中心架构和微服务的一部分。运营商从专有的InfiniBand存储连接切换到更普遍且更具成本效益的以太网模型是另一个驱动因素。
 
Baher说,主流数据中心工作负载的带宽和低延迟需求也达到了100GbE可以提供帮助的程度。其工作负载可能是传统的,但随着企业更多地采用虚拟化技术,并集中虚拟机或容器,“你需要能够在机架中移动它们,这推动了对更高速度的需求。”
 
英特尔公司最近估计,数据中心内部的流量每年增长25%,其中大部分是东西流量,这将造成网络瓶颈。
 
存储因素
 
Baher指出,同样引起人们兴趣的还有软件定义的存储技术,如直接存储空间、横向扩展存储和超融合基础设施,因为它们在基于IP的网络上增加了更多的存储流量。Baher说,“存在大量存储密集型的工作负载,你需要移动大文件或数据流。”
 
以太网存储的带宽是光纤通道的三倍,约为其成本的三分之一。带有NVMe接口的闪存驱动器比SAS或SATA驱动器具有更高的吞吐量和更低的延迟。
 
然而,企业存储供应商正在缓慢发展。全球网络存储工业协会(SNIA)估计,直到2019年中期,一些供应商才会支持25GbE(以及全闪存阵列的100GbE)。
 
为未来做准备
 
数据中心网络采用的100GbE中的一些技术是关于面向未来的。
 
“数据中心的网络结构不会像其他事物那样迅速改变。”Dando说。例如,计算和存储通常是三到五年的更新周期,而常见的网络更新周期是七年,在某些情况下甚至是十年,因为它太复杂了,他解释道。这就是为什么网络工程师在升级时必须考虑更多的原因。
 
“100/25GbE目前已成为主流,如果你正在建立一个新的数据中心或改造一个环境,你必须有一个非常令人信服的理由不部署它,”他说,“如果你现在正在为一个新的数据中心配置10/40GbE网络,我认为这不是一个正确的经济决策。”
 
100GbE为人们准备的是NVMe over Fabrics等新兴技术。“RDMA和RDMA通过融合以太网是客户认为他们想要100GbE的各种功能,因此他们已经为NVMe over Fabrics做好了准备。”Dando说。
 
面向未来的方法包括使网络在协议上更加灵活,因为Broadcom公司等供应商提供的100GbE芯片支持可编程交换机。
 
“当VXLAN开始成为跨越数据中心环境的流量的标准时,必须重新设计网络处理器以提供支持,因此我们必须推出一种完全不同的产品。”Dando说。借助Broadcom公司的Trident 3处理器等可编程开关,曾经需要更换物理芯片的事物可以采用软件来实现。

关键字:数据中心

原创文章 企业网D1Net

x 数据中心网络的100GbE之年 扫一扫
分享本文到朋友圈
当前位置:数据中心行业动态 → 正文

数据中心网络的100GbE之年

责任编辑:cres 作者:Mary Branscombe |来源:企业网D1Net  2018-09-11 10:02:01 原创文章 企业网D1Net

数据中心网络中100千兆以太网的稳步发展在今年似乎已经进入慢跑阶段。
 
根据戴尔•奥罗咨询集团(Dell'Oro Group)的调查数据显示,数据中心的40GbE时代已经过去了,而且从今年8月开始,100GbE端口的出货量已经从2017年翻了一番,而其采用率继续加快。该公司市场研究高级主管Sameh Boujelbene表示,预计出货量将在年底前增加近三倍。
 
Boujelbene对Dell EMC公司最近推出的100GbE开放式网络交换机进行了评论。他预测,到2022年,每年将有1940万个100GbE端口出货,而2017年仅为460万个。
 
Dell EMC公司的主要竞争对手惠普企业公司(HPE)也看到了类似的趋势。“100GbE将很快到来。”HPE公司首席技术专家Chris Dando在采访中表示。
 
也就是说,与先前从1GbE到10GbE或40GbE的转换速率相比,其速度真的很快。 “40GbE路线没有下一步,所以100GbE成为了自然的继承者。”Dando说。
 
为什么是现在?
 
千兆以太网并不是什么新技术,为什么现在市场上有这么多举动呢?
 
其部分原因是100GbE网络设备的成熟度和成本下降(以及相应的25GbE NIC用于来自日益密集的刀片服务和机架服务器的上行链路)。
 
瞻博网络公司和思科系统公司的100/25GbE交换机已经推出了一段时间。Broadcom、Cavium和Mellanox 科技公司现在提供标准的100GbE处理器,由戴尔、HPE、华为技术、联想集团、广达电脑、超微电脑等公司提供开关电源。
 
根据全球网络存储工业协会(SNIA)估计,100/25GbE设备网络数量的增长和激烈的竞争正在推动价格下降,其超过40/10GbE的溢价相对较低:网络接口卡(NIC)增加20%至30%,交换机增加50%。
 
服务器可能已经具有25GbE功能,“我们看到许多机架中的服务器正在使用最新的英特尔公司技术进行升级,其中包括双重25GbE IO功能。”戴尔公司网络和服务提供商解决方案总监Jeff Baher说。
 
100GbE产品向后兼容,简化了部署。通过在电缆上安装新的收发器或模块,可以使用现有布线。如今,几乎所有25GbE适配器和交换机端口都向后兼容10GbE、100GbE适配器和端口凝聚40GbE。大多数交换机可以支持混合速度。
 
除了速度之外还有更多
 
通过100GbE实现布线的整合使其从直接节省成本的角度来看具有吸引力,这是因为它减少了电源和空间需求。“可以使用更少的代码转换器,这可以降低部分成本。”Dando说,“使用上一代技术,如果拥有一个完整的机架,将交换机放入机架,那么你有16个计算节点,每个节点都有两个20GbE连接,所以将会增加320Gb。使用这项新技术,你可以在具有双重25GbE连接的10台服务器上运行该技术,因此可以使用500GbE连接到机架顶部交换机,但实际连接数较少:从32降至10。”
 
Dando表示,在内部测试中,HPE产品的性能提高了56%,总拥有成本比10GbE低27%,同时节省了31%的电力,降低了38%的布线复杂性。
 
将100GbE放在叶脊拓扑网络中也可以减轻对争用率和核心网络过载的担忧。
 
工作量
 
大型服务提供商和一些超大规模云计算平台已经采用100GbE产品,用于运行高性能计算或云计算基础设施服务(尽管微软公司今年已将Azure提高到100GbE)。
 
瞻博网络数据中心销售总监Brett Ley表示,支持高性能计算机、金融服务、政府平台、石油和天然气,以及公用事业的技术计算的数据中心也开始采用100GbE网络设备,并作为采用更扁平的数据中心架构和微服务的一部分。运营商从专有的InfiniBand存储连接切换到更普遍且更具成本效益的以太网模型是另一个驱动因素。
 
Baher说,主流数据中心工作负载的带宽和低延迟需求也达到了100GbE可以提供帮助的程度。其工作负载可能是传统的,但随着企业更多地采用虚拟化技术,并集中虚拟机或容器,“你需要能够在机架中移动它们,这推动了对更高速度的需求。”
 
英特尔公司最近估计,数据中心内部的流量每年增长25%,其中大部分是东西流量,这将造成网络瓶颈。
 
存储因素
 
Baher指出,同样引起人们兴趣的还有软件定义的存储技术,如直接存储空间、横向扩展存储和超融合基础设施,因为它们在基于IP的网络上增加了更多的存储流量。Baher说,“存在大量存储密集型的工作负载,你需要移动大文件或数据流。”
 
以太网存储的带宽是光纤通道的三倍,约为其成本的三分之一。带有NVMe接口的闪存驱动器比SAS或SATA驱动器具有更高的吞吐量和更低的延迟。
 
然而,企业存储供应商正在缓慢发展。全球网络存储工业协会(SNIA)估计,直到2019年中期,一些供应商才会支持25GbE(以及全闪存阵列的100GbE)。
 
为未来做准备
 
数据中心网络采用的100GbE中的一些技术是关于面向未来的。
 
“数据中心的网络结构不会像其他事物那样迅速改变。”Dando说。例如,计算和存储通常是三到五年的更新周期,而常见的网络更新周期是七年,在某些情况下甚至是十年,因为它太复杂了,他解释道。这就是为什么网络工程师在升级时必须考虑更多的原因。
 
“100/25GbE目前已成为主流,如果你正在建立一个新的数据中心或改造一个环境,你必须有一个非常令人信服的理由不部署它,”他说,“如果你现在正在为一个新的数据中心配置10/40GbE网络,我认为这不是一个正确的经济决策。”
 
100GbE为人们准备的是NVMe over Fabrics等新兴技术。“RDMA和RDMA通过融合以太网是客户认为他们想要100GbE的各种功能,因此他们已经为NVMe over Fabrics做好了准备。”Dando说。
 
面向未来的方法包括使网络在协议上更加灵活,因为Broadcom公司等供应商提供的100GbE芯片支持可编程交换机。
 
“当VXLAN开始成为跨越数据中心环境的流量的标准时,必须重新设计网络处理器以提供支持,因此我们必须推出一种完全不同的产品。”Dando说。借助Broadcom公司的Trident 3处理器等可编程开关,曾经需要更换物理芯片的事物可以采用软件来实现。

关键字:数据中心

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^