当前位置:数据中心行业动态 → 正文

IT决策是如何影响数据中心:相互了解的重要性 (3)

责任编辑:editor004 |来源:企业网D1Net  2017-08-01 10:26:56 本文摘自:机房360

摘要:北京,丹佛,法兰克福,香港,杰克逊维尔,明尼阿波利斯,凤凰城和圣荷西都可以在不使用任何制冷机械冷却的情况下,可以为A2类服务器(典型商用服务器今天)制冷。

表3显示了在不同类别的服务器的允许温度最大阈值下自然冷却的潜在机会。 使用自然冷却的时间基于指定城市的干球温度,间接蒸发冷却时间是基于这些城市的湿球温度。

两个示例场景的另一个主要区别是,节能装置可以使外部空气进入数据中心,而根据定义,间接蒸发冷却通过热交换器进行热传递,从而使外部空气与数据中心内部的空气分离。 在两种免费冷却方式之间,图表3清楚地表明,位于芝加哥,波士顿的阿尔伯克基,

北京,丹佛,法兰克福,香港,杰克逊维尔,明尼阿波利斯,凤凰城和圣荷西都可以在不使用任何制冷机械冷却的情况下,可以为A2类服务器(典型商用服务器今天)制冷。

此外,奥斯汀,夏洛特,迪拜,拉斯维加斯和悉尼都全年都可以采用另一种免费冷却的形式来冷却A3类服务器。 这显然只是分析的第一步,ASHRAE推荐的最高温度和允许温度之间的时间越少,“X”因子可靠性预测越有可能证明允许温度波动。 那是什么意思呢?

通过这种分析建议的一条路径是完全没有任何冷却器或其他制冷剂的冷却系统的数据中心设计。 这样的设计不仅节省了冷却系统成本,这是除IT设备供电所需的能源外,数据中心的最大一笔开销,一旦无需冷却设备,也为数据中心内节约一次性投入成、以及放置的空间。

另一方面,预算分析可能表明, A3类服务需要经过3-6次的技术更新,才能满足使用需求,这笔投资可能比建设冷却系统以及相关联的系统投入还要高。

在这种情况下,投资回报率将是一年中有使用80%或90%的时间使用免费冷却,或任何BIN数据表明可以达到预期。即使在这种情况下,降低投入需要通过免费冷却设施,以及通过备用冷却装置冷却的时间来实现,从而降低对冗余冷水机组、新风机组和CRAC单元的投入。

即使在传统机械设备设计为N + 1级冗余的情况下, 免费冷却能力与允许的温度小时可以提供另一个级别的冗余,将冷却系统从基本的可用性级别提升到容错的级别以及同时可维护的能力,为达到一定程度的稳健性性,否则可能无法负担的起。

到目前为止,在看到安装标准机架服务器、刀片系统之间的潜在差异以及与新的ASHRAE TC9.9服务器类相关的机会之后,应该清楚的是,对于采购哪类器对数据中心的设备操作效率的影响要远远大于对CRAC单元的选择,散热策略、冷水机组以及其他一些与其他元素通常都与此有关。

此外,还有一些决策都与IT领域相关,它们都直接影响数据中心的整体运营能效,对数据中心设计的有效性和文件性也都有关系。

第三部分:指定设备

不这样做违反了冷热通道隔离,导致需要较低的温度设定点以及更高的气流量输送,从而降低总体冗余冷却能力以及更高的运行成本。

服务器不仅仅是数据中心指定的唯一的IT管理设备,网络交换机的数量可能无法接近服务器的数量,但它们仍然对IT企业的有效运作至关重要。

交换机的选择过程通常会考虑需要多少个端口,无论它是具有第三层或路由器功能的核心交换机还是分布式交换机,无论是非管理还是必须被管理,

无论是速度、延迟还是原始容量,都是最重要的,以及在以太网和冗余方面需要什么。此外,交换机通常也会引起对可伸缩性、虚拟化计划、应用程序部署速度和应用程序访问速度的关注。调查和采购开关应该与整体业务需求密切相关。

在核心业务目标的范围内,效率和可达性也属于核心业务目标的范围,对于数据中心整体有效的空中交通管理的影响,也应该成为整体标准清单的一部分。就数据中心的设备健康而言,所有的设备都应该是可以安装的,并且机架可以从前到后保持气流畅通。

这一标准是一种公认的最佳实践,来自于欧洲数据中心行为准则、bicsi-002和ASHRAE TC9.9。,只是,要是它真这么简单就好了。

然而,尽管与服务器、存储设备的数量相比,数据中心可能有一小部分的交换机,但非标准的空气流量的的影响依然是惊人的。一个具有3500平方英尺的计算机室,总功率为514千瓦的例子,说明不受控制的非标准气流对网络硬件的影响。

图1显示了这种不受控制的气流的的影响。有6个机架,每个机架功率3千瓦,但是一个机架的设备温度是从73° F(23℃)到90 °F(32摄氏度),一个6千瓦的核心开关架正在吸收空气,从56° F (13℃)到 85° F(29℃)。

虽然这些温度实际上是由制造商的特殊情况所允许的,但它们超过了所有者的内部SLA,更重要的是,它们破坏了这个空间的有效设计。所有的服务器机柜都配备了排气烟囱,连接到一个悬挂的天花板返回空间,而供应气流则直接进入了所有的冷通道。

此外,天花板格栅位于没有安装机柜的周围,以捕获热回风。 然而,为了降低热点的数量以及这些热点产生的严重性,冷却系统温度设定在72°F(22℃)的设定点,导致54°F(12℃)的空气通常通过顶部管道输送。 此外,冷却系统需要提供82,500 CFM以满足IT设备的67,900 CFM需求。

  图1

将这些结果与具有相同数据中心的模型进行对比,并将所有返回气流全部有效的包含在内。侧面气流重新部署在机柜中,将气流为前送后回,然后将这些机柜捕获在热通道密闭结构中。

在入口处,侧面到前面和后面到前面的从开放的双柱架拆下,并重新部署在装有机架安装盒的机柜中,将机身重新定位成标准的前后结构,然后这些机柜配有垂直排气管。

此外,由于这些改变消除了整个房间的所有热点,所以对顶置管道输送系统的需求被消除,从总资本计划中消除了这些成本。 图2说明了这些变化的结果。

不仅温度更稳定,温度更低,设定温度从54° F(12℃)升到75° F(23.8℃),冷却装置的能量节省了38%。

此外,根据本文前面讨论的非线性风扇定律关系,将设备入口温度保持在75°F(24℃)至76°F(24.4℃)之间的空气流量从82,500 CFM降至72,000 CFM,从而节省了33.5%的CRAH风扇能耗。

所有相关的最佳做法和标准规定,只有通过从前到后的气流的设备才能实现适当的气流管理。 不幸的是,其他应用标准通常导致不合格设备的选择。

幸运的是,有一些方法可以将任何设备改变成相当于前后送回风的方式。对于侧向气流,现在有更宽的机柜可用内部功能,将重新定向气流方向以符合数据中心的其余部分。

  图2

对于可能具有前端到侧面气流或从侧到左或从左到右,甚至从前到后的较小轮廓的交换机,有可用的机架安装盒,将将这些气流模式重定向到符合数据中心的其余部分。

这些盒子通常会消耗一个或两个额外的机架安装单元,但是它们将保持其他设计良好且被执行的空间的完整性。 一些存储设备将对数据中心经理提出类似的挑战; 然而,某种形式的调整是可行的,并且应该被利用来最大限度地提高数据中心机械设备的效率或增加数据中心设备的有效容量。

关键字:数据中心允许

本文摘自:机房360

x IT决策是如何影响数据中心:相互了解的重要性 (3) 扫一扫
分享本文到朋友圈
当前位置:数据中心行业动态 → 正文

IT决策是如何影响数据中心:相互了解的重要性 (3)

责任编辑:editor004 |来源:企业网D1Net  2017-08-01 10:26:56 本文摘自:机房360

摘要:北京,丹佛,法兰克福,香港,杰克逊维尔,明尼阿波利斯,凤凰城和圣荷西都可以在不使用任何制冷机械冷却的情况下,可以为A2类服务器(典型商用服务器今天)制冷。

表3显示了在不同类别的服务器的允许温度最大阈值下自然冷却的潜在机会。 使用自然冷却的时间基于指定城市的干球温度,间接蒸发冷却时间是基于这些城市的湿球温度。

两个示例场景的另一个主要区别是,节能装置可以使外部空气进入数据中心,而根据定义,间接蒸发冷却通过热交换器进行热传递,从而使外部空气与数据中心内部的空气分离。 在两种免费冷却方式之间,图表3清楚地表明,位于芝加哥,波士顿的阿尔伯克基,

北京,丹佛,法兰克福,香港,杰克逊维尔,明尼阿波利斯,凤凰城和圣荷西都可以在不使用任何制冷机械冷却的情况下,可以为A2类服务器(典型商用服务器今天)制冷。

此外,奥斯汀,夏洛特,迪拜,拉斯维加斯和悉尼都全年都可以采用另一种免费冷却的形式来冷却A3类服务器。 这显然只是分析的第一步,ASHRAE推荐的最高温度和允许温度之间的时间越少,“X”因子可靠性预测越有可能证明允许温度波动。 那是什么意思呢?

通过这种分析建议的一条路径是完全没有任何冷却器或其他制冷剂的冷却系统的数据中心设计。 这样的设计不仅节省了冷却系统成本,这是除IT设备供电所需的能源外,数据中心的最大一笔开销,一旦无需冷却设备,也为数据中心内节约一次性投入成、以及放置的空间。

另一方面,预算分析可能表明, A3类服务需要经过3-6次的技术更新,才能满足使用需求,这笔投资可能比建设冷却系统以及相关联的系统投入还要高。

在这种情况下,投资回报率将是一年中有使用80%或90%的时间使用免费冷却,或任何BIN数据表明可以达到预期。即使在这种情况下,降低投入需要通过免费冷却设施,以及通过备用冷却装置冷却的时间来实现,从而降低对冗余冷水机组、新风机组和CRAC单元的投入。

即使在传统机械设备设计为N + 1级冗余的情况下, 免费冷却能力与允许的温度小时可以提供另一个级别的冗余,将冷却系统从基本的可用性级别提升到容错的级别以及同时可维护的能力,为达到一定程度的稳健性性,否则可能无法负担的起。

到目前为止,在看到安装标准机架服务器、刀片系统之间的潜在差异以及与新的ASHRAE TC9.9服务器类相关的机会之后,应该清楚的是,对于采购哪类器对数据中心的设备操作效率的影响要远远大于对CRAC单元的选择,散热策略、冷水机组以及其他一些与其他元素通常都与此有关。

此外,还有一些决策都与IT领域相关,它们都直接影响数据中心的整体运营能效,对数据中心设计的有效性和文件性也都有关系。

第三部分:指定设备

不这样做违反了冷热通道隔离,导致需要较低的温度设定点以及更高的气流量输送,从而降低总体冗余冷却能力以及更高的运行成本。

服务器不仅仅是数据中心指定的唯一的IT管理设备,网络交换机的数量可能无法接近服务器的数量,但它们仍然对IT企业的有效运作至关重要。

交换机的选择过程通常会考虑需要多少个端口,无论它是具有第三层或路由器功能的核心交换机还是分布式交换机,无论是非管理还是必须被管理,

无论是速度、延迟还是原始容量,都是最重要的,以及在以太网和冗余方面需要什么。此外,交换机通常也会引起对可伸缩性、虚拟化计划、应用程序部署速度和应用程序访问速度的关注。调查和采购开关应该与整体业务需求密切相关。

在核心业务目标的范围内,效率和可达性也属于核心业务目标的范围,对于数据中心整体有效的空中交通管理的影响,也应该成为整体标准清单的一部分。就数据中心的设备健康而言,所有的设备都应该是可以安装的,并且机架可以从前到后保持气流畅通。

这一标准是一种公认的最佳实践,来自于欧洲数据中心行为准则、bicsi-002和ASHRAE TC9.9。,只是,要是它真这么简单就好了。

然而,尽管与服务器、存储设备的数量相比,数据中心可能有一小部分的交换机,但非标准的空气流量的的影响依然是惊人的。一个具有3500平方英尺的计算机室,总功率为514千瓦的例子,说明不受控制的非标准气流对网络硬件的影响。

图1显示了这种不受控制的气流的的影响。有6个机架,每个机架功率3千瓦,但是一个机架的设备温度是从73° F(23℃)到90 °F(32摄氏度),一个6千瓦的核心开关架正在吸收空气,从56° F (13℃)到 85° F(29℃)。

虽然这些温度实际上是由制造商的特殊情况所允许的,但它们超过了所有者的内部SLA,更重要的是,它们破坏了这个空间的有效设计。所有的服务器机柜都配备了排气烟囱,连接到一个悬挂的天花板返回空间,而供应气流则直接进入了所有的冷通道。

此外,天花板格栅位于没有安装机柜的周围,以捕获热回风。 然而,为了降低热点的数量以及这些热点产生的严重性,冷却系统温度设定在72°F(22℃)的设定点,导致54°F(12℃)的空气通常通过顶部管道输送。 此外,冷却系统需要提供82,500 CFM以满足IT设备的67,900 CFM需求。

  图1

将这些结果与具有相同数据中心的模型进行对比,并将所有返回气流全部有效的包含在内。侧面气流重新部署在机柜中,将气流为前送后回,然后将这些机柜捕获在热通道密闭结构中。

在入口处,侧面到前面和后面到前面的从开放的双柱架拆下,并重新部署在装有机架安装盒的机柜中,将机身重新定位成标准的前后结构,然后这些机柜配有垂直排气管。

此外,由于这些改变消除了整个房间的所有热点,所以对顶置管道输送系统的需求被消除,从总资本计划中消除了这些成本。 图2说明了这些变化的结果。

不仅温度更稳定,温度更低,设定温度从54° F(12℃)升到75° F(23.8℃),冷却装置的能量节省了38%。

此外,根据本文前面讨论的非线性风扇定律关系,将设备入口温度保持在75°F(24℃)至76°F(24.4℃)之间的空气流量从82,500 CFM降至72,000 CFM,从而节省了33.5%的CRAH风扇能耗。

所有相关的最佳做法和标准规定,只有通过从前到后的气流的设备才能实现适当的气流管理。 不幸的是,其他应用标准通常导致不合格设备的选择。

幸运的是,有一些方法可以将任何设备改变成相当于前后送回风的方式。对于侧向气流,现在有更宽的机柜可用内部功能,将重新定向气流方向以符合数据中心的其余部分。

  图2

对于可能具有前端到侧面气流或从侧到左或从左到右,甚至从前到后的较小轮廓的交换机,有可用的机架安装盒,将将这些气流模式重定向到符合数据中心的其余部分。

这些盒子通常会消耗一个或两个额外的机架安装单元,但是它们将保持其他设计良好且被执行的空间的完整性。 一些存储设备将对数据中心经理提出类似的挑战; 然而,某种形式的调整是可行的,并且应该被利用来最大限度地提高数据中心机械设备的效率或增加数据中心设备的有效容量。

关键字:数据中心允许

本文摘自:机房360

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^