当前位置:数据中心散热制冷 → 正文

突破数据中心散热制冷效率难题

责任编辑:vivian |来源:企业网D1Net  2012-08-28 16:27:29 本文摘自:机房360

随着金融业的信息化快速发展,各机构均已建设了由总部到分支机构的数据中心和网络机房(以下简称机房)。然而,电能的使用不是机房的典型设计标准,也没有作为一项开支得到有效管理。在机房生命周期内,用电成本有可能超过机房内IT设备总成本,但并没有引起太多关注。其中占机房用电总量38%的制冷系统表现的由为突出。“LawrenceBerkeley国家实验室独立研究显示,制冷效率降低20%,便可能导致整个电力消耗增加8%。这对于一个使用寿命为10年的容量为500KW数据中心而言,被消费的电力成本约为70万美元。”本文主要就机房制冷系统浅谈节能措施。

一、存在问题

(一)机柜内空气流通通道不合理造成的用电成本增加

在机柜使用过程中,基本上把机柜只当作是码放服务器的机械设备,而未认真考虑机柜的空气流通路径。由于热空气会自己上升,加之机柜顶部排风扇的抽气作用,使得机柜内最下层设备排出的热空气在上升的过程中被上层设备的进气口吸入,即上层设备吸入的不是完全的空调制冷气体,而是混合了下层设备排出的热气体,形成空气再循环现象,使得设备无法吸入足够的冷空气导致中上层IT设备温度升高约8℃。由于中上层设备的自动温控系统探测到设备温度升高,会自动加速设备的排风系统转速,形成用电量增加。同时,多台设备码放在同一机柜中,使得设备排出的热空气不能迅速施放,容易形成“热点”,形成机房管理员采取加大制冷量来解决机柜局部高温的问题,进一步造成用电量的增加。

(二)机柜摆放不合理形成的用电增加

我们在机柜摆放时,主要考虑美观、易用、以及物理的限制,未能充分考虑到机柜的摆放位置与空调系统的送风与回风口的位置关系。在实际情况下,大约有25%机房中机柜面向同一方向摆放,同一方向摆放可能导致严重的短路循环问题,肯定会出现“热点”。同时,同一摆放会形成机柜与空调的进出风口位置上的错位,使得空调的冷空气在进入IT设备的进风口时已与热空气混合,同时设备排出的热空气不能直接到达空调系统的回风口,形成热冷空气在传输过程中混合在一起,影响空调效能的充分发挥,造成能源浪费。

(三)刀片服务器的大量使用给机柜散热带来的问题

按照常规计算,目前机房机柜平均功耗在2KW左右。而伴随着刀片服务器的大量使用,每个机柜的功率达到10KW以上,机柜的温度直线上升,给机柜带来散热难题。按有关部门的统计:刀片服务器系统进气口需要大约2,500cfm(立方英尺/分钟)(相当于1,180升/秒)的冷空气(以排出的气体温度升高20°F[11°C]的常用值计算),从机柜后部也要排出相同数量的热空气。无论散热系统能否提供足够的冷空气,这些设备都要吸入这么多的空气。如果机房不能为机柜提供足够的冷空气,机柜中的设备就会吸入自己排出的热空气(或者相邻机器排出的热空气)导致机器过热形成“热点”,解决问题的传统办法就是增加冷空气(加大空调功率或增加空调),带来用电量增加。

二、解决办法

(一)安装档板以解决机柜空气再循环问题

在机柜服务器与服务器之间安装档板,通过档板阻碍机柜中下层服务器排出的热空气进入中上层服务器的进气口,使热空气按照规定路线流动,以保证所有服务器吸入纯冷空气,解决服务器排风扇加速运转所消耗的电力和充分发挥空调效能。(对比图如下)

 

(二)完善送风口与回风口设计

送风口的关键位置在于尽可能邻近设备进气口处,将冷空气限制在冷通道内。对于地板下空气分布,将打孔地板置于冷通道内。上送风系统与下送风系统一样有效,关键是将分配通风口置于冷通道上部,而且这些通风口的设计必须要能引导空气直接向下进入冷通道。在上送风系统与下送风系统中,任何通风口若位于不运行设备的位置,均应关闭。

回风口的关键位置在于尽可能邻近设备排气口处,并从热通道收集热空气。在某些情况下,使用架空吊顶强制通风,这样回风口便可轻松与热通道进行协调。当使用高敞开式整回风天花板时,最好的方法是将回风口位置尽可能高,并用管道系统连接回风口,以协调回风口与热通道。

(三)五种基本方法解决高密度机柜散热问题

分散负载:将负载超过平均值的机柜中的负载分散到多个机柜中。

基于规则的散热能力转借:通过采用一些规则允许高密度机柜借用邻近的利用率不高的冷却能力。

辅助散热:使用辅助散热设备为功率密度超过机柜设计的平均值机柜提供所需的散热能力。

设定专门的高密度区:在机房内设定一个有限的专门的区域提供强散热能力,将高密度机柜限制在这一区域内。

全房间制冷:提供为机房内每个机柜散热量总合的散热能力。

关键字:制冷系统冷空气机房热通道

本文摘自:机房360

x 突破数据中心散热制冷效率难题 扫一扫
分享本文到朋友圈
当前位置:数据中心散热制冷 → 正文

突破数据中心散热制冷效率难题

责任编辑:vivian |来源:企业网D1Net  2012-08-28 16:27:29 本文摘自:机房360

随着金融业的信息化快速发展,各机构均已建设了由总部到分支机构的数据中心和网络机房(以下简称机房)。然而,电能的使用不是机房的典型设计标准,也没有作为一项开支得到有效管理。在机房生命周期内,用电成本有可能超过机房内IT设备总成本,但并没有引起太多关注。其中占机房用电总量38%的制冷系统表现的由为突出。“LawrenceBerkeley国家实验室独立研究显示,制冷效率降低20%,便可能导致整个电力消耗增加8%。这对于一个使用寿命为10年的容量为500KW数据中心而言,被消费的电力成本约为70万美元。”本文主要就机房制冷系统浅谈节能措施。

一、存在问题

(一)机柜内空气流通通道不合理造成的用电成本增加

在机柜使用过程中,基本上把机柜只当作是码放服务器的机械设备,而未认真考虑机柜的空气流通路径。由于热空气会自己上升,加之机柜顶部排风扇的抽气作用,使得机柜内最下层设备排出的热空气在上升的过程中被上层设备的进气口吸入,即上层设备吸入的不是完全的空调制冷气体,而是混合了下层设备排出的热气体,形成空气再循环现象,使得设备无法吸入足够的冷空气导致中上层IT设备温度升高约8℃。由于中上层设备的自动温控系统探测到设备温度升高,会自动加速设备的排风系统转速,形成用电量增加。同时,多台设备码放在同一机柜中,使得设备排出的热空气不能迅速施放,容易形成“热点”,形成机房管理员采取加大制冷量来解决机柜局部高温的问题,进一步造成用电量的增加。

(二)机柜摆放不合理形成的用电增加

我们在机柜摆放时,主要考虑美观、易用、以及物理的限制,未能充分考虑到机柜的摆放位置与空调系统的送风与回风口的位置关系。在实际情况下,大约有25%机房中机柜面向同一方向摆放,同一方向摆放可能导致严重的短路循环问题,肯定会出现“热点”。同时,同一摆放会形成机柜与空调的进出风口位置上的错位,使得空调的冷空气在进入IT设备的进风口时已与热空气混合,同时设备排出的热空气不能直接到达空调系统的回风口,形成热冷空气在传输过程中混合在一起,影响空调效能的充分发挥,造成能源浪费。

(三)刀片服务器的大量使用给机柜散热带来的问题

按照常规计算,目前机房机柜平均功耗在2KW左右。而伴随着刀片服务器的大量使用,每个机柜的功率达到10KW以上,机柜的温度直线上升,给机柜带来散热难题。按有关部门的统计:刀片服务器系统进气口需要大约2,500cfm(立方英尺/分钟)(相当于1,180升/秒)的冷空气(以排出的气体温度升高20°F[11°C]的常用值计算),从机柜后部也要排出相同数量的热空气。无论散热系统能否提供足够的冷空气,这些设备都要吸入这么多的空气。如果机房不能为机柜提供足够的冷空气,机柜中的设备就会吸入自己排出的热空气(或者相邻机器排出的热空气)导致机器过热形成“热点”,解决问题的传统办法就是增加冷空气(加大空调功率或增加空调),带来用电量增加。

二、解决办法

(一)安装档板以解决机柜空气再循环问题

在机柜服务器与服务器之间安装档板,通过档板阻碍机柜中下层服务器排出的热空气进入中上层服务器的进气口,使热空气按照规定路线流动,以保证所有服务器吸入纯冷空气,解决服务器排风扇加速运转所消耗的电力和充分发挥空调效能。(对比图如下)

 

(二)完善送风口与回风口设计

送风口的关键位置在于尽可能邻近设备进气口处,将冷空气限制在冷通道内。对于地板下空气分布,将打孔地板置于冷通道内。上送风系统与下送风系统一样有效,关键是将分配通风口置于冷通道上部,而且这些通风口的设计必须要能引导空气直接向下进入冷通道。在上送风系统与下送风系统中,任何通风口若位于不运行设备的位置,均应关闭。

回风口的关键位置在于尽可能邻近设备排气口处,并从热通道收集热空气。在某些情况下,使用架空吊顶强制通风,这样回风口便可轻松与热通道进行协调。当使用高敞开式整回风天花板时,最好的方法是将回风口位置尽可能高,并用管道系统连接回风口,以协调回风口与热通道。

(三)五种基本方法解决高密度机柜散热问题

分散负载:将负载超过平均值的机柜中的负载分散到多个机柜中。

基于规则的散热能力转借:通过采用一些规则允许高密度机柜借用邻近的利用率不高的冷却能力。

辅助散热:使用辅助散热设备为功率密度超过机柜设计的平均值机柜提供所需的散热能力。

设定专门的高密度区:在机房内设定一个有限的专门的区域提供强散热能力,将高密度机柜限制在这一区域内。

全房间制冷:提供为机房内每个机柜散热量总合的散热能力。

关键字:制冷系统冷空气机房热通道

本文摘自:机房360

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^