当前位置:数据中心散热制冷 → 正文

数据中心机房左右送风的困惑

责任编辑:vivian |来源:企业网D1Net  2012-03-09 08:46:18 本文摘自:机房技术与管理

数据中心很多管理问题都是小问题引起的。国家电网数据中心高级工程师曾宇就表示,最让他感到困扰的就是线缆管理,剪了捆,捆了剪。维修中,不小心就会碰掉某根网线,这都是些小问题,但经常会遇到。

网络设备左右送风

在散热方式上,服务器采用前进风后出风,根据这个特点,数据中心机柜的摆放上会采取“脸对脸、背对背”的方式,形成冷热通道。与服务器设备不同,网络设备采用的不是前后送风,而是左右送风的技术。其原因很简单,网络设备接口都在前面板,线缆密集,只好采取左右送风。但也有例外,以IBM、HP刀片服务器为例,他们所采用的网络模块,就是采用前后送风设计。合作厂商是一家叫做布莱德(Blade)的网络厂商,前进风后出风被作为其网络设备的一个优势进行宣传,该厂商后来被IBM收购。

为了满足网络设备散热的需要,就需要在机柜设计上采取必要措施,也就是设计导风槽。不同网络设备高度不同,配套导风槽也不同,CPI、泛达等机柜厂商都提供了配套的机柜,但价格比较贵,要几万元。在网上,也招致不少非议。

有人称,Cisco在美国要求用户采用其认证过的机柜和机架品牌,凡不适用其认证的,Cisco不保修他们的设备。泛达在其认证之列,所以一个机柜售价几万元也是有基础的。实际上,导风槽并不是专利产品,国内机柜厂商杜尔瑞克就可以提供导风槽选件,可以配合其他品牌的机柜产品使用,花不了多少钱。此外,目前国内网络厂商也提供前后送风的网络产品。

被夸大的送风问题

与服务器产品相比,网络设备散热问题并不突出,因为网络设备属于低功率密度的产品,其发热量不大。同样的1U设备产品,其功率密度仅为服务器设备的一半。即使不采用导风槽,也可以满足网络设备散热的需求。

目前数据中心机房设计,功率密度多为900W/平米,一个机柜的功率密度在3kW以下,属于低密度布局。有些老旧数据中心机房存在局部热点,更多也是由于气流组织和控制不合理所致。低功率密度区散热矛盾并不突出。有关网络设备送风方式,并没有被提及。

随着刀片服务器推出,热点问题才被广泛关注。冷热通道交替、冷或热通道封闭的气流遏制系统,都是因应刀片服务器使用的需要提出来的。对于低密度区,并不需要封闭冷/热通道。在这样的背景下,设备散热被广泛关注。对于网络设备的送风方式而言,有被夸大的嫌疑。

导风槽选件是一个小产品,没有更多的技术含量,也不需要花费太多的投资。据对尔瑞克技术总监何云晖介绍,在使用时,只要避开水平支架,就可以安装导风槽。

理线的问题

机架功率密度的提升,设备部署密集度的上升所导致的不仅是配电和散热问题。理线也是一个大问题。由于密集度高,甚至没有人手指操作的缝隙。按照经验,双绞线超过500,光纤超过100根的情况下,合理理线就非常重要了。一来端口密集,需要进行合理管理;二来,零乱的布线会对气流形成遮挡,影响散热的效率。合理的机柜内理线非常重要。

线缆的弯曲度以及重量都会影响网络通信的质量。要求机柜提供垂直和水平理线架,合理承担线缆重量,遮盖走线的瑕疵。有些理线架可以水平抽出,一层层布线,即实现了高密度,节省空间,同时也方便操作。有些理线架设计合理,不占用机架空间。

这些设计并不高深。但有些机柜厂商不了解数据中心应用的特点,很多细节考虑不周。导风槽,理线架都是如此。

有些机柜产品,不熟悉数据中心设备的供电特点,PDU缺乏提示。有些IT设备的双电源全部插在一路供电上,平时不察觉。当一路电正常维护时,造成不必要的宕机。因此,数据中心设备的设计和使用是一个细致的工作,需要供应商和用户熟悉其特点,如此数据中心才能够真正做到得心应手。

关键字:数据中心网络设备送风方式

本文摘自:机房技术与管理

x 数据中心机房左右送风的困惑 扫一扫
分享本文到朋友圈
当前位置:数据中心散热制冷 → 正文

数据中心机房左右送风的困惑

责任编辑:vivian |来源:企业网D1Net  2012-03-09 08:46:18 本文摘自:机房技术与管理

数据中心很多管理问题都是小问题引起的。国家电网数据中心高级工程师曾宇就表示,最让他感到困扰的就是线缆管理,剪了捆,捆了剪。维修中,不小心就会碰掉某根网线,这都是些小问题,但经常会遇到。

网络设备左右送风

在散热方式上,服务器采用前进风后出风,根据这个特点,数据中心机柜的摆放上会采取“脸对脸、背对背”的方式,形成冷热通道。与服务器设备不同,网络设备采用的不是前后送风,而是左右送风的技术。其原因很简单,网络设备接口都在前面板,线缆密集,只好采取左右送风。但也有例外,以IBM、HP刀片服务器为例,他们所采用的网络模块,就是采用前后送风设计。合作厂商是一家叫做布莱德(Blade)的网络厂商,前进风后出风被作为其网络设备的一个优势进行宣传,该厂商后来被IBM收购。

为了满足网络设备散热的需要,就需要在机柜设计上采取必要措施,也就是设计导风槽。不同网络设备高度不同,配套导风槽也不同,CPI、泛达等机柜厂商都提供了配套的机柜,但价格比较贵,要几万元。在网上,也招致不少非议。

有人称,Cisco在美国要求用户采用其认证过的机柜和机架品牌,凡不适用其认证的,Cisco不保修他们的设备。泛达在其认证之列,所以一个机柜售价几万元也是有基础的。实际上,导风槽并不是专利产品,国内机柜厂商杜尔瑞克就可以提供导风槽选件,可以配合其他品牌的机柜产品使用,花不了多少钱。此外,目前国内网络厂商也提供前后送风的网络产品。

被夸大的送风问题

与服务器产品相比,网络设备散热问题并不突出,因为网络设备属于低功率密度的产品,其发热量不大。同样的1U设备产品,其功率密度仅为服务器设备的一半。即使不采用导风槽,也可以满足网络设备散热的需求。

目前数据中心机房设计,功率密度多为900W/平米,一个机柜的功率密度在3kW以下,属于低密度布局。有些老旧数据中心机房存在局部热点,更多也是由于气流组织和控制不合理所致。低功率密度区散热矛盾并不突出。有关网络设备送风方式,并没有被提及。

随着刀片服务器推出,热点问题才被广泛关注。冷热通道交替、冷或热通道封闭的气流遏制系统,都是因应刀片服务器使用的需要提出来的。对于低密度区,并不需要封闭冷/热通道。在这样的背景下,设备散热被广泛关注。对于网络设备的送风方式而言,有被夸大的嫌疑。

导风槽选件是一个小产品,没有更多的技术含量,也不需要花费太多的投资。据对尔瑞克技术总监何云晖介绍,在使用时,只要避开水平支架,就可以安装导风槽。

理线的问题

机架功率密度的提升,设备部署密集度的上升所导致的不仅是配电和散热问题。理线也是一个大问题。由于密集度高,甚至没有人手指操作的缝隙。按照经验,双绞线超过500,光纤超过100根的情况下,合理理线就非常重要了。一来端口密集,需要进行合理管理;二来,零乱的布线会对气流形成遮挡,影响散热的效率。合理的机柜内理线非常重要。

线缆的弯曲度以及重量都会影响网络通信的质量。要求机柜提供垂直和水平理线架,合理承担线缆重量,遮盖走线的瑕疵。有些理线架可以水平抽出,一层层布线,即实现了高密度,节省空间,同时也方便操作。有些理线架设计合理,不占用机架空间。

这些设计并不高深。但有些机柜厂商不了解数据中心应用的特点,很多细节考虑不周。导风槽,理线架都是如此。

有些机柜产品,不熟悉数据中心设备的供电特点,PDU缺乏提示。有些IT设备的双电源全部插在一路供电上,平时不察觉。当一路电正常维护时,造成不必要的宕机。因此,数据中心设备的设计和使用是一个细致的工作,需要供应商和用户熟悉其特点,如此数据中心才能够真正做到得心应手。

关键字:数据中心网络设备送风方式

本文摘自:机房技术与管理

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^