当前位置:数据中心企业动态 → 正文

把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心

责任编辑:editor005 作者:卢晓明 |来源:企业网D1Net  2017-04-26 11:39:10 本文摘自:36kr

 

数据中心是耗能大户。根据IDC,到2024年数据中心耗电量将占到全社会耗电量的5%以上。其中,散热占到了数据中心非常大比例的电能消耗,有的甚至可以到一半以上。

为了节约散热成本,不少国际互联网巨头,常常会把数据中心建在爱尔兰这种气候阴凉的地方。可是,如果可以服务器直接泡在液体里散热,是不是黑科技?

4月26日的云栖大会·南京峰会上,阿里云展示了全浸没的“凉得快”服务器——麒麟,真的就是把服务器泡在液体里冷却。

把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心 | 潮科技

这个方案的关键之一,就是绝缘冷却液。把整台服务器浸在液体里循环冷却,利用绝缘冷却液代替风冷。如此一来,不需要用到任何的风扇或者空调等冷却设备,也节省了不少空间。

IDC预计,2020年将产生40ZB的数据。与此同时,到2024年数据中心耗电量将占到全社会耗电量的5%以上。节能就成为了数据中心的追求之一。据百度百科,能源使用率(PUE)数据中心总设备能耗/IT设备能耗,是评价数据电能效率的指标,基准是2,越接近1表明能效水平越好,越节能。一般来说,降低PUE的手段就是压缩非IT设备的能耗。因此,对数据中心节能改造,降低其PUE值,成了某些系统集成商的广告噱头。

据公开资料,国外先进的数据中心机房PUE值通常小于2,而中国的大多数数据中心的PUE值在2-3之间。根据Uptime Institute调查研究,近年来全球业界平均PUE约为1.7。谷歌也曾经自己公布的数据中心文档中,炫耀过自己超低的PUE:

自从2008年开始公开PUE后,每年我们都不断的降低PUE。截至到2012年第二季度,过去12个月的加权平均值(TTM)PUE达到了1.13,这是全球效率最高的数据中心。

据阿里云方面表示,麒麟的能源使用率(PUE)逼近了理论极限值1.0。 

利用热交换的原理,阿里巴巴工程师将服务器完全浸没在一种特殊的冷却液里,冷却液吸热气化之后,将直接吸收进入外循环冷却,被液化之后再次用于散热。目前,方案可支持超过200kW功耗的服务器集群。阿里云表示,全程用于散热的能耗几乎为零,在传统数据中心里,几乎有一半的电能消耗在了散热上。

把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心 | 潮科技

阿里云方面表示,这是液体降温首次商用服务器集群上,可支持超过200kW功耗的服务器集群。

阿里云介绍,“麒麟”无需风扇、空调等大型制冷设备,可在任何地方部署,节省空间75%以上,单位体积内的计算能力比过去提升了10倍;高密封性也使得元器件远离湿度、灰尘、振动的影响,受干扰情况几乎为0;同时,这种特殊液体完全绝缘且无腐蚀性,即使浸没元器件20年以上,成分不会发生任何变化,也不会对电子元器件产生任何影响。

目前,“麒麟”已经通过了初步测试和验证,将通过阿里云对外提供计算服务。

数据中心是耗能大户。根据IDC,到2024年数据中心耗电量将占到全社会耗电量的5%以上。其中,散热占到了数据中心非常大比例的电能消耗,有的甚至可以到一半以上。

为了节约散热成本,不少国际互联网巨头,常常会把数据中心建在爱尔兰这种气候阴凉的地方。可是,如果可以服务器直接泡在液体里散热,是不是黑科技?

4月26日的云栖大会·南京峰会上,阿里云展示了全浸没的“凉得快”服务器——麒麟,真的就是把服务器泡在液体里冷却。

这个方案的关键之一,就是绝缘冷却液。把整台服务器浸在液体里循环冷却,利用绝缘冷却液代替风冷。如此一来,不需要用到任何的风扇或者空调等冷却设备,也节省了不少空间。

IDC预计,2020年将产生40ZB的数据。与此同时,到2024年数据中心耗电量将占到全社会耗电量的5%以上。节能就成为了数据中心的追求之一。据百度百科,能源使用率(PUE)数据中心总设备能耗/IT设备能耗,是评价数据电能效率的指标,基准是2,越接近1表明能效水平越好,越节能。一般来说,降低PUE的手段就是压缩非IT设备的能耗。因此,对数据中心节能改造,降低其PUE值,成了某些系统集成商的广告噱头。

据公开资料,国外先进的数据中心机房PUE值通常小于2,而中国的大多数数据中心的PUE值在2-3之间。根据Uptime Institute调查研究,近年来全球业界平均PUE约为1.7。谷歌也曾经自己公布的数据中心文档中,炫耀过自己超低的PUE:

自从2008年开始公开PUE后,每年我们都不断的降低PUE。截至到2012年第二季度,过去12个月的加权平均值(TTM)PUE达到了1.13,这是全球效率最高的数据中心。

据阿里云方面表示,麒麟的能源使用率(PUE)逼近了理论极限值1.0。

利用热交换的原理,阿里巴巴工程师将服务器完全浸没在一种特殊的冷却液里,冷却液吸热气化之后,将直接吸收进入外循环冷却,被液化之后再次用于散热。目前,方案可支持超过200kW功耗的服务器集群。阿里云表示,全程用于散热的能耗几乎为零,在传统数据中心里,几乎有一半的电能消耗在了散热上。

阿里云方面表示,这是液体降温首次商用服务器集群上,可支持超过200kW功耗的服务器集群。

阿里云介绍,“麒麟”无需风扇、空调等大型制冷设备,可在任何地方部署,节省空间75%以上,单位体积内的计算能力比过去提升了10倍;高密封性也使得元器件远离湿度、灰尘、振动的影响,受干扰情况几乎为0;同时,这种特殊液体完全绝缘且无腐蚀性,即使浸没元器件20年以上,成分不会发生任何变化,也不会对电子元器件产生任何影响。

目前,“麒麟”已经通过了初步测试和验证,将通过阿里云对外提供计算服务。

关键字:数据中心PUE

本文摘自:36kr

x 把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心 扫一扫
分享本文到朋友圈
当前位置:数据中心企业动态 → 正文

把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心

责任编辑:editor005 作者:卢晓明 |来源:企业网D1Net  2017-04-26 11:39:10 本文摘自:36kr

 

数据中心是耗能大户。根据IDC,到2024年数据中心耗电量将占到全社会耗电量的5%以上。其中,散热占到了数据中心非常大比例的电能消耗,有的甚至可以到一半以上。

为了节约散热成本,不少国际互联网巨头,常常会把数据中心建在爱尔兰这种气候阴凉的地方。可是,如果可以服务器直接泡在液体里散热,是不是黑科技?

4月26日的云栖大会·南京峰会上,阿里云展示了全浸没的“凉得快”服务器——麒麟,真的就是把服务器泡在液体里冷却。

把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心 | 潮科技

这个方案的关键之一,就是绝缘冷却液。把整台服务器浸在液体里循环冷却,利用绝缘冷却液代替风冷。如此一来,不需要用到任何的风扇或者空调等冷却设备,也节省了不少空间。

IDC预计,2020年将产生40ZB的数据。与此同时,到2024年数据中心耗电量将占到全社会耗电量的5%以上。节能就成为了数据中心的追求之一。据百度百科,能源使用率(PUE)数据中心总设备能耗/IT设备能耗,是评价数据电能效率的指标,基准是2,越接近1表明能效水平越好,越节能。一般来说,降低PUE的手段就是压缩非IT设备的能耗。因此,对数据中心节能改造,降低其PUE值,成了某些系统集成商的广告噱头。

据公开资料,国外先进的数据中心机房PUE值通常小于2,而中国的大多数数据中心的PUE值在2-3之间。根据Uptime Institute调查研究,近年来全球业界平均PUE约为1.7。谷歌也曾经自己公布的数据中心文档中,炫耀过自己超低的PUE:

自从2008年开始公开PUE后,每年我们都不断的降低PUE。截至到2012年第二季度,过去12个月的加权平均值(TTM)PUE达到了1.13,这是全球效率最高的数据中心。

据阿里云方面表示,麒麟的能源使用率(PUE)逼近了理论极限值1.0。 

利用热交换的原理,阿里巴巴工程师将服务器完全浸没在一种特殊的冷却液里,冷却液吸热气化之后,将直接吸收进入外循环冷却,被液化之后再次用于散热。目前,方案可支持超过200kW功耗的服务器集群。阿里云表示,全程用于散热的能耗几乎为零,在传统数据中心里,几乎有一半的电能消耗在了散热上。

把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心 | 潮科技

阿里云方面表示,这是液体降温首次商用服务器集群上,可支持超过200kW功耗的服务器集群。

阿里云介绍,“麒麟”无需风扇、空调等大型制冷设备,可在任何地方部署,节省空间75%以上,单位体积内的计算能力比过去提升了10倍;高密封性也使得元器件远离湿度、灰尘、振动的影响,受干扰情况几乎为0;同时,这种特殊液体完全绝缘且无腐蚀性,即使浸没元器件20年以上,成分不会发生任何变化,也不会对电子元器件产生任何影响。

目前,“麒麟”已经通过了初步测试和验证,将通过阿里云对外提供计算服务。

数据中心是耗能大户。根据IDC,到2024年数据中心耗电量将占到全社会耗电量的5%以上。其中,散热占到了数据中心非常大比例的电能消耗,有的甚至可以到一半以上。

为了节约散热成本,不少国际互联网巨头,常常会把数据中心建在爱尔兰这种气候阴凉的地方。可是,如果可以服务器直接泡在液体里散热,是不是黑科技?

4月26日的云栖大会·南京峰会上,阿里云展示了全浸没的“凉得快”服务器——麒麟,真的就是把服务器泡在液体里冷却。

这个方案的关键之一,就是绝缘冷却液。把整台服务器浸在液体里循环冷却,利用绝缘冷却液代替风冷。如此一来,不需要用到任何的风扇或者空调等冷却设备,也节省了不少空间。

IDC预计,2020年将产生40ZB的数据。与此同时,到2024年数据中心耗电量将占到全社会耗电量的5%以上。节能就成为了数据中心的追求之一。据百度百科,能源使用率(PUE)数据中心总设备能耗/IT设备能耗,是评价数据电能效率的指标,基准是2,越接近1表明能效水平越好,越节能。一般来说,降低PUE的手段就是压缩非IT设备的能耗。因此,对数据中心节能改造,降低其PUE值,成了某些系统集成商的广告噱头。

据公开资料,国外先进的数据中心机房PUE值通常小于2,而中国的大多数数据中心的PUE值在2-3之间。根据Uptime Institute调查研究,近年来全球业界平均PUE约为1.7。谷歌也曾经自己公布的数据中心文档中,炫耀过自己超低的PUE:

自从2008年开始公开PUE后,每年我们都不断的降低PUE。截至到2012年第二季度,过去12个月的加权平均值(TTM)PUE达到了1.13,这是全球效率最高的数据中心。

据阿里云方面表示,麒麟的能源使用率(PUE)逼近了理论极限值1.0。

利用热交换的原理,阿里巴巴工程师将服务器完全浸没在一种特殊的冷却液里,冷却液吸热气化之后,将直接吸收进入外循环冷却,被液化之后再次用于散热。目前,方案可支持超过200kW功耗的服务器集群。阿里云表示,全程用于散热的能耗几乎为零,在传统数据中心里,几乎有一半的电能消耗在了散热上。

阿里云方面表示,这是液体降温首次商用服务器集群上,可支持超过200kW功耗的服务器集群。

阿里云介绍,“麒麟”无需风扇、空调等大型制冷设备,可在任何地方部署,节省空间75%以上,单位体积内的计算能力比过去提升了10倍;高密封性也使得元器件远离湿度、灰尘、振动的影响,受干扰情况几乎为0;同时,这种特殊液体完全绝缘且无腐蚀性,即使浸没元器件20年以上,成分不会发生任何变化,也不会对电子元器件产生任何影响。

目前,“麒麟”已经通过了初步测试和验证,将通过阿里云对外提供计算服务。

关键字:数据中心PUE

本文摘自:36kr

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^