当前位置:数据中心企业动态 → 正文

Google以身作则 引领数据中心能效治理

责任编辑:Lucy |来源:企业网D1Net  2011-06-02 10:49:37 本文摘自:TechTarget中国

【TechTarget中国原创】本文是SearchDataCenter.com关于Uptime Instutute研讨会相关文章的一篇。更多内容请查阅:Uptime Institute Symposium 2011 coverage。

Google宣称他们位于加州的数据中心在能源利用效率(PUE)上再创新高。若遵循以下指导方针,你同样可以实现更高效的能源利用,一名Google官员这样说道。

Chris Malone是Google的热能技术建筑师,他详细阐述了这个互联网搜索巨人是如何在它的10座数据中心里达到1.16的PUE值。

PUE指标由Green Grid(绿色网格)设计,其计算方式为:PUE = 数据中心总设备能耗/IT设备能耗。

PUE的目标是让计算结果尽可能的接近1.0。根据Uptime Institute最近的一份调查,数据中心维护人员与所有者反馈的平均数值为1.8,意味着IT设备每消耗1瓦特能源,将额外花费0.8瓦特用于能源转换、制冷与其他开销。

通常能耗问题源

降低数据中心PUE数值最简单的方法就是关注冷却,Malone说。

“优先考虑冷却问题。”Malone说,“因为这方面通常都有极大的改善余地。”在一个典型的PUE值为2.0的数据中心内,IT设备消耗50%的能源,而冷却设备消耗大约35%左右负载。与之相比,Google PUE值为1.16的数据中心内,设备消耗86%的能源,而冷却仅为9%。

数据中心专家可以通过调整空气流(将冷热气流分离),提高数据中心运行环境温度,使用省煤器与外部空气优化冷却效率,Malone说。

智能电源与备份策略同样可以提高能源利用率。在电源前端,Malone主张尽量减少转换次数。

“理想情况下最好只进行一次转换,”他说。数据中心应该使用最一流的UPS产品。“若选择最先进的商业产品并遵照其最佳实践,将可以减少约0.24的PUE开销。”

即使是微小的变更也能对PUE产生很大影响,Malone说。Google在一个250,000kW的网络设备机房上投资了约20,000美元,该机房之前的PUE为2.2至2.5,现在已经降为1.6。他们采用的技术包括了改善穿孔瓷砖布局,关闭过度冷却至80.6°F(26.9℃),提升相对湿度并减少冷热通道混合。Google不到一年就赚回了相关成本,既没有影响冷通道抑制,也没影响免费冷却,甚至不会对冗余与正常运行时间造成影响。

改善数据中心能耗可行的举措

出席展会的数据中心运维人员也表示Google提供了可靠的建议。

“很显然,我们可以完成此类的变更,”Juan Murguia说,他是墨西哥CEMEX的数据中心经理。诸如存储热空气,并在机房空调设备(CRAC)上增加烟囱这样的简单解决方案“确实有效”,而且“进行这些改进并不会产生多少费用”。

Steve Press是Kaiser Permanente某数据中心设施服务的执行董事,亦对此表示赞同。在大型数据中心中调节冷却效率可以帮助将PUE从1.67降低至1.45,要感谢像Google这样的公司,因为他们,降低PUE变得更容易了。“像Google这样的企业已经给我们做了榜样,可以放心尝试与购买相关的冷却技术了。”他说。

可是数据中心运维人员依旧需要进行大量的工作,才可逐渐达到理想的PUE。根据报告,数据中心的PUE平均值为1.8,只有大约18%的受访者表示达到了Google“轻松目标”的PUE值1.6,而且有21%的受访者表示当前PUE值在2.0,甚至更高。

关键字:数据中心Google

本文摘自:TechTarget中国

x Google以身作则 引领数据中心能效治理 扫一扫
分享本文到朋友圈
当前位置:数据中心企业动态 → 正文

Google以身作则 引领数据中心能效治理

责任编辑:Lucy |来源:企业网D1Net  2011-06-02 10:49:37 本文摘自:TechTarget中国

【TechTarget中国原创】本文是SearchDataCenter.com关于Uptime Instutute研讨会相关文章的一篇。更多内容请查阅:Uptime Institute Symposium 2011 coverage。

Google宣称他们位于加州的数据中心在能源利用效率(PUE)上再创新高。若遵循以下指导方针,你同样可以实现更高效的能源利用,一名Google官员这样说道。

Chris Malone是Google的热能技术建筑师,他详细阐述了这个互联网搜索巨人是如何在它的10座数据中心里达到1.16的PUE值。

PUE指标由Green Grid(绿色网格)设计,其计算方式为:PUE = 数据中心总设备能耗/IT设备能耗。

PUE的目标是让计算结果尽可能的接近1.0。根据Uptime Institute最近的一份调查,数据中心维护人员与所有者反馈的平均数值为1.8,意味着IT设备每消耗1瓦特能源,将额外花费0.8瓦特用于能源转换、制冷与其他开销。

通常能耗问题源

降低数据中心PUE数值最简单的方法就是关注冷却,Malone说。

“优先考虑冷却问题。”Malone说,“因为这方面通常都有极大的改善余地。”在一个典型的PUE值为2.0的数据中心内,IT设备消耗50%的能源,而冷却设备消耗大约35%左右负载。与之相比,Google PUE值为1.16的数据中心内,设备消耗86%的能源,而冷却仅为9%。

数据中心专家可以通过调整空气流(将冷热气流分离),提高数据中心运行环境温度,使用省煤器与外部空气优化冷却效率,Malone说。

智能电源与备份策略同样可以提高能源利用率。在电源前端,Malone主张尽量减少转换次数。

“理想情况下最好只进行一次转换,”他说。数据中心应该使用最一流的UPS产品。“若选择最先进的商业产品并遵照其最佳实践,将可以减少约0.24的PUE开销。”

即使是微小的变更也能对PUE产生很大影响,Malone说。Google在一个250,000kW的网络设备机房上投资了约20,000美元,该机房之前的PUE为2.2至2.5,现在已经降为1.6。他们采用的技术包括了改善穿孔瓷砖布局,关闭过度冷却至80.6°F(26.9℃),提升相对湿度并减少冷热通道混合。Google不到一年就赚回了相关成本,既没有影响冷通道抑制,也没影响免费冷却,甚至不会对冗余与正常运行时间造成影响。

改善数据中心能耗可行的举措

出席展会的数据中心运维人员也表示Google提供了可靠的建议。

“很显然,我们可以完成此类的变更,”Juan Murguia说,他是墨西哥CEMEX的数据中心经理。诸如存储热空气,并在机房空调设备(CRAC)上增加烟囱这样的简单解决方案“确实有效”,而且“进行这些改进并不会产生多少费用”。

Steve Press是Kaiser Permanente某数据中心设施服务的执行董事,亦对此表示赞同。在大型数据中心中调节冷却效率可以帮助将PUE从1.67降低至1.45,要感谢像Google这样的公司,因为他们,降低PUE变得更容易了。“像Google这样的企业已经给我们做了榜样,可以放心尝试与购买相关的冷却技术了。”他说。

可是数据中心运维人员依旧需要进行大量的工作,才可逐渐达到理想的PUE。根据报告,数据中心的PUE平均值为1.8,只有大约18%的受访者表示达到了Google“轻松目标”的PUE值1.6,而且有21%的受访者表示当前PUE值在2.0,甚至更高。

关键字:数据中心Google

本文摘自:TechTarget中国

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^