当前位置:数据中心行业动态 → 正文

科技创新助力打造新一代绿色数据中心

责任编辑:editor005 作者:龙旭东 |来源:企业网D1Net  2014-12-31 23:05:30 本文摘自:比特网

绿色节能对于数据中心而言已经不是一个锦上添花的议题,而是一个必须做好的课题,因为能源成本的占比正在不断攀升。根据美国环境保护署EPA的报告,在数据中心的运维成本之中,场地基础设施的运维成本于2004年开始超越服务器的购买和运维成本,能源成本则于2008年开始超越服务器的购买和运维成本。对于企业自用的数据中心而言,绿色节能意味着大量成本的节省(视规模的不同,大型数据中心的整体PUE值每下降0.1意味着每年电费可以降低数十万元到上千万元人民币);而对向外出租运营的数据中心而言,绿色节能则直接关系到自己的市场竞争力和盈利水平。

数据中心的绿色节能从何入手呢?答案是越早越节能!越早期做出的策略性规划越能够更大幅度地节能。下面我们就来重点讨论前三个阶段——IT策略(ITStrategy)、数据中心策略(Data CenterStrategy)、数据中心设备和系统设计(IT Equipment, Power,Cooling)——中的各种策略规划和节能技术在绿色数据中心上的应用。

IT策略(ITStrategy)

IT策略对能耗的影响是一个很大的话题,这里我们重点关注IT治理模式、应用部署、数据中心整合和应用软件的优化:

IT治理模式

统一的IT治理模式更加节能。一个企业总有其从小到大的发展历程,在规模较小的时候,分散的IT治理模式是最天然的选择,也最能够快速有效地响应业务的需求。等到企业发展到一定的规模之后就会发现其诸多弊端,其中与能耗相关的是数量众多、运维水平低下的小型数据中心,这些数据中心因为规模小,适用的设计技术受到限制(如采用高能耗的风冷而不是更节能的水冷、处于办公环境只能与办公大楼共用空调系统等),管理水平也难以有效提升,导致数据中心整体能耗高居不下。另外,分散的IT治理模式还会导致IT部署和采购模式的不一致,体现在数据中心里规格型号多样的IT设备,这些设备有着不同的功率密度,会导致这些设备在数据中心中的部署密度偏低,其总体拥有成本(TCO)会高于高密度的部署。目前中国互联网行业的几大巨头都采用统一的IT设备采购模式,IT设备标准化工作做得很好,因而他们的数据中心能够采用更高的部署密度(一般在7KW/机柜或更高),节能效果也走在了其他行业之前。

应用部署

整合应用,并采用虚拟化和云计算的方式进行部署更加节能。业界研究表明,在业务处理量一定的前提下,采用少量的高性能设备(高负载)进行业务处理,会比采用数量众多的低性能设备(低负载)大幅度节能。目前业界已经有诸多实践的虚拟化和云计算的部署方式就能够享受到节能的好处,节能的幅度因场景而不同,常见的节能幅度一般会超过20%。并非所有的应用都能够有效地运行在一台物理机器上,对某些应用需要事先进行改造才能够做应用整合。

数据中心整合

整合的数据中心部署更加节能。前面提到,分散的IT治理模式会导致数量众多的高能耗小型数据中心,在进行有效地IT架构变革之后,业界的实践一般采用数据中心整合的方式,将多个小数据中心集中起来,常见的数据中心整体部署模式有两地三中心、两地两中心等。集中后的数据中心有规模效应,能够采用更节能的技术进行设计,能够组建成规模的、更专业的运维团队,进而大幅度降低数据中心整体能耗,更能降低IT的总体拥有成本(TCO)。

应用软件的优化

劣质应用软件对能源的消耗异常惊人。中国惠普公司在成立后的近30年中,经历过诸多行业的大集中项目及其配套的应用升级、改造、优化工作,在最显著的一个案例之中,优化前后应用软件的性能竟然相差百倍,大家可以想象优化前后系统能耗上的差异。

优化应用软件性能是建设数据中心绿色的源头,它能带来的好处包括更小规模的硬件数量和更短的系统峰值时间,进而带来更低的能耗。

HP公司自己的IT变革案例很好地体现了上述关注点,HP将遍布全球的85个数据中心整合为6个全球性数据中心,大幅度降低了IT的总体拥有成本,HP全球数据中心整合后获得的收益数据如下。

数据中心策略(Data Center Strategy)

在数据中心策略层面,下列因素与数据中心能耗密切相关:

首先,选址。只要有可能,尽量将数据中心选择在低温干燥的地理区域,这样会让数据中心的设计人员有更大的节能设计余地。

其次,数据中心等级建设。HP数据中心服务部做过评估,对于一个IT运维能力和场地设施运维能力都很强的成熟客户,在特定应用场景下,建设两个Tier2等级的数据中心比建设一个Tier4的数据中有着更高的综合可靠性和相似甚至略低的建设成本。随着更多软件冗余技术(如云计算、虚拟化)的成熟和应用,人们开始重新评估场地设施的级别,低级别的数据中心因系统冗余少,有着更高的系统利用率,也意味着更低的能耗。实际的案例包括,原来主流数据中心采用T3/T4级别的eBay和Yahoo,已经把大部分应用部署在Tier1甚至更低等级的数据中心,只有核心数据库和核心网络继续留在高级别数据中心里。

第三,分期规划。数据中心的建筑属于不动产之列,一旦建成难于扩展,因此现代的数据中心需要做好规模规划,一般企业数据中心会预留10年以上的发展规模。这意味着机电系统需要进行分期建设,找到一个合适的容量进行机电设备的实施,使得IT设备在合理的时间内达到较高的负载进而提升机电系统的利用率,达到节能的目的。需要注意的是,数据中心机电系统的实施也属于“动土”范畴,分期建设的规划还是需要考虑适当的稳定运行期,不要“不间断地动土”,需要为分期规模找到平衡点。

第四,机柜部署密度。前面提到,在业务处理能力一定的情况下,高密度机柜部署会更节能,TCO也更低。高密度部署的前提是IT设备标准化。

在数据中心设备和系统设计层面,下列因素与数据中心能耗密切相关。一个是气流组织。气流组织的好坏会大幅度影响能耗,应当进行机柜的冷热通道隔离,必要时作封闭处理。优良的气流组织设计目前已经落实到大部分新建的数据中心,但一些老旧机房这方面的问题依然严重。另外一个是,高压直流。相比于交流系统,高压直流系统具有能源效率高、能耗低、系统简单、稳定可靠等特点。目前在数据中心行业的实践当中,高压直流的应用主要在于电气系统的末端(接入服务器一端)。高压直流系统目前处于大规模应用的前期阶段,其设备对比直流系统也暂时不具备成本优势。或许高压直流系统最大的好处在于系统的简单和稳定,以往交流数据中心的设备故障之中UPS和电池的故障高居榜首,直流系统则可以让你大幅度减少这些烦恼。至于高压直流的具体节能数据,不同的厂商尚有分歧。下图是HP公司内部的一个工作小组联合业界部分电气系统厂商做的一次评测结果,其数据不一定具有普遍适用性,仅供参考。注意其中仅在末端系统(Rack-level)采用高压直流和整个场地全部电气系统(Facility-level)都采用高压直流的大幅能耗差异。

值得一提的是,HP公司已经于2014年正式推出直流服务器,到2014年底,直流IT设备将覆盖主要高低端的服务器、存储和网络设备。主流IT设备厂商也有类似的直流产品计划。

还有空调系统技术,采用先进的空调系统技术进行数据中心的设计是数据中心场地基础设施节能的核心。在较高的服务器进风温度前提下(在ASHRAE建议的服务器进风温度上限27℃,现代服务器都能够保持良好的运行状态),对于新建的大中型数据中心,我们推荐前端采用高温冷冻水系统,使得冷冻水送回水温度得以较传统设计大幅度提高,达到17到23℃,这样使得可使用自然冷却的时间大为延长,也使得这一方案能够适用于我国绝大多数地理区域。

对于末端系统而言,如下图所示,越接近热源的末端空调方式是越节能的方式。我们推荐末端系统采用接近机柜的水冷技术(审慎的行业和单位慎用),目前可落地的方案包括水冷背板方案(RDHX)和顶置式对流制冷方案(OCC),由于OCC方案具有更少的物理接头(意味着更高的可靠性)、更低的造价、更好的冗余部署方式(N+1,2N等),我们认为OCC是更好的方案。

控制系统也很重要。数据中心的控制系统(Building ManagementSystem,BMS,也称为“楼控系统”),是数据中心利用自然冷却节能的重要部分,BMS是空调系统进行自动加机减机、平稳地在各种空调运行模式间切换、实现故障组件的替代的重要系统。BMS系统缺失或手动的BMS系统会导致作为过渡季节的春秋季,空调系统进行部分自然冷却期间,无法有效地加机减机、调整运行工况达到节能目的,其原因是运维人员手工操作太繁琐,干脆让空调系统全负荷运行(对运维人员而言这样也更“安全”),这意味着成百上千小时的部分自然冷却时间被浪费。

就新建数据中心而言,这可能目前国内数据中心与国外相比差距最大的地方。目前国内新建数据中心在控制系统上还是走传统路线,采用楼控厂商的商用或办公楼宇设计方案,存在不少单点故障,控制系统的可用性级别低于数据中心级别,其实这样的数据中心无法获得高级别等级认证。更要命的是,楼控厂商不了解数据中心的工作需求(业主方也不了解),系统都号称可编程,但是因为没有人说得清楚编程需求,于是“可编程”变成了“没编程”,业主最终花了自动系统的钱,得到的是一个手动系统,这样的现象可以说遍地都是。HP公司在数据中心控制系统上有着超强的技术实力和超过30年的经验(来自美国EYP),愿为解决国内数据中心市场上最后的一块大的技术堡垒做出应有的贡献。

综上所述,综合采用了高压直流系统、冷/热通道封闭、高温冷冻水前端、OCC末端、优秀的控制系统之后,HP公司在炎热的印度的一个实际数据中心案例中,全数据中心的综合PUE达到了1.4以下。

关键字:数据中心高压直流ASHRAE

本文摘自:比特网

x 科技创新助力打造新一代绿色数据中心 扫一扫
分享本文到朋友圈
当前位置:数据中心行业动态 → 正文

科技创新助力打造新一代绿色数据中心

责任编辑:editor005 作者:龙旭东 |来源:企业网D1Net  2014-12-31 23:05:30 本文摘自:比特网

绿色节能对于数据中心而言已经不是一个锦上添花的议题,而是一个必须做好的课题,因为能源成本的占比正在不断攀升。根据美国环境保护署EPA的报告,在数据中心的运维成本之中,场地基础设施的运维成本于2004年开始超越服务器的购买和运维成本,能源成本则于2008年开始超越服务器的购买和运维成本。对于企业自用的数据中心而言,绿色节能意味着大量成本的节省(视规模的不同,大型数据中心的整体PUE值每下降0.1意味着每年电费可以降低数十万元到上千万元人民币);而对向外出租运营的数据中心而言,绿色节能则直接关系到自己的市场竞争力和盈利水平。

数据中心的绿色节能从何入手呢?答案是越早越节能!越早期做出的策略性规划越能够更大幅度地节能。下面我们就来重点讨论前三个阶段——IT策略(ITStrategy)、数据中心策略(Data CenterStrategy)、数据中心设备和系统设计(IT Equipment, Power,Cooling)——中的各种策略规划和节能技术在绿色数据中心上的应用。

IT策略(ITStrategy)

IT策略对能耗的影响是一个很大的话题,这里我们重点关注IT治理模式、应用部署、数据中心整合和应用软件的优化:

IT治理模式

统一的IT治理模式更加节能。一个企业总有其从小到大的发展历程,在规模较小的时候,分散的IT治理模式是最天然的选择,也最能够快速有效地响应业务的需求。等到企业发展到一定的规模之后就会发现其诸多弊端,其中与能耗相关的是数量众多、运维水平低下的小型数据中心,这些数据中心因为规模小,适用的设计技术受到限制(如采用高能耗的风冷而不是更节能的水冷、处于办公环境只能与办公大楼共用空调系统等),管理水平也难以有效提升,导致数据中心整体能耗高居不下。另外,分散的IT治理模式还会导致IT部署和采购模式的不一致,体现在数据中心里规格型号多样的IT设备,这些设备有着不同的功率密度,会导致这些设备在数据中心中的部署密度偏低,其总体拥有成本(TCO)会高于高密度的部署。目前中国互联网行业的几大巨头都采用统一的IT设备采购模式,IT设备标准化工作做得很好,因而他们的数据中心能够采用更高的部署密度(一般在7KW/机柜或更高),节能效果也走在了其他行业之前。

应用部署

整合应用,并采用虚拟化和云计算的方式进行部署更加节能。业界研究表明,在业务处理量一定的前提下,采用少量的高性能设备(高负载)进行业务处理,会比采用数量众多的低性能设备(低负载)大幅度节能。目前业界已经有诸多实践的虚拟化和云计算的部署方式就能够享受到节能的好处,节能的幅度因场景而不同,常见的节能幅度一般会超过20%。并非所有的应用都能够有效地运行在一台物理机器上,对某些应用需要事先进行改造才能够做应用整合。

数据中心整合

整合的数据中心部署更加节能。前面提到,分散的IT治理模式会导致数量众多的高能耗小型数据中心,在进行有效地IT架构变革之后,业界的实践一般采用数据中心整合的方式,将多个小数据中心集中起来,常见的数据中心整体部署模式有两地三中心、两地两中心等。集中后的数据中心有规模效应,能够采用更节能的技术进行设计,能够组建成规模的、更专业的运维团队,进而大幅度降低数据中心整体能耗,更能降低IT的总体拥有成本(TCO)。

应用软件的优化

劣质应用软件对能源的消耗异常惊人。中国惠普公司在成立后的近30年中,经历过诸多行业的大集中项目及其配套的应用升级、改造、优化工作,在最显著的一个案例之中,优化前后应用软件的性能竟然相差百倍,大家可以想象优化前后系统能耗上的差异。

优化应用软件性能是建设数据中心绿色的源头,它能带来的好处包括更小规模的硬件数量和更短的系统峰值时间,进而带来更低的能耗。

HP公司自己的IT变革案例很好地体现了上述关注点,HP将遍布全球的85个数据中心整合为6个全球性数据中心,大幅度降低了IT的总体拥有成本,HP全球数据中心整合后获得的收益数据如下。

数据中心策略(Data Center Strategy)

在数据中心策略层面,下列因素与数据中心能耗密切相关:

首先,选址。只要有可能,尽量将数据中心选择在低温干燥的地理区域,这样会让数据中心的设计人员有更大的节能设计余地。

其次,数据中心等级建设。HP数据中心服务部做过评估,对于一个IT运维能力和场地设施运维能力都很强的成熟客户,在特定应用场景下,建设两个Tier2等级的数据中心比建设一个Tier4的数据中有着更高的综合可靠性和相似甚至略低的建设成本。随着更多软件冗余技术(如云计算、虚拟化)的成熟和应用,人们开始重新评估场地设施的级别,低级别的数据中心因系统冗余少,有着更高的系统利用率,也意味着更低的能耗。实际的案例包括,原来主流数据中心采用T3/T4级别的eBay和Yahoo,已经把大部分应用部署在Tier1甚至更低等级的数据中心,只有核心数据库和核心网络继续留在高级别数据中心里。

第三,分期规划。数据中心的建筑属于不动产之列,一旦建成难于扩展,因此现代的数据中心需要做好规模规划,一般企业数据中心会预留10年以上的发展规模。这意味着机电系统需要进行分期建设,找到一个合适的容量进行机电设备的实施,使得IT设备在合理的时间内达到较高的负载进而提升机电系统的利用率,达到节能的目的。需要注意的是,数据中心机电系统的实施也属于“动土”范畴,分期建设的规划还是需要考虑适当的稳定运行期,不要“不间断地动土”,需要为分期规模找到平衡点。

第四,机柜部署密度。前面提到,在业务处理能力一定的情况下,高密度机柜部署会更节能,TCO也更低。高密度部署的前提是IT设备标准化。

在数据中心设备和系统设计层面,下列因素与数据中心能耗密切相关。一个是气流组织。气流组织的好坏会大幅度影响能耗,应当进行机柜的冷热通道隔离,必要时作封闭处理。优良的气流组织设计目前已经落实到大部分新建的数据中心,但一些老旧机房这方面的问题依然严重。另外一个是,高压直流。相比于交流系统,高压直流系统具有能源效率高、能耗低、系统简单、稳定可靠等特点。目前在数据中心行业的实践当中,高压直流的应用主要在于电气系统的末端(接入服务器一端)。高压直流系统目前处于大规模应用的前期阶段,其设备对比直流系统也暂时不具备成本优势。或许高压直流系统最大的好处在于系统的简单和稳定,以往交流数据中心的设备故障之中UPS和电池的故障高居榜首,直流系统则可以让你大幅度减少这些烦恼。至于高压直流的具体节能数据,不同的厂商尚有分歧。下图是HP公司内部的一个工作小组联合业界部分电气系统厂商做的一次评测结果,其数据不一定具有普遍适用性,仅供参考。注意其中仅在末端系统(Rack-level)采用高压直流和整个场地全部电气系统(Facility-level)都采用高压直流的大幅能耗差异。

值得一提的是,HP公司已经于2014年正式推出直流服务器,到2014年底,直流IT设备将覆盖主要高低端的服务器、存储和网络设备。主流IT设备厂商也有类似的直流产品计划。

还有空调系统技术,采用先进的空调系统技术进行数据中心的设计是数据中心场地基础设施节能的核心。在较高的服务器进风温度前提下(在ASHRAE建议的服务器进风温度上限27℃,现代服务器都能够保持良好的运行状态),对于新建的大中型数据中心,我们推荐前端采用高温冷冻水系统,使得冷冻水送回水温度得以较传统设计大幅度提高,达到17到23℃,这样使得可使用自然冷却的时间大为延长,也使得这一方案能够适用于我国绝大多数地理区域。

对于末端系统而言,如下图所示,越接近热源的末端空调方式是越节能的方式。我们推荐末端系统采用接近机柜的水冷技术(审慎的行业和单位慎用),目前可落地的方案包括水冷背板方案(RDHX)和顶置式对流制冷方案(OCC),由于OCC方案具有更少的物理接头(意味着更高的可靠性)、更低的造价、更好的冗余部署方式(N+1,2N等),我们认为OCC是更好的方案。

控制系统也很重要。数据中心的控制系统(Building ManagementSystem,BMS,也称为“楼控系统”),是数据中心利用自然冷却节能的重要部分,BMS是空调系统进行自动加机减机、平稳地在各种空调运行模式间切换、实现故障组件的替代的重要系统。BMS系统缺失或手动的BMS系统会导致作为过渡季节的春秋季,空调系统进行部分自然冷却期间,无法有效地加机减机、调整运行工况达到节能目的,其原因是运维人员手工操作太繁琐,干脆让空调系统全负荷运行(对运维人员而言这样也更“安全”),这意味着成百上千小时的部分自然冷却时间被浪费。

就新建数据中心而言,这可能目前国内数据中心与国外相比差距最大的地方。目前国内新建数据中心在控制系统上还是走传统路线,采用楼控厂商的商用或办公楼宇设计方案,存在不少单点故障,控制系统的可用性级别低于数据中心级别,其实这样的数据中心无法获得高级别等级认证。更要命的是,楼控厂商不了解数据中心的工作需求(业主方也不了解),系统都号称可编程,但是因为没有人说得清楚编程需求,于是“可编程”变成了“没编程”,业主最终花了自动系统的钱,得到的是一个手动系统,这样的现象可以说遍地都是。HP公司在数据中心控制系统上有着超强的技术实力和超过30年的经验(来自美国EYP),愿为解决国内数据中心市场上最后的一块大的技术堡垒做出应有的贡献。

综上所述,综合采用了高压直流系统、冷/热通道封闭、高温冷冻水前端、OCC末端、优秀的控制系统之后,HP公司在炎热的印度的一个实际数据中心案例中,全数据中心的综合PUE达到了1.4以下。

关键字:数据中心高压直流ASHRAE

本文摘自:比特网

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^