《企业网D1Net》10月29日讯
对于拒绝云服务外包的公司来说,数据中心设计和运营工作的展开将变得十分困难,尤其是面对与日俱增的预算压力和需求,还有有限的资源,如地面空间。主机托管供应商也面临着同样的挑战——最大限度地提高客户的服务价值以及回报。数据中心设计中的一个重要趋势就是提高功率密度。由于空间限制,需要更高效的运作,以应对上升的电力需求和成本,因此,每个机架上投入更多资源是一个显而易见的解决方案。不过虽然该方案带来诸多益处,数据中心运营者也必须解决随之而来的一系列挑战。
提高功率密度的趋势
低功率密度往往等同于效率低下。较少的IT资源却占据了大多数的空间(按每秒钟运作的数量算,或类似的计算标准),通常,应该为更多的设备保留空间。总部位于Santa Clara的高密度主机托管服务供应商Colovore的CFO及联合创始人Ben Coughlin指出,“虽然15至20千瓦的耗电量在处理密集型应用程序(如大数据分析)中比较常见,但典型的数据中心每个机架的耗电量为8至12千瓦。在海湾及美国大部分地区,数据中心每个机架的耗电量为4至5千瓦(这是10年前制定的标准)。”
在主机托管空间中,只支持低功率密度机架的空间价格较高,全租用机架空间会因为没有足够的电力支持,而无法使用。尽管机架上已放满设备,但无法配合相应电力需求。“基于现有的服务器基础设施,用户很容易给每个机架分配8至10千瓦的耗电量,但由于大部分数据中心仅支持4至5千瓦耗电量,所以用户不得不将设备转移到半满机架上。另外,这些机架也无法进行冷却。而用户为一半的使用空间却支付了全额费用,这是一种浪费。”
无论是公共设施还是备用电源供电,功率密度的限制之一是配电基础设施。公用设备供应的每一瓦特电力,数据中心都必须有足够的不间断电源以及柴油发电机容量,以保证在停电时数据中心正常运作。当然,这些都不包括布线、配电单元(PDU)等专为机架供电的设备。Coughlin还表示,“大多数数据中心都没有足够的电力供应其设备运作,所以运营者可能依靠公用设施供电,并花费巨额资金用于数据中心的核心基础设施(电气和机械基础设施,发电机,配电等),只为配合供电量。因此,获得更多电力和成本是两个重要的变量。”
但是另一个更迫切的需求也许是制冷:设备消耗的每一瓦特就是一瓦特余热,必须进行冷却以维持操作所需的温度。这也就是提高功率密度面临的最大挑战,特别是对无法承受高密度功率的设备而言。“当您增加机架密度时,服务器产生大量的热量,也就需要更多的冷气,”Coughlin说道,“制冷基础设施非常昂贵,但最大的困难可能是改造旧数据中心。这些旧数据中心的天花板大多很低,很难提高密度,除非直接拆毁整个数据中心——这根本不可能做到,尤其是还有用户在场的情况下。”
不幸的是,对于拥有传统数据中心的企业而言,除了等待摩尔定律发生,改善半导体性能,否则,更高密度的改造支出就意味着该设施已经基本没有扩大计算能力的可能性。但要提升半导体性能,就必须购买新的IT设备,利用其更高效更精细的处理技术,但是不断发展的摩尔定律却可能在10年后就会停止。Coughlin指出,在这种情况下,“主机托管供应商仅仅是停止‘分散负载’,或迫使用户将自己的基础设施摆满所有的半满机架。这并不是个可持续的方式,最终,空间、电力、制冷三者全都耗费完后,用户只能重新更新服务器了。”
集成基础设施提高功率密度
提高功率密度的办法可以概括为集成基础设施:基本上来说,就是尽可能地缩小计算资源的体积,例如虚拟化和使用刀片服务器,还有微服务器等现有的数据中心发展趋势。集成设施“对企业提高运营效率有非常积极的作用,”Coughlin说,“因为IT部署的设备尺寸越小,IT经理需要管理的机架也就越少,可以减少服务器30至50%的电力消耗。”
这种方法旨在通过增加机架功率降低数据中心总功率,也降低了制冷需求。“事实上,按照一台服务器来算,电力需求是大大增加了,但总体而言,总功率下降了,因为不需要那么多的服务器。这也是高功率密度数据中心如此重要的原因——是集成基础设施的关键所在。当今的服务器在每个机架上的功率为500至1000瓦!”
高功率密度=制冷问题
理所当然地,高功率密度的结果就是高效运营,所有人都会尽可能的填满机架来节省开支、地面空间和减少管理问题。但就像事情有得必有失:在这种情况下,就是上述提高制冷问题。低密度空间部署通常是用空气冷却设备,在大部分地区,一年当中只有一部分时间有免费制冷的可能性(取决于设备操作所需的条件)。但当功率密度上升后,空气制冷费用的昂贵令人望而却步——如果提高功率密度可行的话。
发热问题的解决方案是更接近于单点输送而并非平均分布,也就是将冷气直接输送到热量来源:无论是机架、服务器还是处理器。“服务器的芯片处理能力似乎在持续增长,但在某些时候,如果热量过多时,芯片需要内部冷却或立即转移到有冷却系统的服务器附近。”空气制冷可能可以满足某些需求,但水(或其他液体)提供更强大制冷能力——当然,代价就是执行困难,例如需要用来输送冷水的基础设施以及需要将水与电子设备完全隔离。
部署液体制冷方案可能会产生问题,尤其是对于年代久远的数据中心,必须改造现有的基础设施。而对于那些支持高功率密度的新设施而言,液体制冷能让水流向需要冷却的位置,比起冷却整个机房,从而使服务器周围的空间温度够低要好多了。如冷热通道这样的做法能为空气制冷腾出一些空间,但有很大的局限性。最终,功率密度还是会提高,发展浸入式制冷技术是必须的。目前,有些公司的产品里能将将服务器浸没到不导电的液体中,或将液体输送到服务器外壳周围。
提高功率密度带来的回报
对用户而言——无论他们是主机托管服务用户,又或者是由企业运营数据中心——高功率密度为用户带来重要而丰厚的回报。援引主机托管用户的说法,Coughlin表示,“当一家企业能够将其IT设施整合到虚拟化刀片服务器上,如果以每机架耗电量为4至5千瓦来计算,就可以立即节省20%至30%的运营成本。这很可能是由于减少了每月用于收纳服务器的机架租用费(是继电费后,托管用户支出最多的项目),还有降低了交叉互连成本和柜顶的交换机的使用。”对于主机托管用户和数据中心运营者来说,意味着能够进一步扩大现有的机架空间,并且为建立新的数据中心省去了麻烦和开支,带来的回报远超直接可衡量的成本节约。
不论是自己保管IT设备还是采用托管服务的公司,就像能源价格和IT服务的需求在增长那样,对提高效率和节省地面、机架空间的需求也在不断增长。这就是提高功率密度的趋势,同样也是挑战:在机架内放入更多设备需要建立配电和备用基础设施,以及制冷能力,以保持操作温度可控性。虽然使用液体制冷在数据中心中还不是一个普遍的趋势,但会随着高功率密度流行起来,因为空气制冷变得既不实用又昂贵。然而, 不论从空气制冷转变到液体制冷的时间有多长,只要企业希望最大限度地利用自己的资源,就会持续提高功率密度。