数据中心面临的长久困扰之一,就是冷却数据中心的大量设备。多年来,通用服务器的功耗和发热都有了显著的降低。过去2U服务器配有3.5英寸硬盘,只能运行一个服务器实例,现在,两个具备2.5寸硬盘的1U服务器可以运行大约30个服务器实例。
不过,逻辑服务器实例的数量却在增加。将五年前的数据中心和现在同样的基础设施做对比,照理来说物理服务器的数量应该减少了,但事实并不是如此。
与此同时,电力和冷却成本一直在上升。功耗是依然是困扰数据中心预算的来源之一。在康柏的工程实验室工作的那段时间里,数据中心大小的实验室每月电费达到上千美元,这还是很久以前的数字。
数据中心的电力消耗来自两个主要来源,一是硬件(服务器、存储和网络),二是冷却系统。设备越大越热,就需要更多的电力将其冷却,以排出热空气,保持适当的湿度。有许多散热和保持合理进气温度的方法。水冷式机架和行级冷却机组在服务器进气口——最需要进行冷却的地方,提供冷气。
然而,这些方法并不能通用。一般情况下,需要建造精密设计的冷热通道,虽然这一做法能降低总体的电费及散热费,但最初实行时可能会耗费更多成本。令人惊讶的是,在规模较小的建筑里这类设计也十分有效,冷却8个机架只需2个单元。
这些单元可以是安装在天花板上的冰水机组,或像普通的空调那样,使用压力通风来排气和进气。一般来说,水冷式机组是比较适合长期投资的项目。建筑施工的考量和潜在的通风障碍会使空调的运行变得困难。实现的效果取决于您的机架密度和现有设备的情况,但行级制冷是数据中心必不可少的组成部分。
当然,我们还在房间的墙面及天花板上装有大量的空调机组,通过专用管道或活动地板不间断地排出20摄氏度的空气,同时吸入房间内的热气。这是传统的做法。然而,现今面临的最大问题可能并不是使用哪种冷却系统,而是数据中心应保持在何种温度。
我们一直是在20度环境下的数据中心工作的。外面可能是38度,但您还是要穿毛衣或大衣进行服务器维护。毕竟,服务器过热会导致运行故障的发生。而现在,数据中心可能不必保持在20度了。如果您了解一些服务器和网络设备的建议运行温度,就会发现这些设备应该在32至35度以下的环境运行,这远远高于20度。
但这么做也会存在一定的问题。如果我们在20度的环境下运行这些设备,同时冷却系统故障导致温度升高,那么相比在29度环境下运行,前者达到临界水平的时间更长。在较大的房间内,大规模的冷却故障会使整个房间在几分钟内就达到临界温度。一旦到了临界水平,冷却系统需要花更长时间将房间冷却到正常的运行温度。这种情况真是糟透了,应不惜一切代价避免。
并不是说应该调高室内温度或忽略过热的服务器,但事实的真相是现代服务器在26度左右的环境或进气温度下能更好的工作,当然,这取决于冷却覆盖率和冗余度。您可以先了解一下您数据中心中硬件的可运行温度,然后再调高室内温度,特别是在外界天气十分恶劣的情况下。