保持最佳工作温度对许多数据中心来说是一个挑战,当数据中心没有得到正确冷却时,IT设备可能会过热,过热可能会降低服务器性能或损坏硬件,因此,管理空气流量对性能,成本和能源效率有重大影响。企业都非常重视数据中心冷却失效后的温升问题,保障数据中心的在线运营是一项很大的成本支出,并且绝不允许无计划的停电,更不允许出现单点故障,下面看看数据中心机房几种冷却方式,以及冷却失效对机房温升有多大影响!
为维持恒定的室内温度需要全年为之降温,由此带来了巨额的耗电量和电费,在节能减排和降低运营成本的双重压力,迫使人们不断地研发新的节能技术和产品,通过提高运行温度,利用环境空气和针对性的空气进行冷却,而不再是将整个数据中心降到不必要的低温,最终实现节省能源的目的。
数据中心机房几种冷却方式
1、免费冷却
更高的运行温度通常也会让免费冷却系统一起受益。在ASHRAE 90.1-2010指导文件中,免费冷却几乎是一项节约能源的强制要求,必将被普遍运用。节能改造的资本投入会部分地抵消运营成本节约的好处。但在改造或升级的同时实现免费冷却也是技术和投资上的挑战。预计未来两年内将出现新的标准,使免费冷却更具可行性。靠近水源的免费冷却将可能会更具优势,但我们将会看到更多类似日本Kyoto Wheel的空气冷却案例。最终,数据中心运营商将能够在超出以前预计的更多气候条件下采用免费冷却措施,这部分是因为更高运行温度的贡献。
2、密封冷却
密封措施也无法解决由于错误的冷却规划、空气流动不充分或冷却能力引起的过热问题。最新的国家防火协会商业标准(NFPA-75)可能会使密封冷却的方案更难实现。对喷淋和(或)气体灭火系统的改造将大大增加成本。除了要尽力避免错误的实施外,日常优化也很重要:在未使用的机架空间一定要安装盲板,架空地板上的孔洞要及时封堵,地板下面影响通风的线缆也要做好清理。
3、后门冷却器
被人们接受的程度也非常高,部分也是因为水冷方式重新受到关注。如果将巨大的机房空调系统取消,改用贴近设备的新型冷却方式的话,相信数据中心行业会运行得比现在更好。教育背景和希望与众不同的个人意愿或许会促生新案例,但成本和电源可用性的矛盾将决定最终结果。
4、蒸发或绝热冷却
虽然使用蒸发方式制冷的科学原理简单,并正在逐渐流行,但它对于大多数数据中心操作人员而言仍然显得新奇。绝热冷却通过降低封闭环境中的某种物质运行的压力来实现冷却,让这些物质沸腾如同岩浆涌上火山表面,同时用风带走山峰上的高温。绝热冷却在温暖、干燥的气候中仍然有效,这大大拓宽了一年中能够“免费冷却”的有效期。其主要的缺点是用水量有些多,但在同等冷却量的情况下,它所需的冷却水仍然比标准冷却塔要少很多。
5、紧耦合或热源冷却
紧耦合冷却方式通过贴近热源来实现更有效的运作。这不算什么新东西——问问老的大型机操作员或任何笔记本电脑设计人员就知道了。虽然紧耦合冷却在数据中心里面还是“主流”,但是更新的方法在满足能源效率的需求方面往往做得更好,并获取更多关注。它的工作方式很简单:消耗能源来将大量的空气吹入地板下的空间或者导风管,然后又将这些空气拉回至空调。
更有前途的技术包括浸入式冷却:将服务器整个浸泡在矿物油里,以便使用最少的能耗获得极高的冷却效率。但是技术人员需要对内外布满了石油的服务器进行处理时,心里会怎么想?显然这种冷却方式并不是适合所有场景。
6、更高的运行温度
美国供暖、制冷和空调工程师协会(ASHRAE)在2008年就第一次发表了关于较高温度数据中心的建议,但并未引起注意。服务器不需要冷藏。即使入口空气温度达到华氏75到80°F(摄氏25至27°C),这些设备仍然能维持良好运作。服务器制造商实际上已经扩展了产品的运行温度范围,而且旧设备其实也和新设备一样能够在扩展的温度区间内运行。提高运行温度可以大幅度节省能源消耗,但人们首先需要认可这种处理方式,然后同意让热通道变得更热——想像一下100°F (38°C)的温度怎样?这会刺激后门冷却器的应用和普及。
7、烟囱式机柜和天花板风道
使用天花板上方的空间形成的风道将空气传输给机房空调系统,确保回风以最高的温度返回空调冷却盘管,可以显著增加精密空调系统的冷却能力。结合了吊顶风道和热通道措施的最终设备形式就是烟囱式机柜,可以获得最大的冷却效率。来自服务器群的高温废气从机柜后部的烟囱排出,然后直接通过吊顶天花板上方的风道回到空调设备中。整个过程中热空气和冷空气保持分离,所以可以保持很高的能效比。
虽然效果明显,但是烟囱式机柜并没有获得大力推广或被广泛接受。这可能是因为全密封式的设计灵活性更好,可以使用更多的机柜实现相同的效果。然而,烟囱式机柜可以让整个房间维持冷通道温度,让工作环境变得更加舒适。
直接、间接自然冷却
数据中心利用自然冷源进行制冷的解决方案主要有间接自然冷却和直接自然冷却两种方式。机房空调一年四季都需要制冷,过渡季节室外温度低于室内温度时,自然界存在着丰富的冷源,如何利用大自然的冷源进行冷却是机房空调节能减排的重点问题。
1、直接自然冷却
(1)全新风自然冷却
直接引入室外新风、配合冷热通道隔离实现机房制冷,针对不同地区的气候条件,新风进入机房前需要经过过滤、加湿、除湿、送回风混合等预处理。
(2)鸡舍式热压自然循环风冷却
不需要机械帮助,直接靠服务器散发的热能产生动力自然散热。把服务器散发的热量收集起来,利用空气膨胀后产生向上的动力,通过足够高的烟囱让热空气往上升带动空气流动,完成散热循环。
(3)转轮式热交换自然冷却
利用转轮内填料的储能功能,让转轮在两个封闭的风道内缓慢旋转,被室外空气冷却的填料冷却室内空气。
2、间接自然冷却
(1)带自然冷却节能模块的风冷式冷水机组
春秋过渡季节和晚上,当环境温度达到比冷冻水回水温度低两度或以上时,开启自然冷却模块制冷,无压缩机功耗,自然冷却不够的部分,再由压缩制冷接力达到需求冷量。随着室外环境温度降低,自然冷却部分占的比例越来越大,直至达到100%,完全自然冷却制冷,无压缩机功耗。
(2)水侧板换节能装置
由大型冷却塔、水冷型冷水机组、板式换热器组成,夏季采用冷水机组和冷却塔制冷,冬季采用板换将有杂质的冷却水转变为干净的冷冻水送入空调室内机,冷水机组停机。
(3)双盘管乙二醇自然冷却
在直膨蒸发器盘管上,再并一组冷冻水经济盘管,通过两套两通阀来调节水是经过板式热交换器的冷凝器还是经过冷冻水盘管。室外干冷器夏季提供冷却水给板换用于直膨制冷,冬季提供冷冻水给经济盘管用于冷冻水制冷。
(4)氟泵自然冷却
在夏季,制冷压缩机运行;当室外温度低于设定点时,自动切换为氟泵节能系统运行,停止压缩机运行,保证全年机房空调安全可靠运行。氟泵不高于压缩机运行功耗的10%,相对于水系统空调,无需添加防冻剂,无水患忧虑。
(5)辅助蒸发自然冷却
空调室外机雾化水喷淋系统将软化水进行增压后通过高速直流马达进行雾化处理,将每一滴水雾化成原水滴的体积1/500左右直接喷洒在冷凝器翅片上实现辅助蒸发,使得冷凝器的整体散热量增大、功耗降低。这种通过室外机雾化喷淋延长自然冷却运行时间的方式,在干燥气候下最为有效,如中国西部和东北部。
综上,对常见的几种自然冷却制冷方式进行综合比较:
数据中心冷却失效对机房温升有多大影响?
通过各自的实验研究得出了一些关于冷却失效引起的数据中心的温升曲线和基本结论,对数据中心冷却系统的不同架构进行了研究,对于开放式的冷却系统架构给出了不同功率密度下冷却失效后服务器机柜平均进风温度的变化曲线,如下图所示,可以看出:在不同的功率密度下,服务器机柜平均进风温度的温升速度不同;功率密度越大,服务器机柜平均进风温度升高得越快。因此,对于高热密度的数据中心,有必要设计蓄冷罐来保障冷却连续性。
对不同功率密度下数据中心冷却失效后的温升情况进行了研究,结果见下图冷却失效时间在180 s内,因此曲线比较平缓,并且不同曲线的基准温度不同。
通过研究数据中心冷却失效引起的机房温升问题,UI提出了冷却连续性的概念,并将数据中心冷却系统的可用性提到与供电可用性同样的高度,将数据中心的不间断供冷分为A,B,C 3个级别,并分别与高热密度、中热密度和低热密度3种功率密度的数据中心应用场景相对应。
不同功率密度下数据中心冷却失效引起的温升与时间的关系,结果见表1(基准温度为20 ℃)。随着单机柜功率密度的增大,冷却失效引起的温升速率逐渐增大。对于功率密度为5 kW/机柜的数据中心,冷却失效引起10 ℃温升需要50 s。
温升速率(y)和功率密度(x)大致合理的最佳拟合关系式为y=0.002 4x2+0.027 5x+0.000 3:
将拟合关系式改写成y=0.1x×0.024x+0.027 5x+0.000 3,并对拟合关系式的多项式系数进行主因子分析,可以发现:当功率密度(x)等于10 kW/机柜时,二次项因子为0.1×10×0.024×10=0.24,小于一次项因子0.027 5×10=0.275。当功率密度(x)小于10 kW/机柜时,一次项系数为主因子,并决定整个多项式的值,因此可简化为一次多项式,即在功率密度小于10 kW/机柜时,温升速率(y)与功率密度(x)更接近线性关系:y=0.050 1x-0.032 5(如图5所示)。比较图4和图5拟合曲线的残差R2也容易看出,当功率密度(x)小于10 kW/机柜时,在现有试验数据条件下用线性关系式表达拟合关系更准确。
当功率密度(x)大于10 kW/机柜时,由于二次项系数为主因子,并决定整个多项式的值,因此温升速率(y)与功率密度(x)更接近二次多项式关系:y=0.002 4x2+0.027 5x+0.000 3。根据多项式拟合关系式进行拟合数据外推,可以导出10~30 kW/机柜功率密度范围内的温升速率。
研究结论各不相同,这是合理的也是正常的。首先,各自的测试环境和工况不同;其次,影响温升的因素很多,比如功率密度、冷却系统架构、机柜数量、机柜布局、机房层高、架高地板高度、甚至机柜材质都会影响数据中心冷却失效后的温升。因此,不同数据中心冷却失效后的温升情况不一样,不能一概而论。
当前,国内研究数据中心冷却失效引起的温升的有效手段之一是建模仿真分析。笔者建立了数据中心的传热模型,应用数据中心专用仿真软件对数据中心冷却失效的温升进行计算分析。
传热模型描述
简化的数据中心传热模型下图所示,以数据机房作为一个封闭的传热系统,作如下假设:
(1)数据中心冷却系统失效,但服务器因有UPS供电而继续运行并持续发热。
(2)数据机房是一个封闭系统,只存在传热,不存在传质。
(3)服务器运行产生的热量通过以下几个途径散失:①热量被机房内的空气吸收;②通过机柜向空气传热;③通过建筑围护结构向室外环境散热;④通过架高地板向地板下环境散热;⑤通过楼板向邻近楼层传热。
(4)数据中心的冷热空气充分混合。
(5)机柜前门和后门通孔率为100%,即认为机柜没有前后门。
(6)传热过程为一维稳态传热过程。
仿真建模分析
采用软件建立一个数据中心的简单物理模型,进行CFD建模分析,3D物理模型如图所示,模型的相关参数见下图:
通过对一个功率密度为4 kW/机柜的数据中心进行冷却失效建模计算,应用软件可以快捷地给出不同时刻数据中心的温度分布云图,如图所示:
对所建模型中的一个服务器机柜的平均进风温度进行分析,当冷却失效后该服务器机柜的平均进风温度曲线,可以看出,在服务器机柜的平均进风温度达到80 ℃以前,其温度近似随时间线性升高,这说明:在一定的功率密度下(本模型为4 kW/机柜),服务器机柜的温升速率为恒定值。这个结论与前文推导出的温升同,物理参数的不同会影响冷却失效后的温升速度,但总体趋势是呈线性变化。