数据中心能效测量标准的圣器是能源利用率比率(简称PUI),较低的比率说明利用率更好,1.0是能源利用率的理想目标。2.0比率的常见价值含义意味着数据中心一台服务器测试时原来消耗的2瓦能源下降到了1瓦——损失就是能源被转化为了热量,继而需要能源通过传统的数据中心制冷系统来祛除这些热量。
1、调高数据中心的温度
2、关闭没有使用的服务器
3、使用免费的外部空气进行制冷
4、使用数据中心热量来为办公区域制热
5、使用固态硬盘来运行高度活动状态的只读数据集
6、使用数据中心里的直流电
7、将热量导入地下
8、通过管道将热量排放到海中
基本的节能方法之一:调高数据中心的温度
调高数据中心温度调节装置的温度。通常数据中心的温度会设定为68华氏度或者更低,这种温度从逻辑上能延长设备的寿命并让用户在制冷设备发生故障时有更多的时间做出反馈。
经验显示服务器硬件发生故障时,特别是硬盘故障时,确实会增加系统操作的温度。但是在最近今年里,IT经济穿越了一个重要的临界点:服务器运行成本目前一般都超过了采购成本。这可能会让保留硬件还不如削减运营成本更来得实际。
基本的节能方法之二:关闭没有使用的服务器
虚拟化技术显示出整合未经使用的处理器,硬盘和内存后所获得节能优势。因此为什么不关闭整个服务器呢?这会提高与他们所消耗的能源成本相匹配的“企业灵活度”吗?如果你能发现服务器被关闭的实例,你就能实现这些服务器能耗的最小化,为零。但是你必须首先将反对者的意见考虑在内。
首先,大家通常认为由于压力都堆积在主板适配器之类的非域交换组件上,所以能量循环降低了服务器的寿命期望值。进而得出这样一个结论:在现实应用中,服务器是从日常通过频繁发生的能量循环(比如汽车和医疗设备)的那些设备中使用的同样组件来构建的。没有证据现实任何降低的MTBF(即平均故障间隔时间)作为能量循环服务器所能承受的一个结果。
第二个异议是服务器花费了太长的时间来启动。不过你通常可以通过关闭不必要的导入时间诊断工具来加快服务器启动的速度,从已经在运行的快照映像中直接导入和采用某些硬件中提供的热启动功能。
第三个异议是:如果我们必须重新启动一台服务器来适应强化负载,那么不管导入的速度有多快都是用户所不能等待的。不过大部分应用软件体系架构对于新用户来说都是陌生的,因为简化流程需求要更加缓慢,因此用户不知道他们正在等待服务器启动。应用软件确实达到了使用人数的局限,如果用户知道“我们启动更多的服务器来加快需求的响应”他们也许会愿意这么做。