大数据持续影响全球的大规模企业和行业用户。它已经改变了金融服务,医疗保健,零售和制造业以及其他业务决策的方式。然而,可能较少检查其对数据中心行业的影响。随着越来越多的数据被创建,存储和分析,将需要更多的服务器。在何处以及如何存储和管理这些服务器以继续保持正常运行,并实现高性能操作是重要的考虑因素。随着大数据业务的增长和更多服务器的需求,物理空间和可用的可靠电力也将增加。
虽然云的发展如火如荼,但我们应该记住云实际上只是其他人的服务器空间,所以需要服从相同的电源和连接需求。因此,无论企业内部,主机托管数据中心还是云中都存在大数据操作,IT运营商必须确保其今天和未来满足其基础架构需求。
以下是运行大数据的一些关键数据中心基础架构注意事项:
1、物理空间
无论服务器在主机托管设施中,还是云中部署,服务器都需要物理空间。随着数据中心越来越接近人口中心,因为空间的稀缺性,它正成为大数据运营和增长的限制因素。
当涉及到增长潜力时,不仅要认识到数据中心提供商的经营稳定性,还要能够获得空间,这样灵活的基础设施才可实现可扩展性和满足部署速度。
2、电力
据悉,如今每天产生2.5万亿字节的数据,全球90%的数据都是在过去两年中创建的。这一速度反映在数据中心的增长中。根据JLL 2017年数据中心展望报告,美国用电量达到了创纪录的357.85兆瓦——JLL称为“全球数据中心使用率仍然猖獗的势头”的延续。除了整体功耗之外,每台服务器的功率密度也在增加。不久前,每机架2kW是典型的;现在,这几乎不可能,每个机架需要30或40kW的密度。
随着企业及其IT基础架构规划的发展,还必须确保你的数据中心可以使用有效电力,因为并非所有电网都可以按需提供MW.数据中心还必须能够冷却高密度机架,这是相对较新的行业要求。如果你的企业重视数据中心的可持续性,另一个重要考虑是确保你的提供商提供先进的冷却技术,以降低功耗和整体碳消耗。
3、正常运行
对大数据运行的期望必须是“永远在线”。当“两分钟太晚”是大数据的工作方式时,基础设施的基本要求是100%的正常运行时间。在数据中心环境中,通过冗余设计都可实现正常运行。发生故障时,发电机和瞬时开关能接替当地基础设施的电力供应。100%正常运行时间是可以实现的,但风险依然存在。虽然额外的冗余可以通过额外的发电机和瞬时开关构建,但这些往往会以高昂的成本留给最终用户。
减少停机风险的新趋势来自使用人工智能(AI)和机器学习,以保持最佳性能的运营。Google在2014年首次利用人工智能追踪变量并计算其数据中心的最高效率。其他大规模数据中心也使用人工智能和机器学习来降低数据中心停机风险。AI融入托管生态系统旨在与现有员工一起工作,将人员和技术相结合。数据中心现在可以利用由数据中心技术人员进行培训的机器学习传感器和人工智能角色来确定可能发生故障的指标。
如果你的企业正在启动或扩展大数据计划,那么保持房地产,电力和正常运行时间的首要考虑是明智的。无论大数据业务是最终在本地,托管数据中心还是云中,灵活性,可扩展性,可持续性和可靠性的基础架构都可确保其成功。