数据中心行业正以超乎你想象的数据方式变得越来越热。电力系统公司日立能源(Hitachi Energy)的中心数据中心战略客户经理戴夫·斯特莱斯(Dave Sterlace)指出:“冷却可能需要高达数据中心总电力负荷的近40% 。”“这为更可持续的技术方法提供了一个很好的目标
。” 大多数数据中心依赖于机械空气冷却
,可持如风扇
、续性制冷系统和除湿机,为目以防止硬件资源过热。数据“从环境 、中心成本和性能的技术角度来看,这是可持不可持续的免费模板,”冷却系统开发商LiquidStack的续性首席执行官乔·凯普斯(Joe Capes)说。 凯普斯指出,为目一个数据中心的数据总耗电量有一半来自空气冷却。“不断上涨的中心能源成本使这种方法越来越昂贵,而当今数据密集型技术所需的技术强大处理器……产生的热量太多,空气冷却无法处理。” 斯特莱斯说
,强制空气在散热方面并不是特别有效 ,而且每个机架的服务器租用功率限制在25千瓦左右。到目前为止,这种方法运行良好,但随着人工智能和其他高性能计算技术的到来,每个机架的设计负载高达75千瓦
,考虑更好的热导体是有意义的。他说:“我们在冷却领域看到的最大进步是采用液体冷却介质 。” 凯普斯预测,液体浸没式冷却,香港云服务器通过浸入导热介质液体来降低硬件热量 ,将在许多数据中心取代空气冷却
。“这将显著减少碳排放和水的使用 ,同时实现数字社会所需的高性能计算
,而且成本更低
。” 液体浸泡并不是唯一的替代冷却选择 。根据数据中心的大小、负载和位置,可选择的冷却方法包括直接蒸发冷却技术和直接对芯片冷却技术。模板下载工程公司Syska Hennessy的副主管肖恩·奥谢(Sean O’shea)说
,这两种技术通常比传统冷却系统产生更低的年化电力使用效率(PUE)。 直接蒸发冷却系统最常用于大型数据中心。奥谢解释说:“他们控制空气供应的温度和湿度,通过使用蒸发垫网和供水系统为IT设备机柜提供服务。” 直接对芯片冷却技术通过附着在芯片顶部的金属板在每个服务器的CPU上吸收热量。奥谢说:“热量通过热材料从芯片转移到平板上
。”水或电介质流体在金属板中循环,吸收芯片的热量 ,并通过冷却塔 、亿华云干式冷却器或其他方式将其喷射到大气中
。“由于这种方法只冷却芯片,剩余的热量需要额外的空气冷却
。” 网络内容软件管理公司Zengenti的主机运营工程师Nic Kilby说
,减少冷却数据中心设备所需的能源是推进环境可持续性的关键 。 Zengenti复杂的web内容管理系统需要存储大量的数据
。Kilby说:“就在最近
,我们在位于英国勒德洛(Ludlow)总部的云计算数据中心开展了一个面向未来的项目 ,以使其在现在和未来都能最高效地运行。”“通过有效地冷却我们的现场数据中心
,到目前为止
,我们已经节省了25%的电力——我们希望随着技术的发展继续改进。” Kilby指出,企业可以通过各种手段达到类似的效果,包括使用高效的冷却系统,实施冷热通道密封,以及利用外部空气进行自然冷却。他解释说:“这一切都是为了找到最适合你的数据中心的方案,同时考虑到位置和温度
。”“我们充分利用了什罗普郡凉爽多风的天气。” Sterlace说 ,这听起来违反直觉 ,但越来越多的数据中心运营商已经认识到 ,简单地提高数据大厅的温度可以在不影响It性能的情况下降低能源使用。 工程公司Black & Veatch负责数据中心和关键任务设施解决方案的副总裁德鲁·s·汤普森(Drew S. Thompson)指出 ,数据中心社区正开始超过美国供暖
、制冷和空调工程师协会(ASHRAE)推荐的工作温度 。 汤普森举例说,Facebook的母公司Meta已经将其入口冷却供应温度提高到95华氏度
。他说:“delta操作温度(冷却供应温度和返回温度之间的差值)越大 ,节省的能源就越多。”汤普森补充说,IT服务器制造商正准备提供耐高温服务器,因为对这类硬件的需求在增加。 在选择有效的数据中心冷却技术时
,没有什么灵丹妙药
。汤普森说:“每个数据中心和客户都是不同的。“此外,通常情况下,当一种冷却技术节省能源时
,它(通常)会使用更多的水,所以真正的可持续性需要考虑所使用的所有资源
。” Thompson说
,当企业设计下一代节能数据中心时
,他们将需要涉及所有相关利益相关者
,包括数据中心IT管理团队、设施团队 、设计工程师和总承包商 。