除了基本功能、气流和机架本身的前期成本之外,许多数据中心历来并没有更多地考虑部署服务器机架。如今,高密度应用的广泛采用正在引起主要的热点问题和容量问题。这些因素以及高昂的能源成本,需要充分了解您的服务器机架部署与整体服务器机房和数据中心效率战略的紧密程度。
IDC(国际数据公司)估计,每在新数据中心硬件上花费 1.00 美元,就会在电源和冷却上额外花费 0.50 美元。降低运营成本是所有 CTO 和数据中心经理最关心的问题。运行数据中心的最大能源成本是冷却,因此拥有完善的服务器机架策略对您的整体数据中心能耗和运营成本至关重要。未来几年,大多数大中型组织将采用虚拟化和更高密度的服务器。随着能源成本持续上升以及数据中心的增长和扩展,公司将寻求其设施和数据中心经理的合理战略,以最好地解决这些不断上涨的能源成本。
在 Uptime Institute 进行的一项调查中,企业数据中心经理回应说,他们中的 39% 预计他们的数据中心将在未来 12-24 个月内耗尽冷却能力,21% 声称他们将在 12 个月内耗尽冷却能力-60 个月。冷却数据中心 IT 设备所需的电力远远超过运行该设备所需的电力,因此,数据中心的整体电力正在快速达到容量。在同一正常运行时间调查中,42% 的这些数据中心经理预计将在 12-24 个月内耗尽电力容量,另有 23% 声称他们将在 24-60 个月内耗尽电力容量。更加关注能源效率和消耗至关重要。
服务器机柜是数据中心的主要组成部分。尽管有许多不同的制造商,但服务器机柜的构成保持一致:折叠和焊接钢,配置为保护服务器、交换机和连接性 - 任何按需组织的命脉。外壳有多种尺寸(高 x 宽 x 深),通常可根据用户的个人需求进行定制,并提供电缆管理和 PDU 安装。常见的 42U 服务器机架尺寸,请参见。
在最简单的层面上,服务器机箱是一个精心设计的盒子。也许数据中心中没有任何配件比它更重要,因为它拥有的设备和它保护的数据。虽然它不消耗电力并且不包含移动部件,但外壳方向对数据中心成为节能企业的能力有重大影响。
热通道/冷通道服务器机架布局
由 Uptime Institute 的 Robert Sullivan 提出,热通道/冷通道是公认的数据中心机柜布局最佳实践。该设计使用空调、风扇和活动地板作为冷却基础设施,重点是入口冷空气和排出热空气的分离。
在这个方案中,橱柜被连接成一系列的行,放在活动的地板上。由于大多数 IT 设备从前到后散热,每一排的前面都变成了冷通道。位于房间周边的空调将冷空气推到高架地板下并通过冷通道,在那里被服务器吸入。当空气通过服务器时,它会被加热并最终消散到热通道中。然后排出的空气被送回空气处理器。
早期版本的服务器机箱,通常带有“烟熏”或玻璃前门,随着热通道/冷通道的采用而过时;穿孔门是工作方法所必需的。出于这个原因,穿孔门仍然是大多数现成服务器机柜的标准,尽管经常有关于有效冷却所需的穿孔面积的争论。
虽然门很重要,但外壳的其余部分在保持气流方面起着重要作用。机架附件不得阻碍空气进出。盲板与侧面“气坝”或挡板一样重要,因为它们可以防止任何废气返回设备进气口(盲板安装在未使用的机架安装空间中,而气坝垂直安装在前 EIA 导轨的外侧)。这些额外的部分必须与任何电缆管理方案或用户认为必要的任何补充机架附件共存。
带有机玻璃门的服务器机架与穿孔门
规划并不仅仅停留在配件层面。热通道/冷通道迫使数据中心工作人员对间距进行特别细化——调整每个通道的尺寸以确保最佳的冷却和散热。为了保持间距,最终用户必须建立一致的机柜占地面积,特别注意机柜深度。传统服务器机箱通常很浅,深度从 32 英寸到 36 英寸不等。随着设备和需求的增长,服务器机箱也随之增长。42" 深度在当今的数据中心中已经很普遍,许多制造商也提供 48" 深的版本。在容纳更深的服务器的同时,这个额外的空间可以容纳前面提到的电缆管理产品、机架附件和基于机架的 PDU。
尽管热通道/冷通道部署在世界各地的数据中心,但其设计并非万无一失。事实证明,这种布局很难实现中到高密度的安装,因为它通常缺乏精确的空气输送。即使在外壳上有诸如盲板和气坝之类的措施,旁路空气和热空气再循环也很常见。因此,更多的冷空气被喷射到服务器上以抵消空气路径的混合,从而需要风扇和冷却器级别的额外能量。
尽管热通道/冷通道存在这种限制,但其分离的前提已被广泛接受。一些机柜制造商正在进一步考虑这个前提,使数据中心空间完全空气分离(或遏制,如果你愿意)的目标成为现实。
冷通道封闭 (CAC)
冷通道封闭通过封闭冷通道来增强热通道/冷通道的布置。然后过道变成了一个独立的房间,用金属、塑料或有机玻璃制成的屏障密封。这些屏障可防止热废气再循环,同时确保冷空气停留在服务器入口处所需的位置。通过排除等式,用户可以将恒温器设置得更高,并将非常温暖的废气返回空气处理机。
随着现有设施中热通道/冷通道的流行,冷通道遏制力图利用这种安排。已经装满设备并可能固定在地板上的机柜不应需要移动或更改。大部分活动将集中在创建遏制的零件上。它们必须相应地调整大小并牢固地连接到行的末端和外壳的顶部。
热通道封闭 (HAC)
热通道封闭采用相反的方法。现在同样的屏障包围了热通道,希望将尽可能温暖的空气返回到空调,空调的形式和位置都发生了变化。这些空气处理器更紧凑,现在嵌入在实际的机柜行中。空调从这个位置收集排出的空气,将其冷却,然后将其返回到冷通道,在那里重复该过程。在这种情况下,效率与距离有关。排出的空气和冷空气都没有远行。
部署的复杂性取决于设施。实际的服务器机箱不应在形式和功能方面发生变化。然而,HAC 设计基于行式空调的使用。新设施可以从一开始就规划这种配置。具有热通道/冷通道的现有设施将不得不在假天花板中创建管道系统或重新加工整排以合并空调。这项工作可能涉及将新的冷冻水管连接到行位置。
紧密耦合冷却
凭借紧密耦合的机柜方向,在同一机柜占地面积内,热通道和冷通道都已完全进化。机柜与行式空调(冷冻水式)相邻,与热通道封闭式设计一样,通过接近来实现效率。不同之处在于:紧密耦合冷却几乎从方程式中消除了空间。服务器机柜和空调都单独工作。没有空气,热的或冷的,被引入空间。接近和隔离的组合允许每机架约 35kW 的极其密集的安装。
与热通道封闭一样,绿地数据中心可以提前规划紧耦合冷却,确保冷冻水管道和必要的基础设施到位。具有机械容量的现有数据中心可以使用该产品进行热中性扩展 - 例如,在隔离的集群中部署新的高密度刀片。这种新设备不会对现有的冷却设备造成压力。
对于没有基础设施或空间来扩展的现有空间,几乎没有办法使用已经组装好的机柜和紧耦合冷却。
对于那些拥有基础设施和空间的人来说,紧密耦合冷却的效率提升是引人注目的 - 最显着的是在机械冷水机组和使用水侧节能器进行自然冷却的潜力。
结论
服务器机箱曾经是数据中心规划中的一个事后考虑,现在已经成为一个相关的话题,因为没有它,任何冷却策略都无法存在。许多数据中心主管部门强调,新的冷却方法对于实现能源效率至关重要。根据 The Green Grid 的说法,该过程始于气流管理 - 了解空气如何绕过、进入和穿过服务器机箱。
通过拥有更节能的数据中心,您的组织可以节省多少?
多达 50% 的数据中心能源账单来自基础设施(电力和冷却设备)。试试我们的交互式数据中心效率计算器,了解降低 PUE 将如何显着节省能源和成本!
以下是帮助计算热负荷和选择机架式空调的公式:
将每个设备的瓦数相加并将其转换为 BTU(设备手册通常会列出其瓦数)。您还可以使用以下公式确定瓦数(瓦特=伏特 X 安培)。(5) 请记住,1,000 瓦特=1kW。
如果将使用机架式空调,则每消耗 1 kW,请考虑生成 3412.14 BTU。空调具有不同的 BTU 等级。