在去年的超算大会上,我们见到了许多浸入式散热方案。没想到在今年的超算大会上,我们又看到了更进一步的展示。所谓“两相浸入式液体冷却(2PILC)”系统,主要包含了一台几乎没有主动式散热的服务器,并将其完全浸没在低沸点的液体中 —— 通常是与硅直接接触的有机化合物,而不是水或油。
(题图 viaAnandTech)
芯片在使用时发热,然后导致周围的散热液沸腾。常见的有 3M Novec of Fluorinert 的变体(沸点在 59 ℃ 左右)。
液体气化过程会上升并带走热量,使得散热液在两种相态之间进行对流、冷凝(通过冷却板或水管)、循环。
这些非离子液体不会导电、粘度和相对适中,能够有效促进自然的对流。如果芯片的热设计功耗太高,亦可加入促进对流的主动式散热方案。
厂家显然希望让这套方案在服务器或高性能 PC 领域实现广泛的运用,在将所有配件保持在合理温度下的同时,还支持超密集的设计。
比如外媒 AnandTech 报道过的 TMGcore 的 OTTO 系统,就采用了 2PILC 技术。其能够在 16 平方英尺(约 1.5 ㎡)的空间内,放置高达 60kW 的数据中心单元。
客户只需为设备供电、供水和网络连接,在需要维护的时候,这套方案还支持自动取放功能。该公司称,在受控环境下,2PILC 技术能够有效延长硬件的使用寿命。
去年,这项技术的主要方向之一,是用于加密系统或超密集协处理器。不过在 SC19 上,我们并没有见到那么多,更别提任何面向 5G 边缘计算的 2PILC 服务器了。
有趣的是,一些组件公司(比如 VRM 制造商),正在验证其用于 2PILC 环境的硬件。通常数据中心会根据电源使用效率(PUE)来讨论能效,比如 1.50 就意味着耗电 1.5 兆瓦,实际功效 1 兆瓦。
标准的风冷数据中心,其 PUE 在 1.3 ~ 1.5 之间。一些专有的风冷数据中心,可能会低至 1.07 。液冷的数据中心,也在 1.05 ~ 1.10 PUE 左右(具体取决于不同的构造)。
我们今年在超算环境中见到的独立 2PILC 单元的最低 PUE 值为 1.028,但若成本仅为标准风冷机架的 1 / 10,相信还是有不少企业愿意去采用的。
—The End—
领取专属 10元无门槛券
私享最新 技术干货