首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >三大谷歌欧洲数据中心究竟如何做到100%自然冷却

三大谷歌欧洲数据中心究竟如何做到100%自然冷却

作者头像
腾讯数据中心
发布于 2018-03-16 07:46:24
发布于 2018-03-16 07:46:24
2.1K0
举报
文章被收录于专栏:腾讯数据中心腾讯数据中心

分析谷歌公布的这些图表(a)、(b),纵向看,它在全球各地的多个数据中心 PUE 控制都已游刃有余;横向看,PUE曲线波浪向下,说明谷歌数据中心的运营仍在逐步改进、不断优化,这种运营是长期的精细化调优的过程。这些图表的另一个显著信息是,其各个数据中心的 PUE 有着一个规律的生物钟,不管是以季节,还是以天、小时为时间颗粒度单位,都表现出较大的波动性规律。这说明 Google 数据中心的自然冷水平高超。它基于室外自然环境温度,尽量利用外界冷源带走热量而不启动机械制冷,在散热方面只给够用的冷量,躬行节俭。

(a) Google多个数据中心的多年PUE曲线

(b) Google某一数据中心的日PUE曲线

本文即将介绍 的是比利时水侧自然冷数据中心、爱尔兰空气侧自然冷数据中心和芬兰海水直接冷却数据中心。

这些巧夺天工的数据中心技术和设计依附于所在当地的气候、政策、资源……完全定制的内容不易被直接移植和借用,然而这种大胆创新的精神值得我们共勉。

一、比利时数据中心

Google 比利时的数据中心位于 Saint – Ghislain,2008 年初启动该数据中心的第一阶段,2011 年 Q1 完成全部阶段设计。2011年Q1的PUE可以低达1.09,全年平均PUE为1.11。

图(c) Google比利时数据中心

该数据中心的蒸发冷却系统从附近的工业运河抽取用水。

“我们设计并制作了一个站内的水处理厂,这样我们就不用使用供应城市的可饮用水”。

Kava

该数据中心利用运河的冷水带走热量:在自己修建水处理厂处理好运河水后给数据中心提供冷量,只采用冷却塔而非制冷机组来散热,这个实现了 100%水侧自然冷的机房,是谷歌的第一个完全自然冷的数据中心。整个水处理厂的污水处理过程如图(d)所示:

图(d) 整个水处理厂的污水处理过程

Google 建设的现场水处理工厂直接从运河中抽取河水,过滤处理并净化到可用于制冷散热的工业用水标准。然后用水泵将净化后的冷水输送到模块化储冷大水罐,再供给到各个冷却塔,用于后续蒸发冷却。将400米开外的工业运河水变废为宝,其结果不仅冷却了服务器,还清洁了水源,当地的部长也对这场Google为主导的双赢合作赞不绝口。

图(e) 热交换器热交换设计

图(f) 热交换器热交换设计部分详解

图(e)、(f)是其热交换器热交换设计,它解释了谷歌是如何将室内的热量存于水箱中的低温运河水,再从冷却塔被带走以实现无需机械制冷的目的。比利时的气候几乎可以全年支持免费的冷却,平均每年只有 7 天的气温不符合免费冷却系统的要求。Kava 指出,机房温度不需要像以前那样低。2008 年,美国加热冷冻及空调工程师协会(ASHRAE)建议数据中心的温度应保持在 20 -25 ℃之间——但 Google建议将其保持在 27 ℃以上。

“构建一个高效的数据中心的第一步就是设法提高它的温度,我们的机器、服务器、存储阵列、以及其它任何东西,在比之一般数据中心称得上是‘火炉’的‘高温’地区都能很好地运行。对我而言,任何数据中心只能在 20甚至18 ℃以下的环境运行都颇为可笑。”

Kava

但是在比利时这里,也会有时热的连服务器都不能运行,这时 Google 就会将这里的工作移交给其他数据中心负责。Kava 没有给出任何细节,但他表示这种数据中心之间的工作交接涉及到一个叫做 Spanner 的软件平台。这个 Google 设计的平台曾在 2009 年 10 月的一个谈论会上有所提及,但是这是 Google 第一次公开确认 Spanner 确实有在使用。

图(g) spanner 设计目标

根据 Google 在 2009 年的讨论会上的陈述,Spanner 是一个“存储及计算系统,遍及他们所有的数据中心,可基于限制及使用特点来自动转移或增加数据和计算的副本。”这包括涉及带宽、丢包率、能源、资源及“失败模式”——比如当数据中心内部出现错误的时候。

二、爱尔兰数据中心

Google 爱尔兰数据中心位于都柏林,是已有退役建筑——市长大厦翻新改造而成的。因 为谷歌在欧洲没有足够的运维人员,所以希望将该数据中心设计成空气侧的自然冷却机房。该数据中心已于2010 年上半年完成了全部工程,他们实现了 100%的空气侧自然冷却,采用直接蒸发制冷技术并且定制了个热回收单元,这是Google 在欧洲的第二个无制冷机组的数据中心。

都柏林的气候条件得天独厚,但由于该数据中心受限于已有的建筑结构和散热供水,无法安装大型的冷却塔,因此采用了模块化的 AHU 方案。

图(h) 模块化AHU方案

图(i) 模块化AHU方案内部应用场景

从室外取自然空气送入到混风室与机房内回风混合,经过滤和加湿等环节,用 AHU 风扇送到直接蒸发盘管进行冷却,最后通过送风管道进入机房。由于采用了热通道封闭方案隔离热气流,进入机房的冷空气经 IT 设备加热后,部分参与回风,部分则直接排放到室外。直接蒸发制冷技术在夏天可用于调峰,比如在高温天气冷却室外进入机房的热空气,也可以在干燥的冬天用于机房湿度调节。

三、芬兰海水制冷数据中心

2009 年二月,Google 耗资 5200 万美元购买了一座位于芬兰 Hamina的废弃的造纸厂,他们认为这座拥有 56 年历史的建筑,是建设其提供大量网络服务的数据中心的理想场所之一。Google 和 DLB 公司一起将其进行改造设计成数据中心。

图(j) 海水制冷方案

图(k) 海水制冷原理

这个数据中心的独特之处在于采用了 100%的海水散热。Google 利用该造纸厂已有建筑,包括造纸厂原有水下通道,采用模块化制冷单元和闭式的内循环冷冻水(淡水),对开式外循环冷却水(海水)的热交换器传热,将升温后的海水送到室外的温度调节房,这个房间的主要作用是将送出的热水和进入的新鲜海水混合。

“当我们将水排出到海湾的时候,它的温度和湾内海水温度会很相似,这就将对环境的影响降低到最小。”

Kava

虽然这个数据中心供回水的ΔT和取得的PUE值暂时不公开,但相信应该是非常低的水平。

“公司的环境许可并没有要求控制水温。这让我感觉很好,我们不是只做我们被要求做的。我们去做那些我们认为对的事情。ISO认证说明谷歌正在获得它想要的。当局者迷,局外者清。第三方的加入让我们保持清醒。”

Kava

采用海水来散热有很多新的技术挑战,需要做热仿真,包括各个季节海水的不同温度、水垢带来的影响,以及海水对管路的腐蚀等。谷歌在 Hamina 数据中心中 采用了玻璃纤维材料的水管,并在热交换器上采用了镀钛的板换叠片等技术用于防止海水腐蚀。虽然这些技术在数据中心行业中也许还比较新,但海水散热在其他行业中已有较多应用,可以从相关行业学习到这些经验和教训。

图(l) 海水制冷数据中心应用内景

图(m) 支持海水制冷需求的特殊材料

为了保障设计可行,在概念设计阶段 Google 的热仿真工作精益求精。它采用 CFD 技术,验证了风向和风强等对海水温度的影响,研究了不同时间海水的潮汐效应。另外还考虑盗了芬兰湾水位高低、海水温度变化、盐度大小以及海藻等对机房散热的影响。Google 还根据该地区过去三十年海水温度的数据,来确定管道从哪里取水和排水、进出水口应安装在水面以下多深的地方等。采用海水冷却不好直接采用化学过滤等,因此海水换热器的设计至关重要。Google 在 Hamina 的设计中采用了四重的海水过滤系统,分别是粗效过滤、沿途过滤、药剂过滤和高效过滤器环节,并为了长期维护方便,现场建设了可更换的 CIP(clean in place)过滤环节。

此外大型海水冷却泵的水锤作用导致的损坏也引人瞩目,该损坏主要来自阀门快速关闭时对管路带来的强烈冲击,其产生的原因是关闭阀门后水被抽走导致管内真空,从而管内外压力差很大。而用于防止海水腐蚀采用的玻璃纤维材料的水管强度不够高,在水击发生时的压力下容易造成管路爆裂,为此 ,Google 专门设计了个空气输入阀门,来控制压力差变化并缓冲其冲击。总之海水冷却设计是个挑战,设计中需要专业的工程学知识和技术,需考虑参数很多,且前期投入较大,因此对于小规模的数据中心建设并不划算,但应用在大体量的数据中心会是个精巧之处。

“对于某些规模较小的数据中心运营商/用户来说,(新型海水冷却系统)可能不具有经济效益,但它却有社会效益。它可以提供一个可靠的热源——芬兰海湾每年都会结冻”

Kava

另外,海水由于常年温度变化小且可预计,是非常稳定可靠的冷源,且几乎没有传统空调水系统带来的水消耗问题,同时得到非常低的 PUE值。

图(n) 大型海水冷却泵的水锤设计

综上所述,谷歌的三个数据中心采用了完全不一样的制冷方式,但都实现了 100%的自然冷却,其设计高效、简单、可靠。因此自然冷却百家争鸣,且没有绝对的优劣。实现方式依赖于当地的地理位置、气候。因此数据中心的设计应考虑长期的 TCO大胆创新,而不要局限于某一种固定的解决方案。

版权声明:本文为腾讯数据中心原创,欢迎转载,转载需保持原文(包括标题、导语、正文、图片、数据以及文尾的二维码、版权声明等全部内容)完整。版权均属“深圳市腾讯计算机系统有限公司”所有,未经官方授权,不得使用。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2015-09-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯数据中心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
基建狂魔谷歌,如何把数据中心“武装到牙齿”
“谷歌在进行数据中心建设的过程中,从选址到定制方案,从确保安全到提高效率,都有着精密的谋篇布局。
数据猿
2021/03/15
6550
基建狂魔谷歌,如何把数据中心“武装到牙齿”
积水成渊——数据中心用水效率分析
引言 现在人们一提起数据中心,首先想到的关键词是PUE(数据中心电力使用效率的衡量指标),由此可见人们对数据中心电力资源的重视程度。而另外一种资源——水,却往往被人们所忽视。 水,在维基百科中有这样一句解释:“水(化学式:H2O)是包括人类在内所有生命生存的重要资源,也是生物体最重要的组成部分”。水也被称为人类生命的源泉。 同样,对于数据中心来说,水好比人的血液。水出了问题的数据中心是无法正常运营的。那么,在数据中心有哪些地方会用到水呢?接下来我们以腾讯某数据中心为例做详细说明。 腾讯某数据中心用水项分析
腾讯数据中心
2018/03/16
3.6K0
积水成渊——数据中心用水效率分析
上海数据中心要求PUE小于1.3,怎么办?-孙长青
1、事件背景 《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》的通知,引起了数据中心基础设施圈内各个层面的人热烈解读,从中,有人看到希望,有人看到了危机,有人看到了数据中心发展的趋势,有人看到了上海有关部门对数据中心的态度。 其中有一段话,深深的吸引了大家的眼球,是关于基础设施的要求:推进数据中心布局和加速器体系建设。统筹空间、规模、用能,加强长三角区域协同,布局高端、绿色数据中心,新建机架控制在6万个,总规模控制在16万个。推动数据中心节能技改和结构调整,存量改造数据中心PUE不高于1.4,新建数据中心PUE限制在1.3以下。开展计算资源布局规划和资源配置方案研究,实施技术试验及模式研究。依托数据中心布局,建设基于中央处理器(CPU)、图形处理器(GPU)等的计算中心,面向人工智能的计算加速资源占新增数据中心机架总量的50%。 其中最让人揪心的,是新建数据中心PUE限制在1.3以下,这个数值代表什么,对数据中心行业熟悉的人们都心里有数,那是上海有关部门对节能的极致追求,如果按照传统的成熟方案进行设计,几乎是不可能达到1.3的要求的,那就是要逼迫从业者采用更加有效的节能方案。 由此,可能给全国数据中心行业带来一次节能技术的革命。 2、PUE的前世今生 首先,让我们来看看PUE的由来,在2007年的时候,美国绿色网格(The Green Grid,IT专业人士的非营利性贸易组织,旨在满足数据中心和整个信息服务交付生态系统的电力和冷却要求,不支持任何特定于供应商的产品或解决方案,提供有关旨在提高整体数据中心效率的最佳实践,指标和技术的建议。)为了更好地了解和提高现有数据中心的能效,认识到建立数据中心效率指标的重要性,并由此为提高每瓦性能的技术指导提供理论支持。理想情况下,这些指标和流程将有助于确定在需要新数据中心之前是否可以优化现有数据中心。由此,提出了PUE的概念,即Power Usage Effectiveness(能源使用效率),从那时起,PUE已在业界得到广泛采用。 下面来看PUE的定义:能源使用效率,数据中心IT设备和配套基础设施的电量或能量和除以由设计人员按企业采用的标准计算获得的IT设备电量或能量之和。业内一般通用的,多指整个数据中心包括IT设备和配套基础设施的年耗电量除以IT设备年耗电量。 PUE计算公式如下: PUE =机械负载系数(MLC)+电气负载系数(ELC)+ 1.0 这里所有因素都是按IT负荷除以的比率: •1.0表示标准化的IT负载。实际上,这是IT负载因子(ILF),但始终为1.0。 •机械负载系数(MLC)是制冷设备、泵、风机等消耗的总能耗除以IT能耗,如下:
数据中心DATACenter_PUE-POE
2019/08/20
4.6K0
上海数据中心要求PUE小于1.3,怎么办?-孙长青
深度剖析Google数据中心如何利用神经网络压榨PUE——下
理论模型与实验结果高度吻合 综前所述,可通过控制变量法建模仿真,从而得知各个运行变量参数对数据中心PUE的影响。这种灵敏度分析被用于评估某一参数变化带来的影响,并用于确定其最佳的设定值。下面的这些所有测试结果已被实际得到了验证。 图8(a)IT负载和PUE之间的关系 图8(b)运行冷机数量和PUE之间的关系 图8(a)展示PUE和服务器IT负载之间的关系,在0%到70%负载范围内PUE值快速降低。但在70%以上负载范围时PUE值却逐渐平缓。这个特点也在Google数据中心的历史PUE数据中得到验证: 由
腾讯数据中心
2018/03/16
2.1K1
深度剖析Google数据中心如何利用神经网络压榨PUE——下
SuperNAP数据中心揭秘——中
image.png 前面介绍了switch通信数据中心的总体设计思路,下面再介绍其数据中心内核心的IT微模块,根据图6所示的IT微模块示意及相关专利介绍称,其每个微模块由18个机柜构成,两侧不同供电路有两个列头柜和一个综合配线柜。switch通信微模块热通道封闭,机柜顶部采用了模块化的封闭通道组件和标准化的强弱电桥架。根据微模块机柜数及前面机柜平均功率推测,每个微模块总功率平均约为160-180KW。无架空地板以及微模块框架设计,可以支持普通机柜或者整机柜上架。较宽的单机柜功率允许范围可灵活满足用户的各种
腾讯数据中心
2018/03/16
1.5K0
SuperNAP数据中心揭秘——中
云计算数据中心(二)
  针对云计算数据中心的特点,从数据中心的配电系统、空调系统、管理系统的节能策略和算法,以及新能源应用等方面分析云计算数据中心的节能技术,并对典型的绿色节能云计算数据中心进行介绍。
Francek Chen
2025/01/23
3550
云计算数据中心(二)
腾讯数据中心制冷节能的十八般武艺——下
(本文内容接《腾讯数据中心制冷节能的十八般武艺——上》) (备注:图片带播放图标的均有视频介绍,视频链接为: http://v.qq.com/vplus/51389fdde8883a85bcfe344f11a106c5/foldervideos/em6000001jms4px, 视频搬运来自youtube) 三、数据中心制冷节能技术现状与趋势 1、海水自然冷却,位置为功能服务 Green Mountain Data Center: 位于挪威西南角,常年利用8℃的深层海水(75米以下),对数据中心进行制
腾讯数据中心
2018/03/16
1.9K0
腾讯数据中心制冷节能的十八般武艺——下
​数据中心暖通架构发展趋势及未来液冷技术的思考
第4届中国数据中心绿色能源大会——主旨论坛“跨界融合 智驱未来”上,腾讯数据中心首席架构师林志勇老师以“数据中心暖通架构发展趋势及未来液冷技术的思考”为题发表演讲。现将精彩内容整理如下,供数据中心广大从业者学习交流。
腾讯数据中心
2023/08/03
3.1K0
​数据中心暖通架构发展趋势及未来液冷技术的思考
液冷技术:迎接AIGC时代数据中心的散热挑战
随着人工智能生成内容(AIGC)的跨越式发展,算力需求呈爆炸式增长,带动了数据中心的功耗和热管理需求的飞速上升。AI模型训练和推理过程中的高计算资源需求,导致服务器发热量大幅增加,对散热技术提出了更高的要求。根据Colocation America发布的数据,2020年全球数据中心单机柜平均功率已经达到16.5kW,比2008年增加了175%。液冷技术因此成为数据中心散热技术的新热点。
亿源通科技HYC
2024/08/15
9880
液冷技术:迎接AIGC时代数据中心的散热挑战
云技术的运用对冷却系统的影响
正如我们目前看到的,现代云的发展与数据中心生态系统时,我们似乎就已经看到了未来的趋势,未来数据中心会有更多样的变化,更高的利用率。考虑到这一点,Gartner最近表示,在未来五年内,IT支出将超过1万
静一
2018/03/28
1.1K0
云技术的运用对冷却系统的影响
天津数据中心群英传——之呼风唤水篇(上)
开天辟地: 在距离腾讯总部较远的北方城市天津,有一座规模庞大的“城堡”,她就是腾讯迄今为止最大的自主规划、设计和运营的数据中心——天津数据中心。 天津数据中心共4栋楼,总建筑面积8万多平米(约11个足球场面积),满载可容纳20万台服务器,为华北地区乃至全国提供全方位综合服务,其规模之大、分量之重当屈一指。 在这座规模罕见的“云基地”里,深居着数以万计的服务器和网络设备,她们日夜不停地工作,承载着公司的核心业务。在这些服务器的身后,同样也隐居着另外一个规模庞大的家族,她们隐姓埋名,默默无闻地为这数以万计的服务
腾讯数据中心
2018/03/16
1.1K0
天津数据中心群英传——之呼风唤水篇(上)
首台自主创新全空冷机组在三峡运行,图扑数字孪生机体
采用全空冷系统的三峡右岸电站26号机组,是目前世界上采用全空冷技术的最大容量等级发电机组,并且结构布置简单、运行可靠、安装维护方便、成本低。全空冷系统区别于水冷系统,是指对水轮发电机的定子绕组、铁心和转子绕组均采用空气冷却方式的发电机冷却系统。
数字孪生
2022/08/29
6360
首台自主创新全空冷机组在三峡运行,图扑数字孪生机体
“电老虎”数据中心,AI如何发挥作用?
在过去几年,一座座数据中心拔地而起,大规模的服务器串联而成的计算系统支撑了海量的数据处理和运算。数据中心机架数量由2016年的124万架上升至2019年的227万架,四年间上涨了83.1%。
科技云报道
2022/04/16
4630
“电老虎”数据中心,AI如何发挥作用?
致敬经典——腾讯第三代数据中心
序言 伴随着腾讯业务的不断发展壮大,腾讯数据中心走过了21年的光辉历程,期间不断地推进了数据中心技术架构的迭代和升级。为了适应海量服务器快速、低成本的部署和运营要求。早在2012年,腾讯就推出了第三代数据中心架构——微模块架构。经过八年的应用实践和优化完善,微模块技术架构已经发展成为数据中心行业的主流技术;为腾讯第四代T-Block技术架构升级奠定了坚实的基础。本文将从运营实践的视角带领大家去回顾腾讯第三代数据中心技术的最佳实践。 什么是微模块? 微模块(Modular Data Center,MDC)是
腾讯数据中心
2020/10/19
3.9K1
浅谈数据中心应急冷源
一.引言 数据中心作为信息通讯的中枢,持续运转的服务器将产生大量的热量,若不及时将热量排出,聚集的热量将会引起服务器高温,从而影响设备稳定运行。 精密空调系统作为数据中心制冷的重要基础平台系统,是数据中心安全、稳定运行的保障。但是在实际运行过程中,空调系统并无法保证“全勤”,空调系统偶然的故障或者电力供应问题均有可能导致空调系统停机。空调系统从停机到再次恢复工作需要一定的响应时间,在该时间段内,服务器依旧处于工作状态,此时仍需要对机房温度进行控制,所以在除了原有空调系统外,还需配备额外的制冷系统,即数据中心
腾讯数据中心
2018/03/16
3.3K0
浅谈数据中心应急冷源
谷歌,如何成为数据中心行业的绝顶高手
前言 谷歌作为全球最大的互联网公司之一,其数据中心以领先的建设技术、稳定的运维能力和可持续发展的核心价值观在数据中心行业广受好评。而谷歌数据中心是如何获得如今的“江湖地位”,又是怎样成为数据中心行业内绝顶高手的呢?今天就让我们跟随谷歌数据中心副总裁Joseph Kava的内部视角,一起来探秘谷歌数据中心。 作为现代社会重要的基础设施,数据中心的客户需求始终是其设计、建设和运营的立足点。在Joseph心目中,客户核心的需求是: 高性能与规模弹性 合适的选址 运行可靠性 安全性 可持续性 正是对这些需求的有效
腾讯数据中心
2020/04/13
2.3K0
数据中心并联冷机负载不均案例分析
制冷冷机为数据中心提供冷量,是保证数据中心安全有效运行的核心,但是在实际冷机运行过程中,常常会出现并联引起负载不均衡的问题,如果处理不当,可能引起冷机停机,数据中心供冷中断,威胁数据中心的安全运行。 一、某数据中心冷机负载率不均案例回顾 某数据中心某时机负荷偏大问题的发现及解决回顾: 第一周 某数据中心3、4号冷机并联运行期间,4号冷机的负载率比3号冷机高20%以上,且为持续现象。 第二周 某数据中心机切换到1、2号冷机之后,联合冷机厂家对冷机冷凝器做了通炮(即拆开4号机的冷凝器端盖板,清洗内部的铜管水路)
腾讯数据中心
2018/03/16
1.7K0
数据中心并联冷机负载不均案例分析
腾讯数据中心冷源系统AI调优的应用与实践
摘要 2022年11月9日-10日,第十届数据中心标准峰会在北京隆重召开,峰会以“汇聚双碳科技 夯实数据之基”为主题。腾讯数据中心高级架构师李鼎谦在本次峰会上以《数据中心冷源系统AI调优的应用与实践》为题发表云端演讲,现将精彩内容整理如下,供数据中心广大从业者学习交流。 以下为演讲实录 尊敬的各位嘉宾、同行,大家下午好!我是来自腾讯数据中心的李鼎谦。今天与大家分享腾讯数据中心在AI调优规模化应用中的一些实践经验和总结,也希望我们在一线项目上踩过的坑、排过的雷能给到大家有用的启发和思考。 AI商用化逐渐成熟
腾讯数据中心
2022/12/13
3K0
腾讯数据中心冷源系统AI调优的应用与实践
数据中心冷战:风冷未央 液冷已至
近几年,数据中心的能耗问题受到越来越多的关注,并且已经成为制约数据中心行业可持续发展的重要因素。为此,2013年以来,政府相继出台了多项政策,对新建数据中心的节能水平提出了要求,北京更是暂停了PUE>1.5的新建数据中心审批工作。 数据中心为了追求更加的高效节能,冷却技术也发展出了多种形式。目前,数据中心市场上主要采取制冷方式包括:风冷精密空调制冷和水冷精密空调制冷。 数据中心早期并没有专用的精密空调,也没有统一的标准,早期的数据中心主要用的是民用大功率空调,这种空调主要是为人而设计,并不合适在数据中心
企鹅号小编
2018/01/24
1.8K0
数据中心冷战:风冷未央 液冷已至
“三能”赋能绿色数据中心 泛在算力夯实智能社会基石
继“南水北调”、“西电东送”之后,“东数西算”作为新的国家工程于今年初正式批复启动建设,将在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏8地建设全国一体化算力网络国家枢纽节点——通过构建一体化新型算力网络,将东部算力需求有序引导到西部,优化数据中心建设布局,促进东西部协同联动。
IT创事记
2022/12/21
3970
“三能”赋能绿色数据中心 泛在算力夯实智能社会基石
推荐阅读
相关推荐
基建狂魔谷歌,如何把数据中心“武装到牙齿”
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档