前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >4kw机柜无通道封闭CFD模拟分析及优化(下篇) -孙长青

4kw机柜无通道封闭CFD模拟分析及优化(下篇) -孙长青

原创
作者头像
数据中心DATACenter_PUE-POE
修改于 2020-04-27 01:53:29
修改于 2020-04-27 01:53:29
8970
举报

本文继续接上篇文章,【技术分析】4kw机柜无通道封闭CFD模拟分析及优化(上篇) 进行解析。

2、方案2(单侧送风)CFD模型分析

1)、方案2(单侧送风)模型基本参数

方案2(单侧送风):

  • 数据机房总面积:600m2, 其中精密空调间面积:160m2。
  • IT 机柜数量160台,单台功率4kw,IT总功率640KW。
  • 电气列头柜PDR:0.5KW/台*20台,总功率10kw。
  • 精密空调一侧6台100%运行,另一侧6台关闭。
  • 精密空调出风温度设定为22℃。

2)、方案2(单侧送风)IT设备参数

图12 机房设备参数布置图

3)、机房方案2 (单侧送风)模型

图13 机房模型图

4)、机房方案2 (单侧送风)气流分布情况

图14 机房气流分布图

5)、机房方案2(单侧送风)机柜平均进出风温度分布

图15 机房机柜平均进风温度分布图

(平均进风最高温度25度/平均进风最低温度22.6度)

平均最高与最低进风温度差为:25-22.6=2.4度

图16 机房机柜平均出风温度分布图

(平均出风最高温度39.8度/平均出风最低温度37.3度)

平均最高与最低出风温度差为:39.8-37.3=2.3度

机柜进出风温差:39.8-25=14.8度;37.3-22.6=14.7度

6)、机房方案2(单侧送风)中Y平面温度分布

图17 机房Y=机柜底部温度分布图

图18 机房Y=机柜中部温度分布图

图19 机房Y=机柜顶部温度分布图

7)、机房方案2(单侧送风)精密空调的送回风温度布置图

图20 机房精密空调的送风温度布置图

(送风温度设定22度)

图21 机房精密空调的回风温度布置图

(回风最高温度32.7度/回风最低温度30.5度)

8)、机房模型(单侧送风)精密空调实际负荷率布置图

图22 机房精密空调的运行负荷率布置图

9)、机房方案2(单侧送风)模型分析结论

  • 此模型大部分IT机柜的平均进风温度都在23℃,机柜的平均进风温度到达25℃。机柜的平均排风温度在37.3到39.8℃之间。
  • IT机柜出风温度偏高的部分普遍分布在每列机柜的端头。
  • 精密空调平均出风温度22℃,最高进风温度32.7℃,最低进风温度30.5℃,平均进风温度31.6℃。平均进出风温差9.6℃。
  • 由于冷热通道未封闭,在精密空调平均进出风温差为8.7℃的情况下,IT机柜的平均进出风温差达到了14.8℃左右。也就说,有很大部分精密空调送出的冷风直接与机柜热出风混合后回到了精密空调,并未有效送入IT机柜内。混风度为:(14.8-9.6)/9.6=54%。
  • 机柜平均最高与最低进风温度差为:25-22.6=2.4度,机柜进风不均匀度为:2.4/22.6=10.6%。IT机房冷通道送风温度与精密空调出风温度偏差为:25-22=3度,22.6-22=0.6度。
  • 精密空调最高与最低回风温度差:32.7-30.5=2.2度。精密空调回风不均匀度为:2.2/30.5=7.2%。
  • 机柜平均最高与最低出风温度差为:39.8-37.3=2.5度,机柜出风不均匀度为:2.5/37.3=6.7%。
  • IT机房热通道回风温度与设计值偏差为:39.8-35=4.8度,37.3-35=2.3度。最大偏率为:4.8/35=13.7%,最小偏差率为:2.3/35=6.6%。
  • 精密空调运行有负载率不均现象。
  • 以上参数,均已是调整过通风地板开度后的最佳数值,调整部分不利点开孔地板的阀门开度。在方案1调整部分不利点开孔地板的阀门开度的基础上,所有机柜的温度也均在安全范围内运行,但是有局部机柜的回风达到39.8℃,接近了40℃,接近了高温报警的警戒线。

10)、单侧送风与双侧全开对比

  • 机柜平均进出风温差均为14.8℃,单侧送风与双侧全开时温差一致,说明末端IT机柜自身风扇的风量基本保持恒定,不受精密空调单侧或双侧全开情况影响。
  • IT机柜出风温度偏高的部分普遍分布在每列机柜的端头。
  • 精密空调的进风温度,最高及最低温度单侧比双侧均高出1度左右,平均进出风温差单侧比双侧也高出1度左右。
  • IT机房气流组织混风度,双侧全开反而比单侧送风的混风度更高,双侧全开带来了更多的送风量,而IT机柜的通风量保持恒定,多余的送风量就与回风混合后回到了精密空调。
  • IT机柜的最低进风温度,双侧全开与单侧送风基本一致,而IT机柜最高进风温度,单侧送风比双侧全开高了1.1℃,远离精密空调的IT机柜进风温度明显升高,与精密空调出风温度的温差达到了3℃,冷通道长距离送风的温升不可忽视。
  • 精密空调进风不均匀度,双侧全开与单侧送风基本一致,不均匀度差别不大。
  • 机柜出风不均匀度,单侧送风比双侧全开要差一些,同时,单侧送风的机柜回风最高温度比双侧全开的整体高了1.1℃。

3、方案的改进

鉴于两种方案都有IT机房内机柜出风温度偏高的现象,且这种现象普遍分布在每列机柜的端头,需要针对这种进行特定的调整,比如考虑送风地板的区域布置优化,增加柜列端头的送风地板数量等,经过对送风地板区域布置多轮调整,以及微调送风地板开度,IT机柜出风温度模拟结果分布图如下:

图23 方案1(双侧全开)增加开孔地板后机房机柜平均出风温度分布图

(平均出风最高温度38.0度/平均出风最低温度35.4度)

图24 方案(单侧送风)2增加开孔地板后机房机柜平均出风温度分布图

(平均出风最高温度38.5度/平均出风最低温度35.7度)

经过多次模拟及调整,以及考虑到柱子的影响,由上面模拟结果可知,双侧全开和单侧送风的机柜出风温度均处于良好状态,最终实现了端头IT机柜出风温度偏高现象的解决,使得所有IT机柜的出风温度保持了相对均匀。

4

结论

通过气流组织模拟分析,无通道封闭的IT机柜设置,采用与冷热通道封闭一样的送风地板布置方式,双侧全开与单侧送风均会出现IT机柜出风温度不均的现场,单侧送风方式不均现象更甚。而通过优化送风地板的布置,可以较好的解决这个问题。但是,在一般的情况下,要想很好的解决模拟中出现的所有问题,比如混风、机柜进风不均、机柜进出风温差过大等问题,建议尽量能采用冷热通道封闭的方案。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
4kw机柜无通道封闭CFD模拟分析及优化(上篇) -孙长青
随着数据中心行业的快速发展,IT机柜的密度也在持续增长,IT机柜密度的增长,对机房内气流组织的要求也越来越严格。针对IT机房的气流组织,现在普遍的做法是划分冷热通道,至于冷热通道封闭与否,一直是业内争议的问题。毕竟进行冷热通道封闭,会带来初投资不小的增加,而在低密的情况下,费效比可能会得不偿失。
数据中心DATACenter_PUE-POE
2020/04/26
1.7K0
4kw机柜无通道封闭CFD模拟分析及优化(上篇) -孙长青
“干盘管”在高密数据中心的应用前景-孙长青
孙长青,注册暖通工程师,高级工程师,规划设计部总工程师,IDC单位设计总监等,有多年从事数据中心规划设计、咨询顾问、甲方自建设计部等全过程的实战经验,对数据中心有一定的了解,同时,做过10多个数据中心的Uptime设计认证工作,对国标GB50174及Uptime理论多有感触,对数据中心能评指标、IT负载率、数据中心蓄冷系统等有些了解,对数据中心如何降低PUE也略有经历。经过总结多年来的实战心得,方有此文,以便大家更加了解数据中心等级的核心理念,同时对国情和国际理论间存在的差异有所认识。 ———————————————————————————————————————————————— “干盘管”在高密数据中心的应用前景
数据中心DATACenter_PUE-POE
2019/11/06
8270
“干盘管”在高密数据中心的应用前景-孙长青
气流组织优化—数据中心节能的魔术手
引言 1946年数据中心诞生于美国,至今已经历4个阶段近70年的发展历程,数据中心从最初仅用于存储的巨型机,逐渐转向多功能、模块化、产品化、绿色化和智能化。在越来越注重节能和精细化的今天,数据中心的每一个细节设计都闪耀着工程师智慧的光芒。他们对于数据中心的规划设计,不再满足于仅停留在功能这一基本的要求上,现在的数据中心你会看到更多关于节能环保及工程之美、绿色之美等设计理念。 评价数据中心的优劣,与其提供的服务质量,成本控制及绿色程度密切相关。能够提供稳定及具备高可用性的服务是对云服务商和数据中心的基本要求。
腾讯数据中心
2018/03/16
2.6K0
气流组织优化—数据中心节能的魔术手
藏风聚水,调和数据中心的阴与阳
摘要 数据中心运营过程中会持续产生大量的热,如何让制冷系统高效、快速地带走热量是考验运营管理人员的一道难题。在长期的运营实践中,运用CFD技术(计算流体动力学),在机房设计、运营阶段对气流组织进行建模仿真,通过分析温度场、压力场、速度场、3D气流情况等因素,寻找机房气流组织的问题根源,然后剖析原因进行优化、仿真计算,得到合理的结果,为运营优化提供决策依据,进一步提升数据中心能效利用和可靠性。 本文以实际运行的某传统机房作为案例,通过运用CFD技术进行建模仿真,分析当前情况下机房气流组问题的根源所在,提
腾讯数据中心
2020/06/01
1.2K0
数据中心制冷的鸡肋——动态平衡阀-孙长青
在现有的空调设计中,稍微大一些的水冷系统,在末端每个精密空调的支管处均会设置一动态平衡阀,以保证系统水系统的水力平衡。
数据中心DATACenter_PUE-POE
2020/02/26
1.3K0
数据中心制冷的鸡肋——动态平衡阀-孙长青
单管路冷却水系统阀门故障处理案例分享
事件背景 N年前,腾讯某租用机房出现1#冷机冷却水回水阀门有滴水现象并无法拧紧,经初步判断为阀门损坏所致。该机房冷水机组采用2+1冗余配置,单冷源制冷模式,机房水系统管路为单路由设计。如果对故障阀门进行更换,将影响IDC大楼制冷系统的正常运行,IT机房供冷预计中断4-5小时,业务服务若因此而中断,后果不堪设想。但如不更换故障阀门,机房空调系统运行则如履薄冰。 现在问题来了,如果你是腾讯的数据中心经理,你将如何决策,决策的过程中会考虑哪些关键事项? 图1 阀门故障点 风险分析 “结垢、腐蚀、
腾讯数据中心
2018/03/16
1.8K0
单管路冷却水系统阀门故障处理案例分享
致敬经典——腾讯第三代数据中心
序言 伴随着腾讯业务的不断发展壮大,腾讯数据中心走过了21年的光辉历程,期间不断地推进了数据中心技术架构的迭代和升级。为了适应海量服务器快速、低成本的部署和运营要求。早在2012年,腾讯就推出了第三代数据中心架构——微模块架构。经过八年的应用实践和优化完善,微模块技术架构已经发展成为数据中心行业的主流技术;为腾讯第四代T-Block技术架构升级奠定了坚实的基础。本文将从运营实践的视角带领大家去回顾腾讯第三代数据中心技术的最佳实践。 什么是微模块? 微模块(Modular Data Center,MDC)是
腾讯数据中心
2020/10/19
3.7K1
如何降低数据中心机柜的局部高热
数据中心内设备众多,内部虽然有完善的空调系统,但实际上内部温度分布是不够均衡的。即便现在的数据中心部署了出入通风道,机柜前面是入风道,后面是出风道,这样可以及时将热量带走。不过,由于不同的设备发热功率是不同的,局部区域若放置有大功率设备,容易造成机房局部区域过热现象,威胁数据中心的安全运行,甚至造成个别设备因过热而宕机、硬件损坏等严重问题,所以将数据中心机房内的温度控制在一定范围内,消除或降低局部热点是非常重要的。为保证数据中心长期稳定运行,改善IT设备的运行环境,消除局部热点、降低机柜局部温度,下面我们就来探讨一下数据中心局部热点处理的一些方案。
孙杰
2019/10/29
1.2K0
如何降低数据中心机柜的局部高热
天津数据中心群英传——之呼风唤水篇(中)
励炼之路: 空调系统的各位“大侠”桃园结义后,要想实现功成名就,长治久安,这可不是一件容易的事,一番苦心修炼,那是在所难免。 励炼一:机房温度恒定是如何炼成的? 1.1: “节能”的温度: 各位“机友”都关心服务器所处的机房环境温度是否正常?服务器运行温度是否恒定?是否有过热点存在?湿度是否合适等等。 说到“温度”,大家日常生活中都有听说:温度越低,空调越费电;适当提高温度,空调可以节能。 所以在11年的时候,在技术大牛Tuoc哥的指导下,天津数据中心运营团队与服务器运营组联合做了一个提高机房环境温度的节能
腾讯数据中心
2018/03/16
1.4K0
天津数据中心群英传——之呼风唤水篇(中)
上海数据中心要求PUE小于1.3,怎么办?-孙长青
1、事件背景 《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》的通知,引起了数据中心基础设施圈内各个层面的人热烈解读,从中,有人看到希望,有人看到了危机,有人看到了数据中心发展的趋势,有人看到了上海有关部门对数据中心的态度。 其中有一段话,深深的吸引了大家的眼球,是关于基础设施的要求:推进数据中心布局和加速器体系建设。统筹空间、规模、用能,加强长三角区域协同,布局高端、绿色数据中心,新建机架控制在6万个,总规模控制在16万个。推动数据中心节能技改和结构调整,存量改造数据中心PUE不高于1.4,新建数据中心PUE限制在1.3以下。开展计算资源布局规划和资源配置方案研究,实施技术试验及模式研究。依托数据中心布局,建设基于中央处理器(CPU)、图形处理器(GPU)等的计算中心,面向人工智能的计算加速资源占新增数据中心机架总量的50%。 其中最让人揪心的,是新建数据中心PUE限制在1.3以下,这个数值代表什么,对数据中心行业熟悉的人们都心里有数,那是上海有关部门对节能的极致追求,如果按照传统的成熟方案进行设计,几乎是不可能达到1.3的要求的,那就是要逼迫从业者采用更加有效的节能方案。 由此,可能给全国数据中心行业带来一次节能技术的革命。 2、PUE的前世今生 首先,让我们来看看PUE的由来,在2007年的时候,美国绿色网格(The Green Grid,IT专业人士的非营利性贸易组织,旨在满足数据中心和整个信息服务交付生态系统的电力和冷却要求,不支持任何特定于供应商的产品或解决方案,提供有关旨在提高整体数据中心效率的最佳实践,指标和技术的建议。)为了更好地了解和提高现有数据中心的能效,认识到建立数据中心效率指标的重要性,并由此为提高每瓦性能的技术指导提供理论支持。理想情况下,这些指标和流程将有助于确定在需要新数据中心之前是否可以优化现有数据中心。由此,提出了PUE的概念,即Power Usage Effectiveness(能源使用效率),从那时起,PUE已在业界得到广泛采用。 下面来看PUE的定义:能源使用效率,数据中心IT设备和配套基础设施的电量或能量和除以由设计人员按企业采用的标准计算获得的IT设备电量或能量之和。业内一般通用的,多指整个数据中心包括IT设备和配套基础设施的年耗电量除以IT设备年耗电量。 PUE计算公式如下: PUE =机械负载系数(MLC)+电气负载系数(ELC)+ 1.0 这里所有因素都是按IT负荷除以的比率: •1.0表示标准化的IT负载。实际上,这是IT负载因子(ILF),但始终为1.0。 •机械负载系数(MLC)是制冷设备、泵、风机等消耗的总能耗除以IT能耗,如下:
数据中心DATACenter_PUE-POE
2019/08/20
4.5K0
上海数据中心要求PUE小于1.3,怎么办?-孙长青
SuperNAP数据中心揭秘——中
image.png 前面介绍了switch通信数据中心的总体设计思路,下面再介绍其数据中心内核心的IT微模块,根据图6所示的IT微模块示意及相关专利介绍称,其每个微模块由18个机柜构成,两侧不同供电路有两个列头柜和一个综合配线柜。switch通信微模块热通道封闭,机柜顶部采用了模块化的封闭通道组件和标准化的强弱电桥架。根据微模块机柜数及前面机柜平均功率推测,每个微模块总功率平均约为160-180KW。无架空地板以及微模块框架设计,可以支持普通机柜或者整机柜上架。较宽的单机柜功率允许范围可灵活满足用户的各种
腾讯数据中心
2018/03/16
1.5K0
SuperNAP数据中心揭秘——中
数据中心机房建设方案
数据中心机房总面积大约178平方米,使用面积约为123平方米,分为三个功能区域,分别为主设备机房、动力机房、操作间、钢瓶间。各间需要单独隔开。隔开后主设备机房用于放置配线柜、机柜、服务器、小型机、网络设备、通讯设备等重要设备;动力机房放置UPS、电池、配电柜等。
全栈程序员站长
2022/08/22
2.7K0
数据中心机房建设方案
腾讯数据中心制冷节能的十八般武艺——下
(本文内容接《腾讯数据中心制冷节能的十八般武艺——上》) (备注:图片带播放图标的均有视频介绍,视频链接为: http://v.qq.com/vplus/51389fdde8883a85bcfe344f11a106c5/foldervideos/em6000001jms4px, 视频搬运来自youtube) 三、数据中心制冷节能技术现状与趋势 1、海水自然冷却,位置为功能服务 Green Mountain Data Center: 位于挪威西南角,常年利用8℃的深层海水(75米以下),对数据中心进行制
腾讯数据中心
2018/03/16
1.9K0
腾讯数据中心制冷节能的十八般武艺——下
云计算数据中心(二)
  针对云计算数据中心的特点,从数据中心的配电系统、空调系统、管理系统的节能策略和算法,以及新能源应用等方面分析云计算数据中心的节能技术,并对典型的绿色节能云计算数据中心进行介绍。
Francek Chen
2025/01/23
1740
云计算数据中心(二)
电子信息系统机房设计规范 GB50174-2017
1.1 物理安全主要包括:(1)机房环境安全 (2)通信线路安全 (3)设备安全 (4)电源安全
全栈程序员站长
2022/09/06
4.5K0
巧借东风——巽齐空调之道(上篇)
前言 沿着智能化、标准化、模块化和预制化的发展道路,腾讯于2015年起开始逐步研究和实践新型第四代数据中心T-block技术。面对T-block产品化和高效散热的需求,鹅厂“巧借东风”采用了“巽风之道”,即创新性的使用了间接蒸发冷机组作为主要的节能手段(图1)。间接蒸发冷技术可以利用高效换热芯体隔绝室内外空气进行换热,在保证室内空气质量的前提下充分利用自然冷源,而其紧凑的产品形式也确保了与T-block的完美结合,保存了高效快速的交付潜力。 (图1  间接蒸发冷却机组示意图) 从2015年起,腾讯在贵阳
腾讯数据中心
2022/06/24
1.4K0
巧借东风——巽齐空调之道(上篇)
数据中心专用术语词典首发!破译圈内暗语
随着互联网数据中心的蓬勃发展,IDC相关的讯息也呈几何级喷发。不胜枚举的行业术语、不拘一格的表达方式,对传递数据中心相关信息的影响已不可小觑。本文可以帮助大家更加熟悉、规范使用数据中心行业的术语。减少诸多误解,降低沟通成本。 同时,本文也可以帮助新同学熟悉数据中心行业术语、相关知识。 本文内容涵盖了电气、机柜、空调、消防、建筑、数据中心行业在内的六个子项,百余个词条。名词解释部分来源于外部白皮书、百度百科。 术语归属名词英文全称名词详细解释电气有功功率Active power在交流电路中,有功功率是指一
腾讯数据中心
2018/03/16
2.8K0
数据中心专用术语词典首发!破译圈内暗语
京东自建数据中心核心技术解密——基础设施篇
京东第一个自建数据中心是位于宿迁的京东云华东数据中心,整体由4个模块和1栋综合大楼组成,总占地面积将近6万平方米,总投资30亿元。 可以提供20万台的服务器安装和运营能力,存储能力不小于32EB,计算
京东技术
2018/04/10
2.9K0
京东自建数据中心核心技术解密——基础设施篇
某地中心机房改造设计详细方案,附word下载!
XXX的现有中心机房自2008年建成投入使用,是XXX信息网络基础平台,和各类政务信息/数据的处理中心。由于这些信息数据在重要性、保密性和时效性等方面有较高的要求,所以对机房的网络系统设备和环境提出了较高的标准要求。机房内安装的计算机设备、通讯设备、网络设备及辅助系统设备等都是高精密设备,需要一个非常严格的操作环境;更重要的是只有保障网络系统可靠地运行,才能保证信息/数据的正确和安全,和保证通讯网络枢纽畅通无阻地正确传递这些信息/数据。所以保障网络系统可靠的运行,需要依靠电子信息机房严格的环境条件(机房温度、湿度、洁净度及其控制精度)和工作条件(防静电性、屏蔽性、防火性等)。
网络技术联盟站
2023/03/13
1.2K2
某地中心机房改造设计详细方案,附word下载!
变频冷机在超低负载下如何安全又节能运行?
使用变频冷机是为了节能,节能的前提是“冷机处于非满载工况下运行”。但如果当冷机负载太低(低于30%以下),冷机不仅无法有效节能,甚至不能正常工作——此时冷机会反复出现剧烈的机组“喘振”现象,“喘振”次数多了,冷机会因自我保护而停机。
腾讯数据中心
2018/09/25
4.5K1
推荐阅读
相关推荐
4kw机柜无通道封闭CFD模拟分析及优化(上篇) -孙长青
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档