sunwk01201
sunwk01201
关注数: 13
粉丝数: 3
发帖数: 316
关注贴吧数: 4
数据中心蓄冷时间多长合适呢?-孙长青 设计规划部总工 孙长青 2010年3月25日,据国外媒体报道,由于欧洲数据中心过热以及应急措施失效,导致维基百科周三出现大范围宕机。 2017年3月31日,数据中心冷却设备故障导致IT设备过热,,一些资源自动关闭,以确保数据的完整性和弹性,微软在日本的AzureCloud服务中断,造成了大面积的损失。 冷却故障导致的数据中心中断是比较常见的,其造成的损失并不比电气基础设施故障导致的中断小,有时候还会造成更大的IT设备损毁的结果,所以数据中心的连续冷却是关乎数据中心安全可靠的重大问题。 数据机房要求有一个安全、可靠运行的空调系统来保证机房内所有计算机及其配套设备的正常运作。在数据中心的大型空调水系统中,为了达到连续制冷的功能,采用的连续制冷措施主要是水蓄冷技术。在Uptime 对于TierIV等级的数据中心要求里,明确要求了连续制冷功能;在其他规范和标准里面,对于这个功能没有明确而具体的要求。对于要求低于TierIV级别的数据中心项目,Uptime没有连续制冷的要求,而实际的工程项目中,国内市电电价相对柴发更加廉价,所以,平时运行中多以市电为主,业主为了保证系统设备任何计划性的动作而不会导致机房设备的任何服务中断,需要设置蓄冷罐来提供市电切换为柴电过程中的IT机房冷负荷,保证电源切换过程中的系统安全,这是为了数据中心安全运行的常用做法。 当市电紧急停电故障状况时,在切入柴电并使所有系统稳定运行之前,蓄冷罐供冷要保证稳定运行的时间需要考虑以下两方面: (1)当市电紧急停电故障状况时,为系统设置的柴油发电机组可以紧急启动提供备用电源,从柴油发电机组启动及并机切入系统稳定供电的过程所需时间约为3min。 (2)冷水机组在正常供冷过程中遇到停电故障时会进入故障保护状态,在电力供应恢复后,如果冷机为定频冷机,为了避免冷机同时启动时带来的电流冲击,需要冷机运行电流稳定后再加载其他冷机,而定频冷机启动需要35分钟左右,且只能逐台启动,如果冷机台数多的时候,启动时间会非常久,如果正常运行冷机台数为三台,则需要915分钟才能全部满负荷投入运行。所以数据中心机房一般不采用定频冷机。如果冷机为变频冷机,虽然启动电流不会对变压器产生冲击,但是从系统安全角度考虑,一般会给冷机启动一定的时间间隙,这个间隙一般为10s左右,而变频冷机单台启动时间为45s5min,当逐台启动时,如果正常运行冷机台数为三台,则需要25分钟就能全部满负荷投入运行。 定频冷机启动时间的启动顺序示意图: 变频冷机启动时间的启动顺序示意图: 柴发供电并切入系统稳定供电与冷机全部投入稳定运行的两者时间之和,如果采用定频冷机,最大总时间为3 15=18分钟;如果采用变频冷机,最大总时间为3 1/6*3 5=8.5分钟。 而数据中心蓄冷罐的蓄冷时间,一般设定为10~20分钟系统冷负荷,常用的取值为15分钟,这个数值是可以根据现实需要作出微调的。 蓄冷罐容量的选取,不仅与蓄冷时间有关,还与蓄冷罐所蓄冷量负责哪部分负荷有关系。数据中心的负荷一般分为关键负载负荷和其他负荷。关键负载负荷仅与IT机房设备发热量直接相关,一般占总冷负荷的60%~70%左右。蓄冷罐在选择计算时可以考虑全部负荷,也可以只考虑关键负载负荷,以数据中心安全需求而定。常规做法是满足以全部负荷在线运行15分钟所需冷量的蓄冷需求。
数据中心蓄冷系统选择-孙长青 钛基数据设计总监 孙长青 摘要:在数据中心的大型空调水系统中,为了达到连续制冷的功能,采用的措施主要是蓄冷技术。在Uptime 对于T4等级的数据中心要求里,明确要求了连续制冷功能;在其他规范和标准里面,对于这个功能没有明确而具体的要求。但针对非有计划的失电时,仍然需要保证空调系统提供正常冷却功能的数据中心来说,设置蓄冷系统不失为一个既技术可行又经济的选择。那么,到底选择什么蓄冷形式适合作为数据中心的蓄冷系统呢? 关键词:数据中心 水蓄冷 冰蓄冷 蓄冷罐 一次泵 二次泵 ☆孙长青,本科,学士学位,高级工程师(暖通空调),设计总监 为什么数据中心选择水蓄冷系统? 工程中常用的蓄冷介质有下列三种蓄冷介质: 水:利用水的温度变化储存显热量,蓄冷温度一般取4℃以上,蓄冷温差为5~11℃。水的单位体积蓄冷量较小,为5.8~12.77kW·h/m3,蓄冷贮槽体积较大。制冷机可以按常规空调工况或者稍低温度运行。 冰:利用冰的溶解潜热储存冷量,制冰温度一般取—4~—8℃;冰的单位体积蓄冷量较大,为40~50kW·h/m3,冰蓄冷贮槽所占容积较水蓄冷小。冰蓄冷可提供较低的供水温度,但至少1台制冷机为双工况型,在制冰期间的效率会有所下降。 共晶盐:无机盐与水的混合物称为共晶盐,共晶盐的相变温度一般为5~7℃。该蓄冷方式的单位体积蓄冷量约为20.8kW·h/m3,所需蓄冷槽的体积介于冰蓄冷和水蓄冷之间。制冷机可按常规空调工况运行。 综上,水蓄冷是单位体积蓄冷量最小的蓄冷方式,需要的蓄冷槽容积最大;但水蓄冷是目前数据中心常用的蓄冷形式,为什么要选择水蓄冷而不是选择其他蓄冷方式呢?有以下几个原因: 数据中心项目的冷冻水温度都较高,有的系统冷冻水供回水温度做到17/23℃;如果采用水蓄冷,冷水机的运行可以做到只有一种工况,而不是采用双工况冷水机,按照系统供水水温提供出水温度即可,可以在原有冷机参数的基础上设计蓄冷系统的水温参数,并且可以保证供冷及蓄冷工况时的冷水机效率均较高。 数据中心的蓄冷时间较短,满足市电柴电转换时间即可,一般设置为15分钟,也可以更短,所以水蓄冷单位体积蓄冷量小的劣势没那么明显,数据中心的场地可以满足设置水蓄冷罐,也可以在规范和功能许可下与其它一些水池有条件的合用。 数据中心的放冷时间不规律,且对安全可靠性要求很高,冰蓄冷和共晶盐都需要增加中间换热器,泵等专有蓄放冷设备,而水蓄冷可直接并联或串联进入冷冻水系统,与冷冻水系统共用水泵,蓄放冷过程简单,可实现机械式转换,安全可靠性高,能随时切入放冷,适应突然失电的情况。 水蓄冷的蓄冷温度提高,相对冰蓄冷和共晶盐蓄冷节省了向周围环境的散冷量,而数据中心的蓄冷罐需要一直保持蓄冷状态,节约此部分能耗有较大的节能意义。 为什么冷机与蓄冷罐并联? 按照冷水机与蓄冷罐的系统里的关系,可以有三种形式: 冷水机组在蓄冷罐下游的串联形式 冷水机组在蓄冷罐上游的串联形式 冷水机组与蓄冷罐并联形式 对于舒适型空调系统,设计蓄冷系统目的是为了利用电价差进行节能;而数据中心的空调系统,设计蓄冷系统目的是为了数据中心的连续制冷,当然也可以在特定条件下,利用这个系统进行充放冷运行而达到一部分节能的目的。而数据中心的蓄冷系统相对于舒适性空调的蓄冷系统来说,应该更加简单可靠。 蓄冷罐与冷机串联系统示意图 蓄冷罐与冷机并联系统示意图 对于舒适性空调水蓄冷系统,需要考虑的过程为:1单制冷机供冷运行工况;2单制冷机蓄冷工况;3单蓄冷罐放冷工况;4制冷机供冷蓄冷罐蓄冷联合工况;5制冷机蓄冷罐联合放冷工况;6待机。而数据中心空调系统仅需要考虑:1单制冷机供冷运行工况;2单蓄冷罐放冷工况;3制冷机供冷蓄冷罐蓄冷联合工况; 4待机(仅限于调试阶段)。 在工况3时,当采用冷水机组在蓄冷罐上游的串联形式时,会出现短时间末端供水温度不稳定情况;当采用冷水机组在蓄冷罐下游的串联形式时,会出现蓄冷罐的蓄水温度高于冷水机供水温度的情况。当采用冷水机组与蓄冷罐并联形式时,没有以上问题,而且系统可以做到简单可靠。因此,对于大型数据中心蓄冷系统,一般不推荐使用串联形式,宜采用并联方式;对于小型的数据中心蓄冷系统,考虑一次泵系统简单可靠,采用串联也未尝不可。 3. 数据中心系统典型蓄冷系统 下面是数据中心的比较典型的带蓄冷功能的冷冻水系统示意图,仅供各位读者参考。 小型数据中心冷冻水蓄冷系统 冷水机(N+1配置) 一次泵(N+1配置) 闭式水蓄冷罐(N) 管路双环路 大型数据中心冷冻水蓄冷系统 冷水机(N+1配置) 一、二次泵(N+1配置) 开式/闭式水蓄冷罐(N) 管路双环路 结论 两种系统各有优劣点,在数据中心项目中,一次泵系统相较于二次泵系统水泵能耗相对更低,二次泵系统相较于一次泵系统更安全可靠。每个数据中心都有独特的需求,蓄冷系统需要根据具体项目情况,采用合理的蓄冷技术进行设计,以达到满足数据中心安全节能的运营要求。
数据中心蓄冷罐的开式与闭式的选择-孙长青 设计规划部总工 孙长青 现代数据中心网 在Uptime Tier等级标准中,Tier IV(容错的现场基础设施)标准明确规定了连续制冷的要求,一般通过设置蓄冷罐来实现。当然,连续制冷也可以通过冷源系统设置不间断电源等方式来实现,只要确保电力中断时冷源能不中断即可。只是蓄冷罐的方式是最经济可靠的方式,所以,现实中,连续制冷方式多以蓄冷罐的形式为主。 随着数据中心的发展,国内目前对于级别达到TierIII及以上的机房,现在普遍配置了蓄冷系统,以达到制冷系统安全可靠的目的。至于蓄冷罐的形式,也是各式各样,水蓄冷、冰蓄冷都有实施的案例,其中多以水蓄冷为主。冰蓄冷的采用情况比较罕见,采用冰蓄冷系统多为利用园区冰蓄冷为主要考虑因素。 本篇主要探讨水蓄冷系统,水蓄冷系统的开式及闭式,是主要的两种蓄冷罐形式,而采用开式还是闭式蓄冷罐,受多种因素的制约,比如建筑高度,比如园区布置情况,比如空调系统形式,比如室内空间条件等等。 首先,来了解一下开式及闭式蓄冷罐的基本概念: 开式水蓄冷罐液面与大气相通,为非承压蓄能罐,内设布水装置,保证设备内在平面上充分分配,在垂直面上的水流缓慢,Re数低于800。当建筑物高于蓄冷罐液面高度时,开式蓄冷罐需配置板式换热器。 闭式水蓄冷罐液体不与大气相通,为承压式蓄能罐,一般为圆罐式,可由蓄冷罐直接向末端供应冷量。 现在大中型数据中心采用的空调水制冷系统管道布置形式,主要有两种主流系统,一种是一次泵系统形式,一种是二次泵系统形式。这两种系统形式,在数据中心设计中,到底是选择开式还是选择闭式,哪种形式对空调系统是最匹配的?下面将就一次泵和二次泵两种空调水系统形式中闭式和开式的优缺点做个对比,然后确定到底哪种方式更合适。 1、一次泵空调水系统 对于一次泵空调水系统,为了实现蓄冷罐内的水温为低温水,须设置在冷机之后,如下图所示,则此种情况下,蓄冷罐内的压力应为定压点压力加上循环泵的扬程,定压点的压力为冷冻水系统高差(一般为建筑高度)并考虑一定余量,一次泵系统循环泵的扬程一般要达到40m以上,若要蓄冷罐的接入方式采用直接接入系统的形式,开式蓄冷罐的高度需要高出建筑高度近40m,无现实实现的可能,由此,只能选择闭式蓄冷罐。 如要选择开式蓄冷罐,必须在蓄冷罐与冷冻水系统之间设置换热器,使蓄冷罐与冷冻水系统隔开。如此,则开式蓄冷罐的高度将不再受限。但是,由此会造成蓄冷罐与冷冻水系统之间的换热温差,蓄冷罐放冷时将导致冷冻水温度比正常运行时温度高,不满足数据中心稳定运行的要求。所以,在数据中心中,对一次泵空调水系统,蓄冷罐只能以闭式蓄冷罐的方式接入系统。 2、二次泵空调水系统 对于二次泵空调水系统,蓄冷罐的接入方式,可以是开式,也可以是闭式,因为二次泵系统的蓄冷罐,接在平衡管上,平衡管的作用是使一次泵与二次泵之间流量达到平衡,并保证蒸发器流量恒定,其两侧压差非常小,一般的开式定压系统就设置在平衡管上。 因此,当蓄冷罐采用开式时,可以直接作为定压罐使用,其液面高度高于系统最高点1.5m左右即可,在数据中心建筑高度不是很高的数据中心,多采用这种方式,在提供连续制冷的同时,还可以达到稳定系统的目的,又能节省室内建筑面积,是非常好的系统形式。 在数据中心建筑高度很高,开式蓄冷罐的高度与直径比太大,结构稳定性比较差的情况下,不得不放弃开式的蓄冷罐方案,转而采用闭式蓄冷罐,闭式蓄冷罐可以直接串联进平衡管,作为平衡管的一部分,平时可以缓慢充冷,保持蓄冷水温达到设定值,市电中断时完全做到无干预切换自然放冷,安全可靠高效。 所以,在数据中心中,对二次泵空调水系统,蓄冷罐既可以闭式蓄冷罐的方式接入系统,也可以开式蓄冷罐的方式接入系统。
同样是容错,数据中心国标A级与Uptime TierIV有什么异同-孙长青 设计规划部总工 孙长青 现代数据中心 现代物联网、云计算、互联网、大数据中心等现代化信息技术已经成为国家经济的重要支柱。信息化的基础是数据中心,可以说,没有数据中心就没有信息化的发展。 在数据中心行业,首先必须要遵守的便是《数据中心设计规范》(GB50174-2017),这是数据中心行业的国家标准,是所有数据中心设计过程中必须遵守的国家规范。《数据中心设计规范》将数据中心等级划分为A,B,C三级。 另外,伴随着数据中心发展的,还有一些国际组织也在行业内脱颖而出,影响力遍及全世界,也给国内数据中心行业带来了一些普遍接受的理念,其中最著名的当数TIA和Uptime Institute,他们都将数据中心划分了4个等级(在2014年,Uptime Institute与美国通信协会(TIA)达成一致,双方开始明确区分各自的基准体系,以避免行业混淆、明确界定责任。也就是说,TIA关于数据中心的评估体系中已经不被允许再使用“Tier”这个术语。 TIA改用了Rated-1,Rated-2,Rated-3,Rated-4。Uptime Institute依然使用TierI,TierII,TierIII,TierIV)。两者对四个等级的核心词是一样的:基本需求、冗余组件、在线维护、容错。此等级划分已被业内广泛接受。TIA和Uptime Institute对细节要求有些差异,在此不再展开。后文将以Uptime等级标准来与《数据中心设计规范》进行对比。 《数据中心设计规范》中对A级的规定如下: 3.2.1 A级数据中心的基础设施宜按容错系统配置,在电子信息系统运行期间,基础设施应在一次意外事故后或单系统设备维护或检修时仍能保证电子信息系统正常运行。(条文解释:A级数据中心涵盖B级和C级数据中心的性能要求,且比B级和C级数据中心的性能要求更高。意外事故包括操作失误、设备故障、正常电源中断等,一般按照发生一次意外事故做设计,不考虑多个意外事故同时发生。) 3.2.2 A级数据中心同时满足下列要求时,电子信息设备的供电可采用不间断电源系统和市电电源系统相结合的供电方式。(简言之,在一定条件下,一路市电一路不间断电源也可满足A级要求。) 1、设备或线路维护时,应保证电子信息设备正常运行; 2、市电直接供电的电源质量应满足电子信息设备正常运行的要求; 3、 市电接入处的功率因数应符合当地供电部门的要求; 4、柴油发电机系统应能够承受容性负载的影响; 5、向公用电网注入的谐波电流分量(方均根值)不应超过现行国家标准《电能质量 公用 电网谐波》GB/T14549规定的谐波电流允许值。 3.2.3 当两个或两个以上地处不同区域的数据中心同时建设,互为备份,且数据实时传输、业务满足连续性要求时,数据中心的基础设施可按容错系统配置,也可按冗余系统配置。这是A级数据中心的一种情况,主要适用于云计算数据中心、互联网数据中心等。(简言之,两个B级互备数据中心可以作为A级数据中心来看待) 暖通:采用冷冻水空调系统的A级数据中心宜设置蓄冷设施,蓄冷时间应满足电子信息设备的运行要求;控制系统、末端冷冻水泵、空调末端风机应由不间断电源系统供电;冷冻水供回水管路宜采用环形管网或双供双回方式。当水源不能可靠保证数据中心运行需要时,A级数据中心也可采用两种冷源供应方式。(备注:此条规定了要有蓄冷设施,不要求物理隔离及多路径。) 电气:A级数据中心应由双重电源供电,并应设置备用电源。备用电源宜采用独立于正常电源的柴油发电机组,也可采用供电网络中独立于正常电源的专用馈电线路。当正常电源发生故障时,备用电源应能承担数据中心正常运行所需要的用电负荷。(备注:此条规定需要双重电源,备用电源可不采用柴发。) 柴发:A级数据中心发电机组应连续和不限时运行,发电机组的输出功率应满足数据中心最大平均负荷的需要。柴油发电机应设置现场储油装置,储存柴油的供应时间应按本规范附录A的要求执行。当外部供油时间有保障时,储存柴油的供应时间宜大于外部供油时间。(备注:附表规定柴发储油时间为12小时,若有供油协议可更改这个时间。) 消防:A级数据中心的主机房宜设置气体灭火系统,也可设置细水雾灭火系统。当A级数据中心内的电子信息系统在其他数据中心内安装有承担相同功能的备份系统时,也可设置自动喷水灭火系统。 Uptime TierIV 的基本要求: a )一个容错的数据中心同时具有多个、独立的、物理隔离的系统来提供冗余容量组件以及多个、独立的、多种不同的、主用的分配路径同时为关键环境服务。冗余容量组件和多种不同的分配路径的配置应使‘N’容量在任何基础设施故障后能继续为关键环境提供电力和冷却。(备注:此条规定要求多条路径) b ) 所有 IT 设备都具有双电源,装置内部带有容错电力设计,且正确安装,与现场架构的拓扑相匹配。如不满足该要求则须使用转换装置如小型机架式转换开关。(备注:此条规定IT设备具有双电源) c ) 互为备份的系统和分配路径必须相互之间进行物理隔离(分隔),以防止任意单一事件同时对两套系统或两路分配路径造成影响。(备注:此条规定要求物理隔离) d ) 要求连续供冷。连续供冷依据《数据处理环境传热指南, 第三版》为所有关键空间提供一个满足IT设备 ASHRAE 最大温度变化范围的稳定环境工况。 另外,连续供冷的持续时间应该能保证持续供冷至机械系统恢复在极端环境条件下运行所提供的额定制冷量。(备注:此条规定要求连续供冷,没有规定具体形式,连续供冷可以是蓄冷设施,也可以是其他形式。) e ) 支持‘N’容量的 12 小时现场燃料储存。 Uptime TierIV的结果实效测试: a )任何容量系统、容量组件或分配元件的单一故障都不会影响关键环境。 b ) 基础设施的控制系统展现出对故障的自动响应的同时又能维持关键环境的正常运行。 c ) 所有单一容量组件和分配路径的元件都可以有计划地从系统中移除,而且不会对任何关键环境造成影响。 d ) 以任何理由将冗余组件和分配路径从系统中移除时,应有足够的容量来满足现场需求。 e ) 任何潜在的故障都必须能被检测、被隔离并被有效控制在一定的区域范围,同时又能维持处理关键负载的 N 容量。 看定义,《数据中心设计规范》A级机房的核心词汇与Uptime TierIV机房的核心词汇是一样的,都是容错。而对容错的具体细节要求,是有所不同的。下面将分6个视角进行对比分析。 1、关于容错(兼论市电与柴发) 《数据中心设计规范》与Uptime都是指的一次事故或单一故障。但是,它们对其中一个事件理解是不一样的,即:正常电源(市电)中断。市电中断在《数据中心设计规范》中属于一次事故。而在Uptime中,则不算事故,在市电中断的同时,要考虑其他单点故障的发生。 这个也是根据国情不同的一个体现,由于我国的市电稳定性相对较好,《数据中心设计规范》将之视为可靠电源,两路市电来自不同变电站,可以完全互备,再设置一路柴发电源或其他独立于正常电源的专用馈电线路作为备用电源,我们可以理解为2N市电+1备用电源,即可满足A级的要求。 Uptime体系根据世界各地的总体经验,经常会发生某地大面积停电的情况,它认为市电是不稳定的,只有在自己园区内的柴发电源才是可靠的,即使园区内没有市电接入,它也认为完全不影响数据中心等级。TierIV的柴发电源配置,需要N+1或2N台物理隔离的柴发机组,输出路径为物理隔离的2N即可,对市电无要求。 总体来说,国标从国情出发,再考虑经济性因素,并未把柴发列为关键组件,转而把市电接入列为了关键组件。而Uptime恰恰相反,将柴发列为了关键逐渐,而把市电完全视为一个随时可能发生的事故点。 这就造成了业内设计过程中面临的一个两难选择,最终结果便是,把两边分别不认为是关键点的市电和柴发全部算做关键点来考虑。这或许是《数据中心设计规范》与Uptime都不愿看到的结果。 2、关于不间断电源 《数据中心设计规范》在满足3.2.2条中5个难度不是太高的要求后,一路(N+1)UPS和一路市电供电即可实现机房的A级配置。而在常规2N供电的情况下,Uptime TierIV则要求必须满足2N的UPS配置。 此部分的不同要求,也是国标对经济性的比较,以降低数据中心总体拥有成本而做出的规定。毕竟UPS系统包括其电池、开关柜等所需的造价不低,在满足一些条件后,节省此部分的成本还是有非常大意义的。 现在一些大型互联网企业主流都在采用这种一路不间断电源和一路市电的配电方式。 但是,大部分的IDC数据中心,迫于市场要求的压力,主流还是两路不间断电源配电的方式,虽然这些IDC企业参照的标准是Uptime TierIII。毕竟有这个2N配置的UPS额外的大投资,所以会有很多人宣传所谓的T3+,导致T3+在数据中心行业大行其道,连Uptime也不得不每次都在其讲课或者公开论坛会议上批驳这个错误理念。不过,还是挡不住T3+的流行,毕竟钱都投了,总要宣传出来让人知道,这钱才能花得值不是? 3、关于数据中心内数据、业务对等级的影响 Uptime对数据中心内部的数据、业务等内容不做任何要求。而《数据中心设计规范》3.2.3的规定,大概意思可理解为:考虑数据、业务的互备,两个B级互备数据中心可以作为A级数据中心来看待。 关于此点,《数据中心设计规范》考虑的范围更加宽泛,参考了其他方面的要求,为国内金融行业两地三中心的数据中心常规做法提供了等级定位的支持。不过,就总体投资来说,两个完全互备的B级数据中心,其成本远大于相同IT容量的A级数据中心。 4、关于多路径及物理隔离 《数据中心设计规范》与Uptime都对数据中心做了双电源供电的规定。 《数据中心设计规范》中规定:冷冻水供回水管路宜采用环形管网或双供双回方式。Uptime没有像国标一样针对各专业提出具体要求,而是统一对数据中心架构提出了多种不同的分配路径的要求,也就是冷冻水供回水管路也需要多路径。 《数据中心设计规范》中没有明确提出物理隔离的要求。而Uptime明确规定了互为备份的系统或分配路径要进行物理隔离。 由以上可知,《数据中心设计规范》对物理隔离没有做规定,所以接受冷冻水环形管网的布置形式,这个应该是因为对故障场景的考虑范围不一样,国标考虑的故障场景是,系统路径或附件,由于环境或自身原因,而发生的故障。也就是对一次意外事故的设定局限在一个系统或一个路径内。 而Uptime考虑的单一故障,则扩展到了同时对两套系统或两路分配路径造成影响的故障可能会在没有进行物理隔离防护的同一走廊等空间内发生,所以提出了物理隔离的要求。 对多路径和物理隔离的要求方面,Uptime要比《数据中心设计规范》的高。这个应该涉及到了对单点故障定义的分歧。 5、关于柴发 《数据中心设计规范》A级数据中心发电机组并不是必选项,在满足一定条件的情况下,可以用其他电源作为备用电源。但是,如果采用柴发作为备用电源,则柴发机组应连续和不限时运行,发电机组的输出功率应满足数据中心最大平均负荷的需要。 Uptime TierIV要求柴发要能连续运行,也就是功率级引擎式发电机能够在不限小时数内以额定千瓦运行。 两者对柴发的要求都是连续运行,也就是柴发选型都要按持续功率来进行。以前大家都是按照主用功率来选取的柴发机组,这是无法满足数据中心A级机房和Uptime TierIV的要求的。 再看柴发的柴油储备,都明确要求储油时间为12小时,唯一的区别是,国标有额外的补充措施:当外部供油时间有保障时,储存柴油的供应时间宜大于外部供油时间。这也就意味着外部供油的时效性将决定储油时间,如果在柴油供油便利地区,园区储油时间可缩短;如果在柴油供油困难地区,园区储油时间将不得不延长。 6、关于消防 《数据中心设计规范》A级机房对消防提出了明确的要求。 Uptime TierIV对消防的要求如下:消防火警、火灾扑救或紧急断电 (EPO) 功能性的操作可能会造成数据中心运行中断。也就是Uptime对消防系统不做考察。 总结 通过以上对比分析,大家可以看到,由于国情、关注点、出发理念的不同,《数据中心设计规范》最高级别的A级,与Uptime体系级别最高的级别TierIV,虽然核心词汇是一样的,达到的目的是一样的——容错,但是具体到各个细节点的时候,还是有较大的差距的。至于大家觉得哪个更好,还是需要根据现实的自身情况进行比较确定,具体实施的时候,到底是要严格遵守国标A级,还是严格遵守Uptime TierIV,或者兼容并蓄两者的优点,需要再考虑经济性、可靠性、市场需求等,做出最适合自己的选择。
IT负载率与数据中心规模——孙长青 中科仙络 规划设计部总工 孙长青 一、数据中心规模指标 说起数据中心的规模体量,有多个描述口径,比如:数据中心占地面积、数据中心建筑面积、数据中心机架数量、数据中心服务器数量、数据中心市电容量、数据中心能耗指标(标准煤)容量、数据中心IT总功率等等。各种描述口径,都抓住了数据中心的各自特点,也都有各自的局限。 1、面积规模指标 数据中心占地面积及建筑面积都是数据中心规模的指标之一,但是同样面积的数据中心,其布置机柜数或IT总功率差距也会非常大,并不是广泛接受的表述方式。 2、机架数规模指标 最流行的表述方式是机架数。 机架数是最直观的数据中心规模表述方式,甚至在政府的正式文件中,也以机架数来体现数据中心规模,例如,工信部首次公布的《全国数据中心应用发展指引(2017)》中,就是以机架数来衡量和预估各地数据中心规模:根据预测,2018年北京地区可用数据中心规模将达到18.6万架左右,需求规模将超过30万架,供应存在较大缺口。与此同时,河北、内蒙古、天津等距离北京较近地区,预计2018年可用数据中心规模将达到49.2万机架。 平时各数据中心也常以机架数来做描述,如某某宣传自己上海布局的某数据中心规模达1万架机柜,极大的扩充了其在该区域的占有率,使其能够满足更多战略客户的迫切需求。 但机架数的表述方式,并不能将整个数据中心的规模做很好的限定,因为单机架密度千差万别,交代完机架数量后,还需要给出单机架功率密度,来确定最终的数据中心规模。 3、IT总功率规模指标 随着数据中心行业的发展,IDC的规模越来越大,其对数据中心规模的评价方式的影响力也越来越大。IDC行业的出租费用现在普遍以××元/kw(这个单价地域差距非常大,也随着时间不同有较大波动,不含电费的价格大概在6001200之间,含电费的价格以4kw的机柜为例,单机柜大概在60008500之间。)来计价。 也就是说,数据中心的总体规模,最终折算到IT总功率是最直接体现其经济价值的。那么,总的数据中心规模,以总IT功率来统计将是最贴合实际的一个指标。 由此延伸而出的总面积、总市电容量、需要的能耗指标,都需要根据各自的规划设计水平及运维水平进行优化,在IT功率一定的情况下,来实现最低的单位IT功率建筑面积、最低的单位IT功率市电容量、最小的PUE值等。所以,整个数据中心的规模,规划设计起着至关重要的作用。 二、IT负载率 1、IT负载率简介 IT负载率是IT设备实际所需要的功率与额定负载时所需的功率的比值,用公式表示为 Kc=Psb/Psn 式中: Psb——IT设备实际所需功率。 Psn——IT设备额定功率。 在规划设计过程中,确定数据中心规模的时候,IT负载率是一个绕不过的因素。这个IT负载率,在不同的人群使用时,取值也有很大不同,其范围落在在0.8~1之间。 那么,这个IT负载率在规划设计时,该不该要呢?数值取多少合适呢? 银行等金融类数据中心,有时会取IT负载率为1。 但是在其他行业,比如互联网行业,IDC行业投资方等是希望IT负载率取值小于1的。这是直接与经济利益挂钩的,在能耗指标相同的情况下,IT负载率取值0.9或1,可以放置的IT服务器数量就要相差10%,这个在算投资回报收益的时候,将是一个非常可观的数值,任何投资者都会眼红的。马克思说:“一旦有适当的利润,资本就大胆起来。如果有10%的利润,资本就会保证到处被使用…… ”咳咳…… 2、为何会有IT负载率的存在? 规划设计中,一般以单机架功率为最小统计单位,而IT机架功率是由一台台服务器组合而来。服务器电源做的是交直流转换,转换过程中本身需要消耗一定电力,大致有以下几个特点: a.低负载情况下,电源转换效率很低,这意味着更多的电力消耗在电源本身上; b.随着负载增加,转换效率迅速上升,负载为40%-60%时转换效率达到最高; c.负载超过60%后,电源转换效率随负载升高缓慢降低。满负载时电源转换效率反而相对较低,电源空耗更多的电力。 真正在服务器运行的过程中,都不会以额定功率运行。比如,以300w的额定功率服务器为例,真正运行的时候,一般是达不到这个值的,根据行业不同,徘徊在额定功率的50%~90%之间。 这就为IT负载率的存在埋下了伏笔。 三、IT负载率与数据中心规模的关系 以IT总功率表示的数据中心规模一般由以下公式确定: IT总功率=Q÷8760÷PUE÷ρ 其中:Q——年耗电量 PUE——年均PUE ρ——IT负载率 由公式可知,IT负载率的大小,直接影响到整体数据中心的规模。 规划设计过程中,通常会以单机架功率来进行整体规划,假设根据数据中心需求,各方最终确定单机柜功率为4kw。那么,以42U标准机架为例,比如说2U的机架式服务器,假设单台功率为550W,则放8台的功率即可达到4.4kw,而42U标准机架,考虑散热空间及其他辅助设备,可以放15~20台2U的服务器。现实中,单机柜功率达到16kw,甚至20kw的也有不少案例。这就是单台机架内仍然有很大的扩展空间,可以加大单机柜额定功率。 根据笔者多年数据中心Uptime设计认证(TCDD)的经验,Uptime对其认证的任何等级的IT机房,都要考虑极端气候条件下最不利场景能保证N的容量需求,其认证机房均要求IT负载率必须为1,不得取小于1的系数。 而后面的建设及运行阶段的IT负载率,根据业务的不同,实际数值也是天差地别,有些业务低峰时期IT负载率甚至会低于60%。 这其中蕴藏着极大的宝藏,有待后期运维和管理部门继续挖掘这部分潜力,当然,如果挖掘不当,可能就是给自己挖坑了!慎之!
1
下一页