2020年新基建政策的逐步落地实施,会给IDC产业带来了极大影响。如今已2021年,那在这一年中,数据中心建设又会什么不一样的趋势改变呢?
绿色是发展前提
预计到2030年,中国单位国内生产总值二氧化碳排放将比2005年下降65%以上,非化石能源占一次能源消费比重将达到25%左右。。
2020年9月,阿里云位于杭州市余杭区钱江经济开发区采用服务器全浸没液冷、高压直流、供配电分布式冗余、智能AI优化算法等多项节能技术进行规划设计与建造的全球规模最大的全浸没式液冷数据中心正式投产。由于服务器全浸没液冷技术的大规模利用,阿里仁和液冷数据中心整体能源使用效率PUE值为1.09,达到目前世界最领先水平;
2020年8月,隆基新能源发布了首款“装配式BIPV”光伏发电产品——隆顶,在数据中心配电领域实现绿色化突破。2021年1月10日,海兰信举办了海底数据中心(UDC)阶段性测试成果发布会,展示了国内首个海底数据舱实物,并发布了下水测试结果——单舱PUE可达1.076.......上述种种“黑科技”的应用,都预示着:数据中心未来将会朝着绿色、节能的方向发展。
无处不在的数据中心
2020年,5G技术规模化商用日渐成熟,5G技术的成熟也为数据中心的发展提供了新方向。随着5G的不断普及,车联网以及物联网也一定会有着翻天覆地的变化,会有越来越多边缘数据中心出现。预测显示,到2025年,全球物联网设备数量将达到416亿台,所产生的数据量将达到79.4ZB。同时有预测显示,到2023年,企业将有超过50%的新应用部署于边缘端;到2024年,边缘应用程序的数量将增加800%。这些数据的增加都会带来越来越多的边缘数据中心。边缘数据中心将成为众多厂商下一步抢占市场的重点发力方向。
数据中心机房发展趋势
1、重要性以及建设标准越来越高
2、机房建设面积越来越大
3、新技术、新产品层出不穷
4、工程投资越来越大
5、机房安全、运维、节能要求越来越高
而在机房规划中容易出现的问题,比如规划赶不上变化,过度规划,或者是规划无法实现的问题。之所以会出现这样的问题是因为不了解数据中心机房的特点以及不了解工程的建设流程。
01 数据中心定义
为集中放置的电子信息设备提供运行环境的建筑场所,可以使一栋或几栋建筑物,也可以是一栋建筑物的一部分,包括主机房、辅助区、支持区和行政管理区。
主机房:包括服务器机房、网络机房、存储机房等功能区域;
辅助区:包括进线间、测试机房、总控中心、消防和安防控制室、拆包区、备件室、打印室、维修室等区域;
支持区:包括变配电室、柴油发电机房、电池室、空调机房、动力站房、不间断电源系统用房、消防设施用房等;行政管理区:包括办公室、门厅、值班室、盥洗室、更衣间和用户工作室等。
02 数据中心建设级别
GB50174分为A、B、C三级,A级最高;
TIA-942《数据中心通信基础设施标准》分为T1、T2、T3、T4四级,T4最高;级别越高安全性越高,在同样规模的IT使用量下,前期的投资会越大。
T1数据中心基础设施:最基本的数据中心
“T1”的数据中心是基本型的数据中心配置,有计划和无计划的运营中断都会影响它的正常运行。数据中心机房配有供配电系统和空调制冷系统,但是它可以或不一定有架高的活动地板、UPS或者发电机设备。如果系统配置了UPS或者发电机,但这些设备是单个模块的系统并且有很多单路径故障点。基于一个年度内进行预防性检修和维护的需要,机房内的这些基础设施需要完全关闭停运。当发生机房内的设备故障、操作错误以及外部因素或自然原因等紧急情况时,将引起数据中心运营的中断。T1机房基础设施没有荣誉的组成部分,可提供99.671%的可用性。
T2数据中心基础设施:部件冗余
“T2”的数据中心与“T1”的主要区别是基础设施系统中的关键设备采用了部件冗余配置(N+1)。机房内有架高的活动地板、UPS和发电机,但仍然是单模块系统。关键的供电线路的维修和场地内其他基础设施的维修维护都需要关闭中断。T2的供配电系统和冷却分配虽然仍是单通路组成,但由于关键设备是冗余配置,所以可提供99.741%的可用性。
T3数据中心基础设施:可在线维修
“T3”数据中心的功能考虑到了任何有计划的机房基础设施活动安排,而不应使IT设备硬件系统运行中断。有计划的活动安排包括预防性和程序性的维护修理、零部件更换、新设备的增加(扩容)或调整部件的容量、部件和系统的测试等。对使用冷冻水系统的大型机房来说,这表示要配置两套独立的管路,在进行维修或者在一条管路上测试时,另一条管路要保证有足够的容量维持系统正常运行。无计划的活动,例如基础设施的零部件发生故障,仍然会造成数据中心的运行中断。T3由多条有效地电力和冷却分配路径组成,通常只一条路径正常运行,有多余的备用组成部分,所以可在系统正常运行的情况下进行有计划的工作安排,具有可在线维修功能。系统的可用性可达到99.982%。
T4数据中心基础设施:故障容错
“T4”数据中心基础设施最重要的功能是具备故障容错功能,对于机房有计划的活动安排,包括预防性和程序性的维护修理、零部件更换、新设备的增加(扩容)或调整部件的容量、部件和系统的测试和意外的事件,都要保证系统关键负荷不中断运行。在系统结构上需要同时又两路在线运行,供电系统应该是两个独立的N+1UPS系统冗余。关键负载的最大负荷不应超过每一个系统的最大输出容量90%。“T4”要求全部IT设备硬件有故障容错的双电源输入。严格的故障容错能力使数据中心具有维持意外故障发生或者运行错误时,不发生运行中断的能力。T4由多条有效的电力和冷却分配路径组成,并且具有故障容错功能,可提供99.995%的可用性。
03 数据中心配电系统
配电系统分为动力系统及UPS系统,前端总输入配置柴油发电机。配电系统是保证数据中心不间断运行,支撑数据中心运行的核心系统。UPS系统包括:UPS、电池、精密配电柜(列头柜)、工业连接器、PDU、STS静态转化开关(重要的单电源设备);动力系统包括:ATS双电源转换开关等;
04 数据中心空调系统
空调系统应保证数据中心的温度、湿度、洁净度、正压等,是保证数据中心运行的重要系统。常见的是温湿度独立控制系统。动力:空调主机(冷机/热泵、水泵、板换)、冷却塔;新风系统有过滤、降温、去湿的功能,保证机房的正压和洁净度。(新风机、防火阀);排风系统用于气体灭火后的排风,人工启动。集中设置排风机的系统,支管处设置电动密闭阀;末端设备有精密空调、加湿器等;给排水管道应采取防渗漏和防结露的措施;在房间内温度不超限的情况下,空调系统允许中断。
05 数据中心的气流组织
机房空调送风形式有上送风和下送风两种
A、上送风:
上送风系统在机房顶部安装散风口,冷风从出风口排出对机房内制冷,这种送风方式由于冷风先与空气混合,影响制冷效果,一般适合用在小型机房或是散热量小的机房一般也采用将天花板以上作为静压箱来处理,当有的用户需要接风管是时候,我们希望风管不宜过长,应保证静压消耗小于75Pa,如确实需要较长风管,考虑采用增压风机系统来弥补;
B、下送风:
下送风在地板上开孔,将地板下作为一个静压箱,在机架下方装有出风口,使经过空气调节的较低温度气体自下而上流过程控机架,将热量带走,精密空调冷风向下排出,将冷风送向机房内设备达到制冷,从而保证设备在一个适宜的环境温度下工作。
2020年新基建政策的逐步落地实施,会给IDC产业带来了极大影响。如今已2021年,那在这一年中,数据中心建设又会什么不一样的趋势改变呢?
绿色是发展前提
预计到2030年,中国单位国内生产总值二氧化碳排放将比2005年下降65%以上,非化石能源占一次能源消费比重将达到25%左右。。
2020年9月,阿里云位于杭州市余杭区钱江经济开发区采用服务器全浸没液冷、高压直流、供配电分布式冗余、智能AI优化算法等多项节能技术进行规划设计与建造的全球规模最大的全浸没式液冷数据中心正式投产。由于服务器全浸没液冷技术的大规模利用,阿里仁和液冷数据中心整体能源使用效率PUE值为1.09,达到目前世界最领先水平;
2020年8月,隆基新能源发布了首款“装配式BIPV”光伏发电产品——隆顶,在数据中心配电领域实现绿色化突破。2021年1月10日,海兰信举办了海底数据中心(UDC)阶段性测试成果发布会,展示了国内首个海底数据舱实物,并发布了下水测试结果——单舱PUE可达1.076.......上述种种“黑科技”的应用,都预示着:数据中心未来将会朝着绿色、节能的方向发展。
无处不在的数据中心
2020年,5G技术规模化商用日渐成熟,5G技术的成熟也为数据中心的发展提供了新方向。随着5G的不断普及,车联网以及物联网也一定会有着翻天覆地的变化,会有越来越多边缘数据中心出现。预测显示,到2025年,全球物联网设备数量将达到416亿台,所产生的数据量将达到79.4ZB。同时有预测显示,到2023年,企业将有超过50%的新应用部署于边缘端;到2024年,边缘应用程序的数量将增加800%。这些数据的增加都会带来越来越多的边缘数据中心。边缘数据中心将成为众多厂商下一步抢占市场的重点发力方向。
数据中心机房发展趋势
1、重要性以及建设标准越来越高
2、机房建设面积越来越大
3、新技术、新产品层出不穷
4、工程投资越来越大
5、机房安全、运维、节能要求越来越高
而在机房规划中容易出现的问题,比如规划赶不上变化,过度规划,或者是规划无法实现的问题。之所以会出现这样的问题是因为不了解数据中心机房的特点以及不了解工程的建设流程。
01 数据中心定义
为集中放置的电子信息设备提供运行环境的建筑场所,可以使一栋或几栋建筑物,也可以是一栋建筑物的一部分,包括主机房、辅助区、支持区和行政管理区。
主机房:包括服务器机房、网络机房、存储机房等功能区域;
辅助区:包括进线间、测试机房、总控中心、消防和安防控制室、拆包区、备件室、打印室、维修室等区域;
支持区:包括变配电室、柴油发电机房、电池室、空调机房、动力站房、不间断电源系统用房、消防设施用房等;行政管理区:包括办公室、门厅、值班室、盥洗室、更衣间和用户工作室等。
02 数据中心建设级别
GB50174分为A、B、C三级,A级最高;
TIA-942《数据中心通信基础设施标准》分为T1、T2、T3、T4四级,T4最高;级别越高安全性越高,在同样规模的IT使用量下,前期的投资会越大。
T1数据中心基础设施:最基本的数据中心
“T1”的数据中心是基本型的数据中心配置,有计划和无计划的运营中断都会影响它的正常运行。数据中心机房配有供配电系统和空调制冷系统,但是它可以或不一定有架高的活动地板、UPS或者发电机设备。如果系统配置了UPS或者发电机,但这些设备是单个模块的系统并且有很多单路径故障点。基于一个年度内进行预防性检修和维护的需要,机房内的这些基础设施需要完全关闭停运。当发生机房内的设备故障、操作错误以及外部因素或自然原因等紧急情况时,将引起数据中心运营的中断。T1机房基础设施没有荣誉的组成部分,可提供99.671%的可用性。
T2数据中心基础设施:部件冗余
“T2”的数据中心与“T1”的主要区别是基础设施系统中的关键设备采用了部件冗余配置(N+1)。机房内有架高的活动地板、UPS和发电机,但仍然是单模块系统。关键的供电线路的维修和场地内其他基础设施的维修维护都需要关闭中断。T2的供配电系统和冷却分配虽然仍是单通路组成,但由于关键设备是冗余配置,所以可提供99.741%的可用性。
T3数据中心基础设施:可在线维修
“T3”数据中心的功能考虑到了任何有计划的机房基础设施活动安排,而不应使IT设备硬件系统运行中断。有计划的活动安排包括预防性和程序性的维护修理、零部件更换、新设备的增加(扩容)或调整部件的容量、部件和系统的测试等。对使用冷冻水系统的大型机房来说,这表示要配置两套独立的管路,在进行维修或者在一条管路上测试时,另一条管路要保证有足够的容量维持系统正常运行。无计划的活动,例如基础设施的零部件发生故障,仍然会造成数据中心的运行中断。T3由多条有效地电力和冷却分配路径组成,通常只一条路径正常运行,有多余的备用组成部分,所以可在系统正常运行的情况下进行有计划的工作安排,具有可在线维修功能。系统的可用性可达到99.982%。
T4数据中心基础设施:故障容错
“T4”数据中心基础设施最重要的功能是具备故障容错功能,对于机房有计划的活动安排,包括预防性和程序性的维护修理、零部件更换、新设备的增加(扩容)或调整部件的容量、部件和系统的测试和意外的事件,都要保证系统关键负荷不中断运行。在系统结构上需要同时又两路在线运行,供电系统应该是两个独立的N+1UPS系统冗余。关键负载的最大负荷不应超过每一个系统的最大输出容量90%。“T4”要求全部IT设备硬件有故障容错的双电源输入。严格的故障容错能力使数据中心具有维持意外故障发生或者运行错误时,不发生运行中断的能力。T4由多条有效的电力和冷却分配路径组成,并且具有故障容错功能,可提供99.995%的可用性。
03 数据中心配电系统
配电系统分为动力系统及UPS系统,前端总输入配置柴油发电机。配电系统是保证数据中心不间断运行,支撑数据中心运行的核心系统。UPS系统包括:UPS、电池、精密配电柜(列头柜)、工业连接器、PDU、STS静态转化开关(重要的单电源设备);动力系统包括:ATS双电源转换开关等;
04 数据中心空调系统
空调系统应保证数据中心的温度、湿度、洁净度、正压等,是保证数据中心运行的重要系统。常见的是温湿度独立控制系统。动力:空调主机(冷机/热泵、水泵、板换)、冷却塔;新风系统有过滤、降温、去湿的功能,保证机房的正压和洁净度。(新风机、防火阀);排风系统用于气体灭火后的排风,人工启动。集中设置排风机的系统,支管处设置电动密闭阀;末端设备有精密空调、加湿器等;给排水管道应采取防渗漏和防结露的措施;在房间内温度不超限的情况下,空调系统允许中断。
05 数据中心的气流组织
机房空调送风形式有上送风和下送风两种
A、上送风:
上送风系统在机房顶部安装散风口,冷风从出风口排出对机房内制冷,这种送风方式由于冷风先与空气混合,影响制冷效果,一般适合用在小型机房或是散热量小的机房一般也采用将天花板以上作为静压箱来处理,当有的用户需要接风管是时候,我们希望风管不宜过长,应保证静压消耗小于75Pa,如确实需要较长风管,考虑采用增压风机系统来弥补;
B、下送风:
下送风在地板上开孔,将地板下作为一个静压箱,在机架下方装有出风口,使经过空气调节的较低温度气体自下而上流过程控机架,将热量带走,精密空调冷风向下排出,将冷风送向机房内设备达到制冷,从而保证设备在一个适宜的环境温度下工作。
举报