阿尔西绿色数据中心空调解决方案
- +1 你赞过了
“绿色数据中心”从概念提出到ICT行业相继跟进不到一年的时间,但在全球节能环保的大趋势下,在各大IT厂商的推动下,绿色数据中心很快从“起点”上升到“沸点”:无论是从芯片级入手提升服务器性能,还是改进基础软件架构效率,或者是改善机房基础设施环境,各大厂商纷纷提出各自的解决方案。阿尔西作为ICT空调制冷专家,也为打造绿色数据中心提出了相应的空调解决方案。
“绿色”作为节能环保的代名词,如今已风靡全球,随着全球气候日趋变暖和能源日趋紧张、能源成本不断上涨,企业中的高能耗部门数据中心正面临着降低能耗、提高资源利用率、节约成本的严峻挑战,构建节能型的数据中心受到越来越多的数据中心管理人员和IT厂商的关注,并成为未来数据中心的必然发展趋势。
“绿色数据中心”从概念提出到ICT行业相继跟进不到一年的时间,但在全球节能环保的大趋势下,在各大IT厂商的推动下,绿色数据中心很快从“起点” 上升到“沸点”:无论是从芯片级入手提升服务器性能,还是改进基础软件架构效率,或者是改善机房基础设施环境,各大厂商纷纷提出各自的解决方案。阿尔西作为ICT空调制冷专家,也为打造绿色数据中心提出了相应的空调解决方案。
一、数据中心耗能惊人
深圳某银行系统的信息中心机房(建筑面积4000平米,在用面积2000平米),一年的电费达到了800万元人民币,约合0.4万元/平米/年(单位面积电费),而另一年级为400平米的国家级单位的高密度计算中心,一年的电费竟高达1300万元人民币,约合3万元/平米/年。据调查结果看来,对于一般中低密度的企业数据中心(EDC),每年的单位面积电费大约在0.4~1万元人民币之间,对于一般的互联网数据中心(IDC),单位面积电费则在 0.8~1.5万元之间。
以上只是国家信息化的一些微观数据。从宏观上看,据国际上一些权威的数据调查公司披露的信息显示,根据我国大陆地区服务器保有量180万台来推算,07年所有服务器的总能耗约150亿人民币。仅中国移动一家公司,2007年通信机房的耗电就达到了约10亿度电。
除了电费开销巨大的问题外,随着IT设备的功率密度的发展,许多数据中心还面临着“有物理空间没有用电负荷”的尴尬局面。以某直辖市的证券管理公司的大型出租机房为例,6层楼的机房中,只出租了4层,就将整座建筑的用电容量消耗殆尽。目前,很多城市的大型数据中心用电增容问题已经不能靠高价购买用电容量来解决,而不得不选择迁址另建。
二、数据中心能耗组成
数据中心的电能主要被两类设备所消耗:IT设备和机房设备。
IT设备主要包括服务器、存储设备和网络设备;机房设备包括UPS、配电设备、线缆、空调设备、照明设备、监控设备等。从目前国内外的调查数据看,绝大多数数据中心中,机房设备的耗电要比IT设备的耗电高。
GreenGrid提供的数据中心能流图
如上图所示,在这样一个典型的数据中心中,空调系统(包括冷水机、加湿器和机房空调)消耗了45%的电能,UPS供配电系统消耗了24%的电能,照明系统消耗了1%的电能,IT得到的电能仅占30%。据广州省电信规划设计院提供的数据,广州地区大型IDC机房的空调系统全年耗电平均占IDC总耗电的45%(2006年数据)。
三、数据中心空调解决方案
数据中心的节能可以从IT设备节能、软件虚拟化节能和机房设施节能等三大方面来进行。但由于前两项都是建立在对服务器等核心IT设备的匹配研究基础上得到的,而目前相关的技术并不成熟,使用的成本也过高。与其相比,从机房设施的节能入手更加经济和可靠。
而正如上文所讲,空调系统的能耗约占整个数据中心能耗的45%,所以提高空调系统的运行效率是数据中心节能的有效手段。阿尔西基于多年服务于ICT行业的经验,针对数据中心提出了一整套的空调系统节能解决方案,包括合理的气流组织方式、集中冷源的冷冻水系统、高效节能的设备部件以及自然冷却技术等诸多易于操作的解决方案。
对于新建数据中心来讲,空调系统节能可以通过以下途径实现:
1. 选用高效机房空调设备
机房空调设备在设计之初就选用节能部件:高效涡旋压缩机、无级调速EC风机、电子膨胀阀等。机房空调设备的能耗主要由5部分组成:压缩机能耗、加热器能耗、加湿器能耗、冷凝风机能耗、蒸发风机能耗。其中压缩机能耗最高,采用高效节能的涡旋压缩机比采用普通压缩机节能约30%,且使用寿命更长,故障率更低;而蒸发风机的使用时间最长,为了保证数据中心内的IT设备正常散热,即便压缩机不工作,蒸发风机也需要全天工作,所以采用节能的风机非常必要。EC风机采用直流供电,高效EC电机驱动,无涡壳外转子风机叶轮,具有高效、低噪、无级调速等优良品质,比普通风机节能约30%。
2. 合理提高空调机工作温度
在其它工况条件不变的情况下,空调机的设定温度(回风温度)每提高1℃,则空调机效率提高3~5%。目前HP公司在美国的实验室正在进行服务器可靠性测试,试图提高机房环境温度5℃。从现实角度讲,国内的用户可以考虑从改善气流组织的方面入手来提高空调机的工作温度。就目前情况来看,改变数据中心的控制温度是最有效的节能措施之一。
3. 合理设计气流组织方式
传统的气流组织方式,无论是上送风系统还是下送风系统,都是通过冷却环境来冷却IT设备,整个数据中心类似于一个冷库,很多没有IT设备,不需要冷却的地方也冷却啦,等于额外付出了冷量,这样的气流组织方式是不经济的。而且由于热负荷分布不均匀,还会出现局部过冷或过热现象,影响主设备的正常工作。另外,由于冷热气流混合,部分冷空气短路,空调系统的冷量利用率很低,不到50%,造成了电能的极大浪费。
阿尔西公司根据国内外的先进经验,推荐使用冷热通道隔离的气流组织方式,即“冷通道隔离系统”或“热通道隔离系统”,能够彻底解决冷热气流混合的问题,空调机送风温度可以从16℃提高到20℃;回风温度可以从23℃提高到30℃,从而极大的提高了空调的运行效率,降低了能耗。以冷通道隔离系统为例,在极端情况下,空调机的送风温度可以提高到23℃,回风温度可以提高到30℃。由于冷空气全部被约束在冷通道内,与传统的“冷库型数据中心”相比,这种 “冰箱型数据中心”的环境温度更高,受维护结构漏热的影响也更小,进一步增加了节能效果。采用这种冰箱型的气流组织方式,可利用的冷量比冷库型的约高 30%,可以立即节省25%的空调设备初投资。
4. 合理选用机柜及附件
对于传统机柜前送风方式,必须采用网孔门机柜,并选择适宜的机柜门过孔率,尽量减少空气进出机柜的阻力损失,从而实现更大的送风量,提供热交换效率。
机柜立面图风机曲线图
另外,合理使用盲板既可以避免冷空气在机柜内短路,又可以防止热空气回流到冷通道,减少冷热气流直接混合的可能,提高冷量的利用率。
盲板图片
5. 采用带自然冷却功能的冷冻水系统
作为集中冷源的冷冻水系统与各自独立的直接膨胀式空调系统相比,制冷效率更高,设备更集中更少,运行更稳定,故障率和维护成本更低,国外众多大型数据中心普遍使用冷冻水空调系统。
由于数据中心热负荷较大,常年需要冷水机组运行,即便室外温度很低的情况下也要照常工作。这样,当室外温度较低时,就可以利用冷空气冷却高温回水,不需要开启压缩机即可为空调室内机提供冷量,这种方法即为自然冷却方法。利用自然冷却效应开发的冷水机组即为自然冷却冷水机组,它与普通冷水机组最大的区别在于它在冷凝盘管之前安装了自然冷却热交换盘管,旨在优先利用环境冷空气冷却盘管内的回水。
阿尔西提出的数据中心自然冷却冷冻水系统,已通过国家专利审批。它通过冷冻水循环管路的精心设计以及控制逻辑的优化,实现与机房内部空调气流组织的完美匹配,并且可以根据室内热负荷以及室外环境的变化,对冷冻水流量进行灵活的调节,将自然冷却的效益发挥到最大,始终使机组保持高效运行。此套数据中心空调解决方案根据安装地区气候条件的不同,可以实现30~70%的节能,使得运行费用大幅缩减,而为此增加的空调设备初投资,最多两年的时间就可以收回,而整个机组的使用寿命至少有10年。
北京地区全年及每月空调能效比
北京地区每月节能比率
最新资讯
热门视频
新品评测