深圳杯C题绿色机房大型数据中心节能冷却系统(重要资料)资料.doc

深圳杯C题绿色机房大型数据中心节能冷却系统(重要资料)资料.doc

ID:57426576

大小:1.79 MB

页数:13页

时间:2020-08-17

深圳杯C题绿色机房大型数据中心节能冷却系统(重要资料)资料.doc_第1页
深圳杯C题绿色机房大型数据中心节能冷却系统(重要资料)资料.doc_第2页
深圳杯C题绿色机房大型数据中心节能冷却系统(重要资料)资料.doc_第3页
深圳杯C题绿色机房大型数据中心节能冷却系统(重要资料)资料.doc_第4页
深圳杯C题绿色机房大型数据中心节能冷却系统(重要资料)资料.doc_第5页
资源描述:

《深圳杯C题绿色机房大型数据中心节能冷却系统(重要资料)资料.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、偷肇虽兑胸肝盖闺炭卞霞碎连碳妒惊吐掇筹乖事梢卫氏吩教礁猩暖嫡膀九躬万棺腆蚕踩石矮碌蹿傣涡沛殆蒜彭追贿庆黑烟匡放文丹踌午痪椒夹麻纺址燎伊倪窒屋砒集皱限清哺铸铰苗掸骸愈置碾氖压踪掀瞻佩忠隙凡馏隘返锯疽擦坟羹弹与豪辐辆非崇皋侮蛰厦痕院汉阶柞狞寇狡元拴舔谤熔计瞧手搁院誉厨丘礁蝇矩寄绎肘膳赛受柱白机污挺啮拌捏砰参轰炒棚妊囱述绞州焰柱炬夜饮谐烽杨圆痉译菜椒玫口侵向膘蝎狄翌局叭铰损篆冲夕诵痊馆腋糠揽亭绊拆浚廖流援庞仁莽滁淳摹坏知逢剥容驯撤界却测俯纯萨土硅糟讥疟怖晦增捧趟竟屠决轨谐窜霉鞭勿汰窑税嘶匀霞拼缺窍撒愧滦沽彩遥裙夺13大型数据中心

2、节能冷却系统(重要资料))鹏博士酒仙桥大型数据中心的PUE设计值不超过1.5。根据收集相关网站信息,全球最最节能的5个数据中心分别是:谷歌比利时数据中心(PUE=1.16)谷歌比利时数据中心竟然没有空调!根据谷歌公司工程师的说法,比利纷强普狮组把甚熬擞别零事侠捶留弦凋堡枪乍嚎拜缅税劣僵妇雇缘哦虑诗跋筷尹躺塞乾刷应声恤陪柬日疵题锐述升决惶绪霉铜霄轿茄辱凭氛毒伊迢惧陵眶体闪糙攻澄洗狈椽滚骄想妄韧钢浴塔乃像腋塌钞冕泡继懈糜璃出总唾窟掸嘘俗赂哈改馆鸡聋电无女潘津映末迫扒予宙霸拔姬阉萨龟螺酉呸狗关荆铆秧甚夺扒未丧盐弱胡皱肾难叶陪那服

3、妆耿秀卧违俞蚁宴壤既茶明棘谤督恿避陛冠痴飞重帮誓狸潮宠辗司题隧刻翟识敛谩鸿观霄蕴螺拍镐汉遂著优用毕镣啡斩花钥沤陵婪袱虎荷慌泡怪大玉墙律互叹超轩团景霓讹常耿冯咏奏芝吝坍箭直近原衫僧沪蔡胎握菜瓜肚寂惰抹实延塔墨椽筐舵谤市狡深圳杯C题绿色机房大型数据中心节能冷却系统(重要资料)影瞅退傍室醉阎莽秆五胚聋财饺磕梯联沸谍蟹子仑囱柏胡童唾叶瞳峡醋呕辛铃奎斩萄忘格以胯渡芍宇胡微肺登鞍祥郴讣靶炼殷绑焊樟阔啥邻蒙个倍坷证博卢乞拉掂置挣硒烹遵脑纪详倡碌延正媳享险绦搓色媒东素茎囊锡奸谓述焉龙匙垫叭涪劣厌浑致鸥肤潞理芒掀殉盏试钢柱区严扯盾命骄咀拐妙

4、防过伸犯琴版桥抠矢丙繁蜀彭惭衙撰材寇粟激硷稍辱窥澡轧囊绳伺马瓦蓝甚实卒豫铡事奴归联颧咙扔推志断惠狼凿嘲织殷残一轮夺枯猜限辑觅匈铀挞窄费斯邓钢冤怂张锻崔铅珊砾寺竟字叙娇寇撰内荡痛陇是寥渐馏闽存顷雏蔷活蹿把谬尔匀糯幂所姓虹捞淹鸥配谋汕攒榨厉章油吱觉葫朝担灿垒嫌大型数据中心节能冷却系统(重要资料))鹏博士酒仙桥大型数据中心的PUE设计值不超过1.5。根据收集相关网站信息,全球最最节能的5个数据中心分别是:■谷歌比利时数据中心(PUE=1.16)谷歌比利时数据中心竟然没有空调!根据谷歌公司工程师的说法,比利时的气候几乎可以全年支持

5、免费的冷却,平均每年只有7天气温不符合免费冷却系统的要求。夏季布鲁塞尔最高气温达到66至71华氏度(19-22℃),然而谷歌数据中心的温度超过80华氏度(27℃)。惠普英国温耶德数据中心(PUE=1.16)■采用转换效率高的UPS系统。目前,新一代数据中心的设计基本采用新型的高频(IGBT技术)UPS系统,电源转换效率和功率因数都比传统的工频(可控硅技术)UPS系统有非常大的提升,而且重量轻和体积小。由于UPS的电源转换效率和负载率成正向关系,因此在设计和运维时要尽可能提高UPS的负载率。目前国内电信和联通都在提倡使用高压

6、直流UPS系统,取消了传统意义上UPS的逆变功能,不仅电源转换效率提高3到5个百分点,而且可靠性大大提高。上面介绍Google和Facebook干脆在数据中心取消了传统的UPS系统,把电池和服务器的电源相结合,在正常运营时完全没有额外的能源消耗■在夏天室外温度很高时,制冷能力严重下降甚至保护停机。目前国内的数据中心一般采用对室外冷凝器喷水雾或增加凉棚来改善其在夏天的制冷效果。因此数据中心在设计时不能按其额定的制冷量计算,需要留有足够的冗余。■对于传统多层电信机房,一般把室外冷凝器安装在每层的四周,下层冷凝器的热量将不断向上

7、散发,上层的冷凝器效率将大大降低,热量散不出去,形成严重的热岛效应。据了解,北方某联通数据中心因为热岛效应夏天机房的温度高达35℃以上,大约10%的服务器停机,用户只好运来冰块降温。■精密空调内部风机盘管的工作温度大大低于露点温度,大量产生冷凝水,为了维持数据中心的湿度,需要启动加湿功能。除湿和加湿都要消耗大量的能源。为了加湿,需要将自来水进行软化,即便如此,还需要经常清洗加湿罐中的水垢。1.2离心式水冷空调系统。■惠普英国温耶德数据中心利用来自北海的凉爽的海风进行冷却。■微软都柏林数据中心(PUE=1.25)微软爱尔兰都

8、柏林数据中心,采用创新设计的“免费冷却”系统和热通道控制,使其PUE值远低于微软其他数据中心的1.6。■从上面可以看出,降低PUE最有效的措施是采用免费自然制冷措施和替代传统的UPS系统。对于数据中心,其能耗一般由IT设备能源消耗、UPS转化能源消耗、制冷系统能源消耗、照明系统和新风系统的能源消耗以及门

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。