2013年1月17日,中国IDC行业顶级盛会--第七届中国IDC产业年度大典在北京国家会议中心隆重开幕。会上,捷克克莱门特集团执行董事姚赟发表了主题为“绿色运营欧洲数据中心规划建设”的演讲。他谈到,将来的数据中心会往两个方向走,一个是从小型,就是小的模块,也就是说往小的集装箱走。
相关专题:第七届中国IDC产业年度大典2013年1月17日,中国IDC行业顶级盛会--第七届中国IDC产业年度大典在北京国家会议中心隆重开幕。会上,捷联克莱门特集团执行董事姚赟发表了主题为“绿色运营欧洲数据中心规划建设”的演讲。他谈到,将来的数据中心会往两个方向走,一个是从小型,就是小的模块,也就是说往小的集装箱走。还有我们称之为模块化的数据中心。这两种的差异在哪里?像模块化的数据中心,我们认为将来会往仓储化发展。这是当初我们跟中国移动合作,现在搞了一个新的数据中心,在哈尔滨做了试点。其中也讲到了将来的仓储式就是简单的一个仓库,大量的部件是工厂预置化,部署的时间在3个月内,变成了微模块,差不多可以选择500千瓦和1000千瓦的模块,到现场去叠装。
如下为演讲全文:
很感谢那么冷的冬天大家来听这个会议。今天我想跟大家分享的是欧洲数据中心的规划和设计,因为大家听了很多美国人的东西,欧洲在节能、在数据中心的建设上我觉得是可以借鉴一下的。
我今天主要介绍一下如何规划、如何设计、如何建设现在所谓的数据中心也好,或者叫云后台平台。现代数据中心越做越大,我从事这个行业快20多年了,90年回国。20年的时间,这3年我把以前17年的活都干了,因为数据中心这3年里我算了算,我参与的数据中心的咨询也好,规划也好和一些工程也好,加起来有100多万平米的数据中心。这是什么量?90年代的时候一个数据中心2000平米、3000平米已经很大了,这两年都是十万以上的数据中心。这面临着数据中心将来怎么规划,怎么做设计的问题。
大家一直在提PUE,欧洲也是严格遵循PUE的原则,跟美国的绿格差不多。正好我们的母公司总裁是美国绿格的执行主席,欧洲还多了一个耗水量的指标,还有动态的PUE。在中国我不认为在南方地区能够实现PUE1.5,在长江以北实现PUE1.5还是比较能够轻松实现的。PUE靠几个方面,投最少的钱能够实现。
要搞一个绿色数据中心,我只要投下钱去就很容易实现绿色,大量的利用太阳能和再生能源。但是投资和回收还是一个正比,我们认为花最少的钱,也就是说回收率相对来说要比较高。有三点,一个是空调占到整个数据中心能耗的40%左右,这是PUE最大的节省点。可以从以前传统的数据中心用的机房专用空调,普通的空调是2.5到3.0,现在改到高效的离心和螺杆。还有我们对一些新技术的利用,采用一些特殊的设备,比如冬季的自然冷却和热回收技术以及磁悬浮技术,一些特殊的技术。我去看了东京的几个数据中心,日本的技术里用的是高效的直流螺杆技术,PUE差不多到8以上。还有冷热通道的管理和空气组织上的改进。
另外是配电。一个是从传统的以前集中式的UPS供电往模块化和高压直流的方式来供电,还有高压发电机的应用。发改委上个月发出文件,有50项新技术能源补贴里,着重提出对热回收的技术和磁悬浮压缩机的能源补贴。作为下一个15年的规划里,发改委对这两种空调的新技术有专项的资金的补贴,差不多达到100亿人民币。配电我也看到了这样的补贴,其中是对高压直流,对新电源的补贴达到了75亿。另外一个是做智能化照明。目前在欧洲已经比较普及了,我们的数据中心基本没有再做以前的光带或者大型的光带,一般都是采用了LED灯以及智能化照明,比如一些红外线,还有声控。
我们在数据中心产业大概是190亿的人民币,也是欧洲最大的数据中心的设备和建设者。在中国去年差不多是30个亿人民币,在数据中心产业里,包括设备,像机房空调、中央空调、柴油发电机,还有我们的设计公司、集团公司,还有集装箱的数据中心。
谈一下数据中心未来的发展。将来的数据中心会往两个方向走,一个是从小型,就是小的模块,也就是说往小的集装箱走。还有我们称之为模块化的数据中心。这两种的差异在哪里?像模块化的数据中心,我们认为将来会往仓储化发展。这是当初我们跟中国移动合作,现在搞了一个新的数据中心,在哈尔滨做了试点。其中也讲到了将来的仓储式就是简单的一个仓库,大量的部件是工厂预置化,部署的时间在3个月内,变成了微模块,差不多可以选择500千瓦和1000千瓦的模块,到现场去叠装。当初给中国移动做的方案,到现场的仓库就可以大规模的复制,交货期和成本比较便宜,可以节省35%以上。我们的PUE是1.36。
我们认为集装箱将来也是一个方向。去年我们成立了一个工厂,叫数普,与国内的几个大的企业投资在南京共同建立的。我们不需要电,自己自带8小时油库,包括里面的空调、服务器、消防、监控都在里面,我们是可以开着车走的。上个月我们跟总装备部、总参通讯部对我们提出了要求,做了好几次探讨。他们要求配到军区级和野战师,任何一个集装箱只要开车出去,因为到了现场是没有电的,要求我们提供三个能力。一是有空投能力,可以直接运走或者调装。二是保证8个小时到12个小时的基准油箱和一个外接油库。三是防水,边上带着浮标。我们认为军队只是个应用,在一些石油、医院和小型用户上不方便建设数据中心的时候,可以大规模部署这样的集装箱。像美国国会图书馆就需要2个集装箱,可以满足所有美国图书馆储存的图书数字化的需求。
有一张图是国内IDC基本造价的预算。传统的数据中心,按T3的级别差不多9万到10万块钱一个机柜,如果T4等级大概在12万到14万总的投资,按每个机柜是4个千瓦来计算。一个1000个机柜或者1万平米的数据中心,差不多投资达到1亿4000万,并不包含土建和建筑。投资里可以涵盖哪几个方向?有装饰的,有电器的,有UPS,有冷水机,有机房空调,有消防、机柜、安防,涵盖了十几个单元。这是目前数据中心大概投资的分布的机构。
数据中心有很多标准,我自己也参与了国家数据中心标准的制定,我是专家组的副组长。国外是T1、T2、T3、T4。我主要讲一下目前数据中心的配电机构。刚刚我提到过国家发改委发的文,认为将来的配电,尤其提到通讯机房和数据中心的配电,鼓励环保和绿色,尤其是对高压直流和新能源的一些要求。这是一个传统的数据中心的模式,可以看到很多的电缆和配电柜,而且很集中,这样从可靠性和能源利用上比较浪费。我看过大量的联通和电信数据中心,如果机柜运用不够的话,你的UPS供电负荷40%都不到。三家运营商,其中中国电信已经不太采用传统的数据中心,尽量往高压直流和模块化方向推进。
目前新的供电方式比较简单,直接从两路一万伏的进线,一万伏的发电,通过变压器一万到380的输出以后,直接到模块化和高压直流的UPS。直接到智能输出柜和机柜两个供电。没有UPS的输入,会省了大量的电缆和导线。最重要的是会省了很多电池,按照中国电信现在的做法,所有电池的数量是传统配电少了1/3的配置,而且每4到5年就要更换。模块化和高压直流采取的都是模块化插槽,开关电源的模式。如果有1000个机柜,我就上1000个机柜模块,支持在线插拔。
在暖通上有什么可以改进的?我们认为将来的需求有几种,低密度、中密度、高密度三种方向。低密度上采取的还是传统的冷热通道,中密度采取的是冷通道和热通道分离的方式,高密度采取的是冷冻门的方式。机房空调将来有几个大的方向会变革,一个是传统的带压缩机的F22和407,按照最新的欧盟的标准已经被全部禁用。欧洲去年要求所有的空调智能厂商,包括冰箱,全部禁止生产以及禁止销售非环保冷酶的空调,相当的坚决。所以基本上新型能源制冷机已经被确定为410A。
本身要求它的风机全部采用的都是直流的风机。这是一个机房空调的暖通图,机房建设上有一个很大的诀窍,如果是T4级的,一般的活动地板只要超过5000平米的数据中心,建议地板不要少过1米,最好到1.2米。上面有一个1.3米的隔断,回风的顶层。冷空气是从地板底下往冷通道送,这个方案不需要冷通道和热通道封闭,就能达到满足高密度的要求,靠的是天花板上黑的回风。这里面完全采用的是风道,热空气往上走直接进入到天花板上的热通道里。我不用靠完全封闭,相当于热通道封闭,这样的节能能达到35%以上。
冷通道封闭以后,空调的上端是连着天花板上的风道的。也就是说,热风它的热风进入到天花板以后,被热风再抽入到空调。冷热之间是不会乱蹿的。有一个特点,红色的部分是配电,为什么要把它分割为两层完全独立的,原因就是因为保证了供电的完全可靠性。当上面是A路,下面是B路,整个服务器是由A和B两路供电的。一般国内设计机房的时候,所有的电源和UPS、电池都放在一起,其实不科学。一旦一个电池或配电着火,可能会影响2号配电。由于电池和UPS着火的,在北京地区我已经听过三个了。都是由于不分割的原理,而且可以看到电池两个是完全独立的,而且是加重加黑的,完全靠消防和隔断、屏风做完全的隔离。
这是一个冷通道封闭的方式。以前喜欢用铁笼子隔,现在完全用冷通道再加密码的方式给客户做区域的分割和VIP的分割。还有瞬态的快速阻隔的数据中心的方法。
这是对付高密度,如何负荷特别高,可以直接把服务器的后背拆下来,直接装一个冷却门,带空调的。就能达到在20个千瓦左右的高密度的需求。
在我们设计当中很注重回风,如何设计机房的温度。按照我个人的想法,我是希望室内的机房提高到29度,后来种种原因从以前的22度到24度。现在我个人比较建议设计的机房差不多的回风都按29到30度,这样节能的效果会比较好一些。如果超过300平米的数据中心,目前国内多是建议采用另一种的暖通方式,我们叫做冷冻水的方式。其中主要是两种,一种是采用冷却水塔的,一种是采用风冷的。一种是耗水的,一种是不耗水的。为什么要说这个命题?因为目前在国内,也是去年,大家也知道中国铁路售票,已经连续停过两次了,网上售票公开道歉。很抱歉,里面用的就是水系统。一次是自己的阀门损坏造成了瞬间数据机房产生了50度的高温,停止宕机。还有一次是居民旁边挖自来水管,造成停电。所以数据中心因为水停电的,像建行运行中心已经停过两次。因为水停电的很多,因为供电上可以有两路,水肯定是一路,大型数据中心的短版就是水。数据中心的耗水很大,举个例子,我去鄂尔多斯的时候,告诉他们领导说一个数据中心1000个机柜,一万平米,差不多要耗400吨水/每天。如果现在跟我说上1万个机柜,一天要消耗掉4000吨的水,而且是自来水。可以想象耗水是相当大的。
将来的数据中心,在国内我认为这三个技术一定会被应用上,这也符合发改委在上个月刚刚在节能设备上作为技术支持的,愿意扶持70亿人民币作为支持的行业。一个是冬天自然冷却,一个是热回收,一个是磁悬浮。什么叫磁悬浮?磁悬浮的技术是目前中央空调能够做到的两大技术,一个是欧美的以磁悬浮为最先进,日本是以高压直流变频做到的。磁悬浮全世界只有两家能做,一家是美国的,一家是欧洲的。中国去年海尔跟美的,包括格力都投资了重金研究磁悬浮的技术。目前这个技术的PUE相当高,动态的能够达到11.6到12左右,比传统的数据中心是普通机房的4倍。因为它的压缩机,里面的轴承全部采用的是磁悬浮的零配件。
说一下自然冷却。目前大家有两种概念,包括发改委对数据中心的产业要求也提出来,数据中心要建立在两类地区。一类是寒冷的地区,一个类是能源充足的地区。在欧洲也一样,欧洲的数据中心开始往挪威走,法国、意大利数据中心纷纷的迁移。目的是在于多布林和挪威的气候比较寒冷,另外油气资源比较丰富,电力供应能够得到保证。去年以北京经信委和内蒙省政府签的协议是建议把数据中心迁移到内蒙去或者东北黑龙江一带,很重要的一点是对自然冷却的利用。我们配合了这个政策,提供了两款自然冷却。一种是直接冷风可以进入机房,今年做了很多大的数据中心,直接把冷风送到机房去。还有一种是空气质量不高的地方,把它作为间接的干冷气的方式,出了一体机。这个机器室外温度低于18度就可以开始自然冷却,关闭一部分的压缩机。室外温度低于10度或8度的情况下,完全自然冷却,不需要再用空调来制冷了,只需要水泵和风机的工作。
这是我们在北方地区的一个案例。屋顶上全部放的是风冷的自然冷却,只要室外温度低于10度以下,基本上整个数据中心的耗电差不多也就是100多个千瓦,平时可能是2000多个千瓦的耗电。
这就是一个普通的结构。我把风冷自然冷却放在屋顶,把机房空调放在中间楼层,带有水泵和集水器进行自然的循环。它的运行维修也很简单,这套系统可以做到免维护,冷水直接进入到风水机,相当于家里的地采暖,分到每一个机房空调,任何一个机房空调的维修会会停水。再到集水器回来,再到水泵进行一个循环。不需要任何人的运维,不需要加水。
讲一下热回收。我们现在跟几个大银行已经签了战略合作伙伴协议。我们在建数据中心的时候,一万平米的数据中心可以带三万平米办公楼的采暖和洗澡水。这样可以在一些数据中心里,后面的数据中心,前面所有办公楼的采暖,原来机房的余热是排到大气的,可以回收到差不多60度的水,可以给到所有的采暖和洗澡水。
感谢大家,如果大家对我们的产品有兴趣,在门口还有一个展台可以看一下,谢谢大家!