绿色数据中心随着节能、减排这个世纪性的话题,在逐渐升温。环境的可持续性发展正在成为IT行业日益优先关心的问题,信息技术的发展不能离开"绿色",而且还要受"绿色"的约束和有利于"绿色"的实现,同时绿色数据中心概念的提出和完善,离不开信息技术的发展与支撑。一场数据中心绿化乃至整个IT架构的绿化工程正在全面展开。
能量消耗和空间利用是数据中心最大的成本所在,也是限制数据中心扩展的主要因素,新一代绿色数据中心可以帮助企业节约成本,提高服务效率、快速响应业务需求、与业务目标更加匹配,承担节能、环保等社会责任。
"绿色"的含义主要指两方面的内容,一是数据中心机房的基础建设,限制有害建筑材料的使用,机房设计要隔热、保温、节能、防止辐射和静音等。另一点,IT设备本身要限制有害材料使用,降低功耗、减少体积、节省能源、静音等。我们把限制使用有害物质、降低能耗、节省空间、提高设备效能、静音等措施的综合采用和实施作为绿色数据中心建设的基本内涵。或者说,绿色数据中心就是指照明、机房设备、电力与IT系统都遵循最大能源节约及最低环境影响、同时在提高各个设备的利用率的前提下有较好的投资回报的标准设计。
在绿色数据中心建设中,不使用有害物质比较容易做到,这在建筑设计、计算机、服务器架构设计时加以注意和选择无毒无害物质和材料。通过屏蔽和隔音也能做到静音。问题在于对服务器能力需求的不断增加,服务器数量的增加,占用空间的扩大,数据中心电能的消耗是在猛增,所以说,降低能耗就成为目前绿色数据中心建设中的关键问题。
根据IDC全球研究,目前整个服务器的装机量是3500万台左右,每年服务器所消耗的电力费用是每年所购买服务器费用的50%左右,大概为290亿美元;能源消耗所带来的成本已经成为IT业行业所消耗运营成本的30%到50%。我国IT产品的总耗电预计为300亿--500亿千瓦时,几乎相当于三峡电站一年的发电总量! 而且数据中心电力消耗仍在以每年15%~20%的速度增长。惊人的数据告诉我们,IT节能刻不容缓!
大型数据中心为了完成企业的数据处理与分析任务,设置摆放着几十台、上百台、甚至上千台的服务器,以及供服务器存放数据的大量的磁盘阵列等,为了协同工作,这些设备还要通过网络把它们级联起来,并且还有用协同工作软件和设备把它们管理起来,这就造成设备众多、效率低下、占地空间很大,机房的供电、静音、空调、散热等问题都一一显示出来。面临着诸多要解决的问题,主要就是提高IT设备(服务器、存储、网络设备等)的电能利用率,尽量降低电能的热损耗,此外,在提高计算密度的同时,通过新的散热技术和数据中心的整体设计来解决散热问题。
数据中心的支撑系统和运行环境涉及的专业领域非常广泛,涵盖了电力、电子、计算机、机械、化工、热能等方面,绿色数据中心建设绝对是一项系统工程,我们将尽量系统地阐述解决这些问题的方方面面。
设计整体目标和全面规划,提出整体解决方案
首先要了解和分析数据中心应用的具体情况,针对这些问题提出一个整体解决方案,根据公司的发展做好规划,最好能对机房进行全面的规划,然后根据业务发展的需要分步实施。只有这样才能实现提高数据中心效能和降低电力损耗以及减少占地空间的整体目标。
今天,当数据中心的主动建设越来越清晰地成为我们IT建设任务时,我们需要静下心来好好分析一下数据中心建设的各种需求,并描绘出数据中心的发展蓝图,从而为我们未来的工作制定方向。要保持清晰的发展战略和方向,按照建设蓝图发展,全新的、高生产力的、具备前瞻性的、高度灵活扩展的新数据中心,将为在日益激烈的市场竞争环境下企业的发展保驾护航。
因此,我们需要为数据中心的建设建模。在这里需要考虑的是复杂任务的数据中心建设,为了保证数据中心的简约性,我们就需要为此对任务进行抽象,并进行普适化的处理。对不同的数据类型在不同的存储架构下实现不同的数据管理功能进行详尽的分析比较,并充分考虑业务流程的要求,以达到“管理简便、安全可靠、灵活扩展、经济实惠”的建设目的,一个现代化的数据中心将是一个“自动化的绿色数据中心。
数据中心建筑自身绿化
在建筑本身节能方面:为了减少数据中心机房与外界的热交换,节约能耗,同时也为了提高安全性,所有机房区的建筑物外墙均不设外窗,以减少太阳辐射热进入机房,减少房间的热损耗;建筑外墙结构采用高水平保温隔热设计,以减少数据中心机房冷量损失;建筑内墙、楼面采用保温隔热设计。
数据中心机房平面布局合理注重功能
机房各个系统的建设要依托于建筑环境中,也受到机房建筑结构、平面布局这些因素的制约,如建筑层高、形状、面积等。数据中心机房主体建筑平面布局注重功能性设计,建筑造型设计以简单实用为目标,由数据中心机房的基本构建模块、其它辅助房间、消防楼梯、通道、货运电梯等区域从里往外组合而成。
数据中心机房楼层高度应充分满足数据中心内地面空调送风和天花顶面回风和相关管道(空调水管、新风管道、消防排烟管道、气体灭火管道)的铺设。
高密度区域设计与高性能计算技术
数据中心在机房区内部可单独设置高用电容量机柜区域,以满足未来高密度设备的发展需求。提高单位空间计算能力,整合计算节点,一机多用,减少存储空间需求。除了系统布局外,相关的配套系统(如配电开关、线缆等)都进行相应的设计,以保证系统设计的完整与匹配。高密度设备的制冷问题是重点考虑的问题。高制冷需求对精密空调系统的设计与布局是很大的挑战,对地板下高度、空调送风距离、空调冷量设计、回风气流设计、机柜设计等都进行了全方位考虑,在保证总体冷量足够的前提下对功能平面做充分优化。
高密度与高性能计算技术是IT设备发展的必然趋势。
高密度区域的设计解决了高密度设备电源和散热问题,有效解决了数据中心局部热点的困境。
高效的气流组织结构设计
高效的气流组织设计将使整个机房制冷效果达到最佳,并最大限度地降低空调系统能耗。大中型数据中心机房的电子设备密集布放,总冷负荷比较大,每平方米大约在300~600W,有的甚至更高,其中设备冷负荷占到80%以上。针对于机房的余热量大、发热源集中的特点,就需要有合理的气流组织的分配和分布,有效地将机房内的余热消除,保证电子设备对环境温湿度、洁净度、送风速度以及人员对舒适度的需要。机房的气流组织形式有下送上回、上送侧回或下回、弥散式送风方式,气流组织形式的确定要认真考虑,要依据设备冷却方式、安装方式,考虑冷量的高效利用,使散热设备在冷空气的射流范围内。
据中心要建设专用的送风通道。数据中心的设备由于能耗大,发热量也大,下送风方式效果最好,因此必须在机房设置地板,建立专用的下送风通道。
高可靠,高可用的智能供电系统设计
对于数据中心而言,供电系统的“绿色”程度也显得至关重要。
在配电系统节能方面可采用高压发电机组、高压直接到楼层设计。可以建立起根本无需将负载转换到市电的最高可用性UPS供电系统,UPS出尽量靠近最终负载,减少了线路电力损耗,科学治理和抑制谐波,降低变压器和发电机损耗,采用高效率、谐波低的UPS设备,例如APC的英飞(InfraStruXure)解决方案采用模块智能UPS,其模块化设计保证了N+1冗余及拓展能力,品质卓越的UPS设备具备稳压和浪涌保护功能。
采用高效新型气体光源作为户外照明、室内采用节能灯具,采用自动化计量技术,精密智能配电设计,机架级别的配电监控,监控到每一个支路的电压、电流和容量,并可通过网络实现远程控制,达到电力资源的按需分配、按需提供。多使用直流电供电,因为直流系统的效率高于交流系统20%,国产华为的全系列电信设备、存储设备、安全设备、服务器设备以及网络设备都是支持直流供电的。
高性能冷却系统
过去40年左右冷却技术一直在发展,但却未能跟上IT设备的技术革新。传统数据中心冷却技术面临给现代高密度数据中心冷却的挑战时,似乎有点力不从心了,热气可能会和冷空气混合,系统无法识别热点问题,造成在某些区域的热点。具有IT设备的现代的数据中心的功率密度极有可能在每个机架达到15千瓦,应该考虑非传统技术的冷却。一种动态智能冷却概念值得推荐,这个概念是指创造一种环境,使冷却系统设备从环境中得到不断的反馈,并动态地调整自己,以适应环境参数的改变,这些参数是被监测的。这种类型的系统最适合当今的数据中心,并有助于降低电能消耗,这无疑是数据中心的一个福音。另一种概念是自然冷却,如果您的数据中心设在地理上适宜的位置,并且气候允许,最好的方法是利用在该地区能够提供的自然冷却。这一点可以通过使用节约装置来完成,节约装置通过室外现有的自然冷却,来补充数据中心的主要冷却。这些节约装置可以运行空气或液体,因为节省了电能,非常值得。在一些地区每年只要日平均温度低于10度,数据中心空调主机就不需要开动,利用外界的自然冷空气来冷却整个机房的环境。如果您的数据中心正在从头设计,一个最佳的选择是提供高架的冷却,而不是传统的抬高地板下的压力系统,这种安排可能节约能源开支高达30%。
在空调系统节能方面,数据中心机房可以采用集中冷水供冷设计,选用高能效比冷水主机设备,采用一次泵变流量系统设计,采用节能空调系统设计,冷却水泵冗余设计提高系统可靠性,采用高效冷热预处理新风系统,数据中心机房采用集中加湿,取消精密空调加湿功能,降低能耗。采用水冷冷却法,相同容量的水能够携带的热量是相同容量空气的3500倍。另外一种水冷的方法采用了一套复杂的外置冷却系统,通过机架内一个闭合回路水冷系统对电子元件进行冷却,供水和排水管道布满整个数据中心。这种紧凑型的系统能够减少空气流过的路径,从而减少了风扇的能耗。这种紧凑型散热方法最大程度上降低甚至是完全消除了冷热空气的混合。
APC基于机架级的InRow制冷技术,相对于传统房间级制冷,能够很好的确保核心交换机和刀片服务器针对热负荷转移而进行高效精确制冷,在降低了能耗的同时还达到了更高层次的制冷效果。刀片服务器架构的出现虽然大大提高了服务器的能力,但由于密集整合又带来了要解决的通风、散热问题,采用导入式的制冷方式,可以成功地解决刀片机架构的散热问题。
另外,应该加强对精密空调的整体监控,随环境和湿度变化随时调节运行。
IT微环境
相对于机房环境,IT微环境是IT设备真正的运行环境。IT微环境指的每个机架中的IT设备运行所依赖的环境,包含电力、空调、监控等关键元素。创新设计的机柜,充分考虑IT设备的配电、配风、承重、布线需求,满足IT系统可靠运行。
IT微环境是创建高可用性的必由之路,要提高整体IT系统的可用性必须从提高IT微环境的可用性入手。在IT微环境所涉及的诸多关键元素中,电力供应保护子系统已经被大多数用户认可和采用。但是机架中温度调节、热量管理、线缆管理等环节并没有受到足够的重视,没有真正为每个机架中的IT设备提供一个高可用的运行环境。
通常由于数据中心的服务器设备数量急剧增长,为了更便于管理和堆放,越来越多的服务器呈现机架化,刀片服务器的数量也日益增多。这种方式虽然节省了空间,但功率密度越来越高的机架内部环境就像一颗定时炸弹。要知道,系统的稳定性除了电力因素外,最大的相关因素就是热量控制。据权威电力保护研究中心测试表明,机柜内温度每上升10度,IT设备的寿命就会减少50%,制冷的问题不能良好解决,对IT设备的损害是相当巨大的。
传统的热量控制方法是降低整个机房温度,期望达到“冷却”服务器的作用。但事实证明这种方法只能对整个房间的温度进行控制,并不能保证机架中服务器的温度。比较科学的解决办法是以机架为单元,控制IT微环境的温度。通过合理设置冷、热通道,引导冷风均匀送到每个IT设备的进风处,并将热风有效送回空调,保证机架内的温度控制到适宜服务器工作的温度。
除了热量管理,机房线缆管理也是提高可用性必须要考虑的因素之一。我们不能仅仅只关注机房整体和局域网的布线明晰要求,在机柜里和机柜间这种特定的IT微环境中,杂乱无章的线缆大大降低了机房管理人员的工作效率。一旦网络出现故障,故障的查找与排除将成为噩梦。机房的配电、布线往往在机房建立初期没有得到足够重视,等到它成为问题的时候,就会发现它们已经严重到影响整个机房的可用性。
每个机架的线缆管理,包括配电、布线等等细节,都可能成为未来IT系统故障的导火线。想要一次性避免所有问题的最简单方法就是采用整体解决方案,将机架、制冷、电源、管理与维护集成为一个整体。
由于整体解决方案使用户无需关注IT系统细节问题,对可用性的提高效果明显且难度较小。这种站在整体可用性高度来设计IT微环境建设的整体解决方案,已成为大势所趋。
选用高可用低功耗的IT设备
高可用低功耗的IT设备的选用,要从CPU、存储器,到整台设备的各个层面加以考虑。
处理器厂商在倡导芯片的低功耗设计之外,服务器整机生产厂商纷纷推出各种"新鲜"的绿色产品,帮助拥有数据中心的大型企业提高能源利用率,同时改善数据中心的设计方案,从而降低数据中心的能耗成本乃至降低总体拥有成本。这的确已成为客观需求,时代的需要。
采用多核的X86芯片技术能提高数据中心的处理能力。常规的数据中心需要几百台、上千台服务器,主要问题在于服务器能力不能满足用户需求。采用多核的X86芯片架构的服务器,能力大大地提高了,而系统的复杂化,随着服务器的数量减少也大大地简化了。在存储系统上,保证性能的前提下,应选用重量更轻、可靠性更高,而功耗和运行成本更低的硬盘。
服务器最大的损耗并不是来自芯片内部,而是来自交流电与直流的转换,数据显示,交流电转化为直流电的效率一般为60~65%,以外的能耗显然直接就变成热量散出去了。对于数据中心来说,这些"多余"的热量又带来另外一个问题,那就是散热,大中型数据中心基本上要将成本的四分之一花在冷却方面。这样服务器交流电转化为直流电的制造出来的热能,还需要花费精力把它们"散"出去。虽然刀片服务器功耗要低得多,让计算密度大幅增高,同时也要解决散热的问题。刀片会在未来被更加灵活的服务器类型代替,这类服务器的计算架构会把内存、处理器、I/O设备一起作为共享资源池看待。
变革整体架构进行系统优化
简化数据中心物理配置(服务器,网络,存储等)复杂性,减少了占地空间。数据中心为了保证他们在峰值时的数据处理任务的完成,他们配置了几十台、几百台、甚至上千台服务器,为了这些服务器协同工作,通过网络和共享存储把他们联起来,而且还有设备和软件把它们管理起来,系统才能协调工作,完成数据处理任务,到过这些数据中心的现场都感到,系统联结非常复杂,走线很乱很难等等,数据中心整体架构需要变革。实际上目前使用的服务器架构已经沿用了几十年了,存在问题已经浮出水面,刀片机的问世使服务器的架构设计向前迈进了一步。但也带来了通风散热的问题,数据中心众多的网络设备、存储设备等,虽然通过网络连接起来,但实际上仍是一个个独立的群体。数据中心设备的整合、优化,进行集约化、集成设计已经提到了日程。实现提高服务器的效率和整个数据中心的效能,进行节能、降耗降低整体的拥有成本,这就要求数据中心和服务器的体系架构设计必须变革,用户在期待新一代服务器时期的到来。
Egenera公司经过系统优化,把这些需求整合成资源池,就像自来水一样连到各个用户供使用。经过这样的整合和优化,连接电缆在24个服务器时大约比原来的结构需求量减少到了八分之一左右。服务器的占用空间与其它厂商的刀片架构的服务器相比减少到四分之一左右。这些设备集约化组合带来的占地面积也随之减少。
虚拟化技术提高设备利用效能减少供电制冷成本
虚拟化的基本概念很简单,封装计算资源,运行共享物理基础架构,这样每台设备就好像在自己独立的物理环境中运行一样。通过虚拟化和整合,把存储和计算资源作为一个聚合存储池能够实现这个目的,用户可以基于需求来访问网络、系统和应用。除此之外,通过测量可以发现,通常一台服务器仅仅使用了总容量的5%~15%来提供应用服务。用虚拟化技术把多台刀片服务器集约化成一个虚拟化服务器平台,用虚拟化技术集成多台服务器的虚拟化平台,大大地提高了服务器的利用效率。使用虚拟化技术,对利用率过低的服务器的整合对终端用户是无缝的,用虚拟化和集约化技术提高了服务器的利用效率,也大大降低了能源消耗。服务器虚拟化,能够大幅提高IT负载的运行效率,节省能耗。虚拟化能够帮助服务器有效逻辑整合,合理控制硬件规模,提高服务器资源利用率,提高服务器CPU运行效率,而且虚拟化还能在备份、存储、宕机等方面提供好的支持。提供更快的备份和恢复速度,就能够搭建复杂测试环境,即节省机房和楼面空间,也降低了机柜、网线、空调的能耗。虚拟化技术是推动数据中心绿色应用的重要标志,使用较少的硬件设备和电源来实现更大的处理能力的虚拟化技术将会是未来广泛被利用的技术。
两三年前所提及的虚拟化是指某一产品线的虚拟化,而现在所说的虚拟化,则是指整个数据中心的虚拟化,包括服务器、存储、网络等产品都会被虚拟化。
虚拟技术的应用可以缓解服务器的性能利用低的矛盾,但当众多服务器组成一个数据处理平台时,如何发挥虚拟技术的作用,有关技术问题仍需研究解决。综合利用刀片、虚拟化、水冷、power Excutive等技术,能够降低数据中心40~50%的电力损耗。
数据中心需要全面的管理设计
新一代数据中心管理系统不但要求实现对各设备的安全运行管理,同时也要求机房管理系统提供成本运营的相关数据,满足相关节能规范,自动计量与自动监控,客户只对自身消耗的资源“埋单”。这些数据中心将基于面向服务的体系结构(SOA)的全面管理,按需提供用户所需要的计算能力、智能化供应的IT能力,就像SaaS一样运营管理并提供服务。目前数据中心行业正在使用的PUE(电源使用效率)指标是一个显示计算/IT组件(如服务器)实际的耗电量需求是多少的指标,要计算一个设施的PUE,简单地用IT设备耗电量除以整个设施电源消耗即可。这个结果的数字可以在1和无穷大之间,越接近1,你的PUE就越好。PUE管理对绿色数据中心来说是应该考虑的,PUE是解决数据中心能源效率的最佳标准。
现代化的数据中心要求系统提供的实用性、灵活性和扩展性比以前更高。今天,您需要的远远不止是服务器管理,而是需要一套保证整个IDC能够正常、安全、稳定运行的系统。数据中心集中管理提供您对任何地点和任何状态下所有IT资产的访问和控制,并使您无需亲临现场就可以进行数据中心的完全的访问与控制,从而使很大程度上方便您的全面管理。数据中心远程集中管理控制系统为IT专业人员提供在有IP网络的地方均可实现对数据中心的设备访问,如同这些设备就在身边一样。这种作法不仅可以加快响应速度,缩短停机时间,还可以提高IT设备的可用性,更使管理人员无论何时何地,自由管理。数据中心远程集中控制解决方案允许多名操作人员同时对数据中心内的服务器、小型机、刀片式服务器、虚拟主机和网络设备等进行远程集中统一操作控制,并可以全程记录操作人员对目标设备的操作画面内容,用以跟踪并规范操作人员的操作行为。不但可以及时发现操作人员常见的、无意的误操作,进行事后分析与纠正;更可以对操作人员的恶意操作行为进行追溯,提供出恶意操作的第一手证据。
绿色数据中心的建设已经长出了"绿芽",支持和驱动绿色数据中心成长的一些关键技术在不断的发展和完善,绿色数据中心正茁壮成长并开花、结果。浩德科技着眼于推动我国新一代绿色数据中心的行业规范与国家标准,希望新的行业规范与国家标准能够引导并带动中国绿色数据中心产业的升级。我们将依据最新国际标准、最领先的绿色数据中心设计理念、最优建造经验与运营管理规范,推出系统化解决方案。成为国内一流的以数据中心基础设施为中心,面向“灾备+生产”一体化外包的综合性IT服务集团。