绿色计算,助力数据中心节能
一、背景描述
随着社会信息化水平的快速发展,政府、经济及社会领域的各个行业对信息系统的依赖程度越来越高,信息产业的能耗越来越高。同时,近年来,计算设备和资源数量仍在持续快速增长以满足云计算、大数据等新兴技术发展需要,计算能耗以及IT产业对环境的影响问题日益突显,以数据中心为例,其每年用电量可占到全社会用电量的1.8%左右,能源消耗巨大。因此,提升数据中心绿色发展水平,加快技术产品创新和应用,走高效、清洁、集约、循环的绿色发展道路,实现数据中心持续健康发展显得尤为必要。本文主要从绿色计算在数据中心的应用及其节能效果展开。
二、绿色计算的定义
早期对于绿色计算的研究主要是从功耗问题开始的,关于绿色计算完整的研究与分析,迄今文献还比较少,目前仍然没有公认的定义。绿色的含义可分为三层,即能源和资源的节约,能源和资源的高效利用与循环利用,对人和环境的友好,即低碳与无害。计算可理解为终端设备、计算机、服务器和相关子系统。所以,绿色计算的内涵可以具体有以下三层:采用高效, 节能和低功耗的计算设备和配套设施;在保证信息服务可靠性的前提下, 合理分配计算资源;保障可持续发展的低成本, 低能耗的新型系统与应用。绿色计算的主要载体是终端设备、计算机、服务器和相关子系统数据中心机柜、配电单元及制冷系统。绿色计算的目的是优化计算资源的设计、建设、使用及回收过程,消除计算机系统对环境的不利影响,实现节能、环保和节约的目的。绿色计算的手段主要为计算机软件优化,计算机硬件优化制冷方案优化,空间布局优化及回收与循环利用。
三、绿色计算的研究对象
绿色计算的研究对象广泛,我们对研究绿色计算的相关文献进行梳理,提取关键词,制作与绿色计算有关的知识图谱,发现目前研究绿色计算的学术资料中,大部分主要针对数据中心、云计算、和服务器,关于这三者的研究占据绿色计算相关研究的70%。另有少部分将研究重点放在CPU、GPU、算法调度和能耗优化上,除此之外,还包括了资源管理、空间利用,二氧化碳、噪声、辐射等。
图1 绿色计算的研究对象
四、绿色计算在数据中心的应用及节能效果浅析
本文从IT系统、供配电系统、空调系统、以及数据中心整体架构四个层面分析了计算过程中的节能技术,包含动态电压频率调整技术、基于GPU加速的异构计算技术、液冷服务器技术、整机柜服务器技术、市电直供+UPS/HVDC 高可靠节能供电技术、热管背板冷却技术、氟泵空调技术。并对以上关键技术进行逐一分析。
1、动态电压频率调整
对于芯片的功耗,降低供电电压是最有效的方法,但是降低电压时,电路的翻转速度将会降低,这意味着系统必须以较低的时钟频率运行,但是单纯的降低工作频率并不能降低能量消耗。因为对于一个给定任务,频率和时间的乘积为定值,因此就出现了同时降低供电电压与时钟频率的方法降低功耗,这就是DVFS(动态电压频率调整)技术。
DVFS系统主要流程为:
采集与系统负载有关的信号,计算当前的系统负载。根据系统的当前负载,预测系统在下一时间段需要的性能。将预测的性能转换成需要的频率,从而调整芯片的时钟设置。根据新的频率计算相应的电压。通知电源管理模块调整给CPU的电压。对于应用处理器来说,需要可靠的电压-频率的对应关系;升频率时先升电压,降频率时后降电压。
目前,DVFS技术已经被主流处理器厂商推出的主流处理器支持。例如:英特尔推出的Speedstep和EIST技术;AMD推出PowerNow技术和Cool&Quiet模式。
2、异构计算技术
计算单元可以分成:通用计算单元(CPU),专用计算单元(GPU/DSP)等,由一个或若干个通用计算单元加一个或若干个专用计算单元构建的系统就是异构计算系统,由两者协同起来共同执行通用计算任务就是异构计算,目前在PC上最常见的组合就是CPU+GPU。CPU擅长处理不规则数据结构和不可预测的存取模式,计算通用性强,计算复杂度高,但计算性能一般。GPU擅于处理规则数据结构和可预测存取模式,如图形处理计算,更适用于计算强度高、多并行的计算。异构计算APU的设计理念则正是让CPU和GPU完美合作,达到整体性能的最佳化,让CPU的更多资源用于缓存,GPU更多资源用于数据计算。CPU+GPU 平台是目前较成熟的异构平台,除此之外还有CPU+MIC、CPU+FPGA等异构计算技术,目前英特尔、IBM都在进行异构计算开发,facebook、微软和百度等企业也通过异构计算来提升计算性能。
3、液冷服务器技术
液冷技术,顾名思义,与空气冷却相对立的,指的是将高比热容的液体作为传输介质,液体传热冷却技术。液冷技术由于成本问题,主要应用于高性能计算领域。目前常见的液冷服务器主要有三种,沉浸式液冷服务器、冷板式液冷服务器、喷淋式液冷服务器。
沉浸式服务器,简单说,就是将服务器主板完全浸泡在冷却液之中,通过冷却液的外部循环,将热量带走;冷板式液冷通过嵌入服务器主板上的冷却板,冷却液流经冷却板后,循环将热量带走;喷淋式液冷服务器多安装在整个机架上,自上而下,直接将冷却液喷淋在服务器主板上,反复循环,达到冷却的效果。
目前,生产液冷服务器的主要厂商有中科曙光,华为,联想,惠普,思科,3M,富士通等。据调研,液冷技术可以减少2/3容量的空调机设备投入,传统风冷空调的高能耗的问题,可以通过液冷服务器得到有效解决。
4、整机柜服务器技术
整机柜服务器,顾名思义,就是将原有机架+机器分离的架构进行融合,打包成为一个独立的产品,以一个整机柜为最小颗粒度进行交付的服务器。其主要结构在于将原先单个服务器的电源和风扇整合为一体。
整机柜服务器优势主要体现在三个方面:
首先在散热方面,单机配置独立风扇进行散热。单台机器一般配置6个系统风扇来保障散热,48台服务器所需要的风扇数量将达到288个,通过集中散热,将每个服务器节点的散热风扇移除,整合成一个散热风扇墙,布局在整个机柜的后部,48个节点仅需18个风扇,数量减少93%以上,散热功耗降低25%以上。
其次在电源方面,以单机作为服务器的最小组成单元,考虑系统的供电冗余,需要配置双电源模块以支撑。按照48台传统机架服务器来计算,需要96个电源模块来实现双路供电,供电配置过高造成电源负载率过低,使得电源转换效率仅能达到85%左右,集中供电,单个机柜仅需8个2400W电源模块,即可满足48节点的供电,转换效率高达94%,减少90%的电源数量,供电系统效率提升9%。
在次在空间利用方面,一个42U的标准机架,考虑交换机,散热等必要外设,一般配置16台1U服务器一个42U的整机柜服务器,最低可保证32个节点部署密度,最多可布置80个节点,空间利用率提升1-2倍。
目前,国内从事整机柜服务器开发项目主要有浪潮信息,整机柜服务器的标准化参数也是BAT主导的中国信通院深度参与的天蝎项目的重要组成部分。
5、市电直供+UPS/HVDC供电技术
几十年来,为解决数据中心内IT设备的供电间断和供电波动等电能质量问题,数据中心一直采用UPS+后备电池方案,这种方式在世界范围内得到了广泛而成熟的应用。但实际项目中通常会根据不同可用性的需求,大量采用N+1或2N系统配置,因冗余度较高而导致实际负载率较低,直接导致了实际系统效率仅约80%-90%。近年来,由于市电稳定性提升,市电+ups或市电+hvdc可以匹配双路UPS的可靠性水平,但效率可以大大提升。
目前部分数据中心运营商开始尝试采用1路市电+1路(AC)UPS同时供电的方案。随着HVDC的逐步成熟,部分用户也开始尝试采用1路市电+1路HVDC同时供电的方案。这个方式将成为未来的发展趋势。
6、背板空调制冷技术
背板空调是由冷却盘管、提供冷源的制冷机组和冷却水系统三部分组成。机房冷空气在机柜内部设备风扇的作用下,被吸入机柜并对设备进行降温,吸热后的空气流向安装在机柜背部的冷却盘管,热空气与冷却盘管进行热交换,将热量传递给换热器内的制冷剂,温度降低后的冷空气从背板吹出,完成机房空气循环。首先背板空调的冷却盘管更贴近热源,机柜内设备排风口的温度更高,提高冷热温差,强化传热。其次避免了局部热点。背板空调由于紧挨着机柜,安装在每个机柜的背面,一对一冷却设备,直接对局部热点进行降温,达到消除局部热点的目的。第三背板空调占用空间小,不需要放置空调,也取消架空地板节省数据中心内部的空间。
7、氟泵双循环空调系统技术
所谓的氟泵双循环空调系统,是采用智能双循环设计,在冬季或过渡季室外温度较低时,利用制冷剂泵(氟泵)对制冷剂进行室外循环换热,充分利用室外自然冷源;在夏季或过渡季室外温度较高时,采用压缩机对制冷剂进行压缩循环换热;此种智能双循环设计能够在全年一定时间内不必开启压缩机制冷,大大降低空调能耗,也称之为智能双循环氟泵节能空调,依据其特点,简称为“氟泵空调”,在同一套制冷系统中实现压缩机制冷、泵系统制冷以及压缩机和泵混合制冷三套循环系统。双冷源空调在北京地区的全年能效比AEER为7.37;普通空调运行压缩机的全年能效比AEER为3.91;AEER计算满负荷运行全年节约约46.9%,节能效果明显。
五、小结
随着工信部相继出台《信息通信产业节能减排工作指导意见》《加强绿色数据中心建设的指导意见》《工业绿色发展规划》,绿色计算技术目前在国内新建的数据中心已开始部分或批量应用,目前数据中心在互联网企业和第三方IDC企业的带动下,PUE已可以达到1.5左右的水准,我国的绿色数据中心发展趋势呈现出定制化、模块化、虚拟化的发展趋势;新建的数据中心以超大型为主,逐步向高功率密度、低PUE发展。
作者简介
付培良,中国信息通信研究院泰尔系统实验室能源与环境测评部工程师,2006年毕业于哈尔滨工程大学,南京理工大学MBA。从事通信电源、电池相关产品的检验检测研究。参与通信行业标准制定4项,拥有发明专利2项,国内期刊发表论文多篇。
联系方式:fupeiliang@caict.ac.cn
文章来源:中国信通院CAICT