论文部分内容阅读
如果数据中心升温会出现什么结果?服务器宕机、瘫痪,还是PUE(Power Usage Effectiveness,数据中心能效指标)值降低?在传统的数据中心里,我们看到的往往是前者,但在新型数据中心,我们却看到了后者。
冷却习惯能变吗
数据中心的能耗问题到底有多严重?据统计,当前数据中心的能耗已占到全球电能消耗的1.5%,数据中心为此产生的年度运营成本已高达260亿美元。而且,到2014年,这些数字还会翻倍。有趣的是,70%以上的能源消耗并非来自IT设备,而是空调系统等制冷设备。在一次采访中,数字视觉展示企业水晶石的数据中心负责人曾告诉记者,空调制冷设备带来的建设投资成本和运营成本是目前其数据中心的最大成本。
和水晶石一样,目前国内的很多数据中心一直在坚守18℃~21℃的冷却标准,以保证服务器的稳定运行。尽管大多数数据中心的运营者都在尽力使冷却标准达标,但我国数据中心PUE值居高不下的问题却依旧严重。英特尔亚太区数据中心事业部营销项目经理雷科夫却告诉记者,平均而言,在数据中心的总功耗中,约有40%会消耗于为建筑物和服务器冷却,以便达到18℃~21℃度的温控标准。然而,对低温环境的要求,主要是因为传统设备并没有过多考虑散热问题。如果人们开始从硬件平台的组建进行改变,让服务器去适应更高的工作温度,这样的温控标准就不再有意义了。
在美国,很多数据中心的运营者正在开始放弃传统的制冷标准,HTA(高环境温度)数据中心已经变成了新型数据中心的旗帜。绿色网格联盟、欧盟、美国采暖、制冷与空调工程师学会和其他组织机构都在推动HTA数据中心的相关规范。
“升温”的代价可以很小
七年前,谷歌的数据中心开始“升温”,如果相较传统数据中心所要求的18℃~21℃的冷却标准,其数据中心的温度指标可能从未达标过。但是,谷歌的数据中心却并没有因此而“宕掉”。三年前,美国的很多数据中心都开始像谷歌一样“升温”,但是保持在35℃标准之下的数据中心却大多实现了PUE值低于2的目标。事实上,数据中心的一点点变化就可以让耗能难题出现巨大改观。Facebook对其位于加利福尼亚州圣克拉拉市的数据中心进行了重新改造,使其能够在27℃的温度下进行工作。仅仅升温几度,Facebook便节省了22.9万美元的年度能耗开支,并为此从联邦政府获得了29.4万美元的能源补贴。
对于用户,针对能耗问题的数据中心改造需要越来越方便、简单。但实现这一目标,则需要多种技术从各个层面进行支持。如今,英特尔等企业正在致力于此,以便帮助传统数据中心以最小的代价完成向低PUE数据中心的改造。对于控制、降低和管理能耗问题,英特尔已经做到了“从栅级到电网级”的技术支撑。
比如,借助英特尔智能电网嵌入式技术优化电力从发电站传输到目标设施的过程,就能减少电能损失。英特尔的智能功耗节点管理器则可以为优化和管理数据中心的供电和冷却资源提供一条智能的途径,针对服务器的能耗管理技术能让数据中心充分利用其消耗的每一瓦特功率。此外,英特尔还在服务器和存储平台上应用了按需冗余电源技术,让数据中心免除了安装大型UPS的需要;为了降低服务器风扇的功耗及避免数据中心出现热点,英特尔还为风扇和冷却系统提供了可定制化的风扇控制;借助英特尔的智能节点管理器,可对主板电压进行调节。英特尔还利用铜散热片等方式改善了散热片的设计,通过先进的封装技术降低CPU的功耗等。不要小看这些细碎的节能技术,因为在HTA数据中心里,它们正是保证数据中心稳定运行的关键技术。
英特尔的很多技术所展现的节能数据也很诱人。比如,英特尔的功耗和散热感知调度(PTAS)技术,可降低20%的运营成本,同时还能恢复高达50%的未使用散热能力。电池备份解决方案则可以将数据中心UPS的相关资本支出降低多达五倍。
从国外众多“升温”数据中心的运营经验来看,服务器在高温环境下运作的稳定性问题已经得到解决,很多服务器厂商都推出了适合高温环境的服务器产品。在某些数据中心里,甚至两步改造就可以实现。在国内,一些大型数据中心也开始成为积极的行动者。
冷却习惯能变吗
数据中心的能耗问题到底有多严重?据统计,当前数据中心的能耗已占到全球电能消耗的1.5%,数据中心为此产生的年度运营成本已高达260亿美元。而且,到2014年,这些数字还会翻倍。有趣的是,70%以上的能源消耗并非来自IT设备,而是空调系统等制冷设备。在一次采访中,数字视觉展示企业水晶石的数据中心负责人曾告诉记者,空调制冷设备带来的建设投资成本和运营成本是目前其数据中心的最大成本。
和水晶石一样,目前国内的很多数据中心一直在坚守18℃~21℃的冷却标准,以保证服务器的稳定运行。尽管大多数数据中心的运营者都在尽力使冷却标准达标,但我国数据中心PUE值居高不下的问题却依旧严重。英特尔亚太区数据中心事业部营销项目经理雷科夫却告诉记者,平均而言,在数据中心的总功耗中,约有40%会消耗于为建筑物和服务器冷却,以便达到18℃~21℃度的温控标准。然而,对低温环境的要求,主要是因为传统设备并没有过多考虑散热问题。如果人们开始从硬件平台的组建进行改变,让服务器去适应更高的工作温度,这样的温控标准就不再有意义了。
在美国,很多数据中心的运营者正在开始放弃传统的制冷标准,HTA(高环境温度)数据中心已经变成了新型数据中心的旗帜。绿色网格联盟、欧盟、美国采暖、制冷与空调工程师学会和其他组织机构都在推动HTA数据中心的相关规范。
“升温”的代价可以很小
七年前,谷歌的数据中心开始“升温”,如果相较传统数据中心所要求的18℃~21℃的冷却标准,其数据中心的温度指标可能从未达标过。但是,谷歌的数据中心却并没有因此而“宕掉”。三年前,美国的很多数据中心都开始像谷歌一样“升温”,但是保持在35℃标准之下的数据中心却大多实现了PUE值低于2的目标。事实上,数据中心的一点点变化就可以让耗能难题出现巨大改观。Facebook对其位于加利福尼亚州圣克拉拉市的数据中心进行了重新改造,使其能够在27℃的温度下进行工作。仅仅升温几度,Facebook便节省了22.9万美元的年度能耗开支,并为此从联邦政府获得了29.4万美元的能源补贴。
对于用户,针对能耗问题的数据中心改造需要越来越方便、简单。但实现这一目标,则需要多种技术从各个层面进行支持。如今,英特尔等企业正在致力于此,以便帮助传统数据中心以最小的代价完成向低PUE数据中心的改造。对于控制、降低和管理能耗问题,英特尔已经做到了“从栅级到电网级”的技术支撑。
比如,借助英特尔智能电网嵌入式技术优化电力从发电站传输到目标设施的过程,就能减少电能损失。英特尔的智能功耗节点管理器则可以为优化和管理数据中心的供电和冷却资源提供一条智能的途径,针对服务器的能耗管理技术能让数据中心充分利用其消耗的每一瓦特功率。此外,英特尔还在服务器和存储平台上应用了按需冗余电源技术,让数据中心免除了安装大型UPS的需要;为了降低服务器风扇的功耗及避免数据中心出现热点,英特尔还为风扇和冷却系统提供了可定制化的风扇控制;借助英特尔的智能节点管理器,可对主板电压进行调节。英特尔还利用铜散热片等方式改善了散热片的设计,通过先进的封装技术降低CPU的功耗等。不要小看这些细碎的节能技术,因为在HTA数据中心里,它们正是保证数据中心稳定运行的关键技术。
英特尔的很多技术所展现的节能数据也很诱人。比如,英特尔的功耗和散热感知调度(PTAS)技术,可降低20%的运营成本,同时还能恢复高达50%的未使用散热能力。电池备份解决方案则可以将数据中心UPS的相关资本支出降低多达五倍。
从国外众多“升温”数据中心的运营经验来看,服务器在高温环境下运作的稳定性问题已经得到解决,很多服务器厂商都推出了适合高温环境的服务器产品。在某些数据中心里,甚至两步改造就可以实现。在国内,一些大型数据中心也开始成为积极的行动者。