IT设备的耗电量之占总机房耗电量的三分之一, 

现在的问题是接下来会发生什么?“未来用电量还要增加怎么办?完全可能因为制冷问题无法解决,导致我们不能在往数据中心中添加任何设备。今天,这个问题已经开始显现出来了。”Schmidt说。

  为刀片服务器散热有五种基本方法。一旦选中了其中一种方法,可以用多种不同产品和方法来具体实施。

  为刀片服务器散热有五种基本方法。一旦选中了其中一种方法,可以用多种不同产品和方法来具体实施。表1对此进行了概述。  

图片 1

  要应用刀片服务器,必须选择其中一种方法。这种选择要基于目前设施的制约因素以及用户的需要和喜好。

  应用方法的选择

  了解了现有设施的制约因素并且在用户的各种需求和偏好间进行了适当取舍之后,就可以从前面所述的5种基本方法中做出选择了。刀片服务器的应用方法的选择是基于散热问题的,因为这些问题是实际系统中最主要的制 约因素。确定应用方式后,电力供应问题也就随之确定了。

  影响应用方式的最主要的不确定因素就是刀片服务器的密度问题。许多用户更愿意将刀片服务器以最大密度安装。在现有的数据中心环境中这往往不是一个恰当的选择。实际上大部分刀片服务器都采用模块化的机架结构,可以以较低的密度在机柜中安装。例如,IBM BladeCenter采用独立的机架,一个机柜中可以安装1到6个刀片不等。虽然降低安装密度看上去没有充分发挥刀片服务器的优势,但实际上系统的成本、可用性和安装速度都有所提升,特别是在现有的数据中心环境中安装刀片服务器的情况。

  目前的许多数据中心设计的功率密度为每个机柜2kW甚至更低。在这样的环境中按每个机柜10-30kW的功率安装刀片服务器时,这些刀片服务器需要消耗大量的电力和散热功能,这与机房最初的设计不成比例。正因为这个原因,在现有数据中心中安装刀片服务器时节省空间通常是没有实际好处的。因此,在现有数据中心分散放置刀片服务器是既实用又划算的。以饱和密度安装刀片服务器通常只是在专为支持高密度方案新建的机房设施中比较划算——安装规模极大或者空间极其狭小。

  因此,刀片服务器安装的核心选择就是刀片服务器安装的分散程度――即每个机柜中安装多少个刀片。用户选择的刀片服务器的品牌和型号可能会制约刀片的分散程度,例如,一些刀片服务器采用独立的机架,这种设备就易于分散安装。而另外一些刀片服务器采用一种底板系统,这种系统使得分散安装不切实际。要了解有关这 个问题的更全面更详细的讨论,参见与具体刀片服务器品牌相关的“APC应用说明”。按照前面所述的五种主要刀片服务器应用方法规划好刀片服务器的应用密度后,其结果如表2。  

图片 2

  

图片 3

  表2表明,在30种不同的功率密度和应用方法组合中,有大约11种首选组合和7种临界的组合――共18种比较切合实际的应用方式组合。要选择最佳方案,必须把数千种用户的偏好、制约因素和现有的条件等数据与这18种应用方式组合进行比对。这种比对需要进行广泛的分析,遵循许多规则,这一过程可以象软件运算一样进行。但本白皮书中不做详细叙述。

  在开发工具进行这种分析的过程中,我们得出了在实际工作中经过长期观察得出的一些关键的经验:

  如果在房间中需要安装的刀片服务器机柜超过总机柜数量的25%,那么现有的数据中心的电力和散热 系统可能需要进行全面改造。这说明如果安装数量达到这个限度,用户就需要重建一个机房,否则就得把数据中心关闭一段时间进行系统改造。

  如果现有的数据中心计划安装1到5个刀片服务器机柜,那么为了将对数据中心正常运转的影响降到最低,同时降低安装成本,以饱和密度的25%或50%的数量(如每个机柜中最多放置3个机架)进行安装最合适。对大多数数据中心来说,实现非常高的功率密度所需的成本比增加几个机柜位置所需的空 间成本要高得多。

  现在的数据中心一般都是为系统设备整体提供散热和电力供应,辅助散热方案能够以较低的成本提高应用密度,同时达到可预测的散热效果。

  不当做法

  下面列举了数据中心管理人员平时经常会采用的一些方法和做法,但这些方法是有缺陷的,对解决问题帮助不大,而且往往会使情况更糟。

  降低空气温度。用户通常会通过调低机房空调的温度设定来降低机房的空气温度,以解决数据中心中出现的一些热点。这是用户操作最容易也是最差的做法。采取这种做法会降低空调系统的能力,大大增加增湿器的水消耗量,大大降低数据中心的运行效率(结果还会让你帐单上的电费增加)。所有这些都会发生,而问题根本 得不到解决,因为这是气流的问题,而不是空气温度的问题。

  地板格栅。另外一个看似合理的措施就是把垫高地板的通风地砖换成气孔更大的格栅。这种格栅的样子不是我们所熟悉的带孔的地砖,而是有点象火炉篦子。这种方法对于孤立的机柜会有帮助,但会有严重的副作用――特别是大量使用这种地砖的情况下。在数据中心使用这种地砖通常会导致其它区域的气流减少,但更重要的是这些格栅会引起地砖间的气流发生重大的不可预测的变化。这一问题在APC白皮书46“超高密度机柜和刀片服务器的散热策略”中有详细说明。

  机柜顶部风扇。在机柜顶部安装风扇的情况非常普遍――尽管这些风扇对于一个设计完好的IT机柜中一点好处也没有。服务器过热的原因并不在于机柜内部,而是在于服务器前部进入口处的热空气。这些风扇只能是产生 更多的热量,甚至会降低一个设计优良的数据中心的散热能力。许多用户在目的不明确的情况下按照传统的规格确定风扇的规格。也有一些与机柜配套的有效的风扇辅助设备,这些设备在APC白皮书42“解决应用高密度服务器引起的散热问题的十个步骤”中有更详细的说明。

  孤立机柜。有时候用户会把机柜从整排机柜中单列出来,试图在一定范围内降低机柜密度,让通风地砖的气 流能够更多地接触到机柜。但是这种方法使得设备排出的热气在机柜周围回流到服务器的进气口。整体效果并不是很好。更好的方法是让机柜处于热通道和冷通道的安排中,在刀片服务器机柜之间用带隔板的不加负载的机柜隔开,加宽冷通道,使用辅助散热设备和/或热通道密封系统来增强散热性能。

  结论

  在现有数据中心中应用刀片服务器会给数据中心的电力和散热系统带来压力,这种压力不容忽视。有多种方法可以用来给刀片服务器提供电力或散热功能。针对某一具体安装的最好的方法要根据现有设计的制约条件和数据中心管理人员的需求和喜好而定。

  本文概要阐述了涉及刀片服务器应用的相关事宜和选择。还描述了根据现有数据中心的制约因素和用户需求来选择应用方法的流程。

參考:

三是前瞻性。不仅能承接现在,还面向未来,现在曙光拥有的“液冷”核心专利超过40项,此外还有40项“液冷”相关专利提交申请。比如C8000刀片式计算模组就依托 “全浸没液冷”技术,可以使 PUE值达到1.05及以下,相比传统风冷数据中心可以节电超过30%。

图片 4

其实不然。服务器(电脑等硬件设备)是一个云数据中心的重点构成部分,承载超大虚拟机密度的服务器,特别是强大的刀片服务器,虽然更有效的实现了服务器整合,但较之前一代相比,却可以多消耗四倍乃至五倍的能量。并且,很多疏于管理的数据中心并没有选择行之有效的办法来解决这个问题,以至于需要重新设计电力和冷却系统,付出更大的成本。

Schmidt认为超过30千瓦的高功率密度计算以后将不得不依赖于水冷。不过其他专家表示,数据中心的相关设备制造商也有可能通过通力合作降低服务器的部署成本,使得服务器不用都挤在机柜中,而是分开摆放,这样机柜中的热密度就不至于越来越高。

对于整个数据中心来讲,提高数据中心能效,可以实现全地域、标准化的布置,可以实现全年的自然冷却,PUE最低可以做到最接近的理论值。

机柜节能

除此之外,围绕着服务器,还需配置照明系统、后备电源、制冷设备等配套设施,不少服务商为了确保数据中心不间断运作,使整个系统24小时都处于开启状态。其中用户浏览文章、下载视频、发邮件、在线阅读、购物等属于可见的直接耗电行为,而为了支持这些行为在互联网上流畅运行,服务商实际背负着高额电费。曾经有数据表明:“在Google的数据中心,每处理100次搜索,相当于消耗28分钟的60瓦照明的用电量。”

格罗斯说,随着数据中心内单位面积上的计算密度增加,虽然整体机电成本变化不大,但由于功率密度增加而带来的运营成本却大大增加了。

这些尝试都源于眼下爆炸增长的数据量,尤其在人工智能和5G时代,作为承载这些数据的的物理载体,数据中心面临的挑战越来越大:一是数据中心的存储能力、计算能力随着数据中心的规模增长,机柜功率密度会越来越高。二是单体数据中心的能耗持续居高不下。

数据中心现在关心的重点是节能。在目前的经济不景气,全球经济复苏遥遥无期的现实下,企业想尽办法来开源节流。数据中心的电能消费也成为很多企业的心病。数据中心耗能是非常巨大的,美国有关机构就此做的调查表明,数据中心耗电量占美国总体耗电量的比例已接近2%.而在数据中心里耗电最多的是空调制冷设备,并不是人们心目中认为的IT设备。空调耗电量在数据中心总耗电量中超过40%.在企业的数据中心,近50%左右的电能是被耗损的,如果采取散热降耗和提高设备工作效率等相关的节能措施,可有效地降低数据中心的电能损耗和运营成本。

其实,对能耗的优化是可以依靠建设智能数据中心来实现的,通过电力消耗监控,提升数据中心的灵活性,提升数据中心设备和资源的智能化管理,进而实现TCO的精确控制。而实际情况是,数据中心运维人员都知道最直接的节电方式就是关闭那些闲置的设备,或者重新分配工作任务、调整他们的位置,但却不知道从何入手。

“我们必须改变过去的那种错误观点,就是计算密度越高越好。”Belady说,“要知道,你的计算密度加倍意味着所有的辅助设施、制冷系统容量都要加倍。”

现在,液冷数据中心变成非常炙手可热的话题,也变成行业公认的未来数据中心的趋势。

中国某政府部门的一个数据中心调查显示,该数据中心,IT设备的耗电量之占总机房耗电量的三分之一。 而随着刀片服务器的应用,一个机柜内IT设备的密度大大增加,造成了机柜内的耗电量急剧增加。

原文地址

新机柜配有84台刀片服务器,每个刀片服务器有2个四核处理器和32GB的内存。这些服务器功能非常强大,与3年前采购的BladeCenter相比,一台服务器的处理能力相当于过去的7台BladeCenter。这家公司主要进行电脑特技设计,这些机柜组成渲染农场用以对图像进行处理。一个新的42U机柜产生的热量相当9个家用烤箱以最高温度工作。为了制冷,ILM数据中心的空调系统几乎是满负荷工作。

图片 5

图片 6
无奈:某机房为了节能,提高空调温度,用烟筒为机柜排热

原文地址

Light Magic)最近用目前最热门的IBM BladeCenter服务器上替换其旧服务器。ILM公司的这一举措将把数据中心单个机柜的电能消耗平...

图片 7

在数据中心里面,企业用户往往会把目光集中在服务器、存储、网络等IT设备上,而忽视了其他设备在数据中心节能、减震等方面的作用。特别是机柜的好坏,往往在采购人员和运维人员不以为然。实际上,机柜在数据中心也有着其非常重要的作用,不同的机柜常常会带来差别很大的效果。

同时,智能电源管理能有效的解决服务商对于系统安全的担忧。在各种系统运行过程中会发生一些未知的故障,尤其当物理服务器承载了多个虚机之后,一旦负载过大,重新启动可能是最后的机会。这些主机大多不会在本地IDC机房,必然需要通过远程进行管理。而远程重启是智能PDU的一个最基本功能,管理员不必跑到现场即可解决主机锁死问题,轻松进行重启操作。此外,力登的智能化PDU更兼具插座级、相位级和PDU级电流计量功能以及阀值/警报功能。在发生过载问题前,它能够对濒临过载的情况发出告警通知,从而避免安全事故的发生,因此在安全性方面比普通型PDU有显著的提升。

IBM的施密特表示,对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证公司电力供应的设备成本以及相应的制冷成本。

第三,液体可以给元器件带来更稳定的工作温度,从而保证元器件的工作性能更高。比如手工做温度限制的CPU,在稳定的环境之下可以实现超水平运行。

...

正视云计算的能耗问题

计算密度的增加已经让一些大型数据中心的建设项目资金突破了10亿美元大关。 “很多总裁级的人听说新建数据中心要这么高的投入都吓了一跳。”施密特说。

微软Project Natick 项目第二阶段下海

图片 8

云计算、云安全、低碳环保、节能减排绝不是割裂的,而是犹如环环相扣的生物链般紧密结合。智能电源管理解决方案应当成为保障这一生物链可持续发展的必由之路。

本文由必威发布于必威-运维,转载请注明出处:IT设备的耗电量之占总机房耗电量的三分之一, 

TAG标签:
Ctrl+D 将本页面保存为书签,全面了解最新资讯,方便快捷。