如今,数据量日益激增,数据中心面临着需求不断增长、功率密度越来越高、节点和机架设备不断增加等挑战,导致其数据中心会产生更多的热量,散热问题成为摆在数据中心运营商面前的难题。

根据研究机构BSRIA公司发布的调查报告显示,数据中心采用的传统冷却解决方案为空气冷却,但随着其服务需求的不断增加,数据中心正在促使其探索新的替代解决方案,寻找更灵活、更强大、更具成本效益的冷却布局和技术。此时,液体冷却的方式横空出世。

5

 

液体冷却,顾名思义,是一种基于液体冷却的系统通过需要冷却的设备周围的管道泵送液体,这种液体吸收IT设备产生的热量并将其带走。

另一种正在开发的液体冷却技术是射流冲击,这种方式将液体射流引向需要冷却的设备。该方法最适合具有高热通量能力和非常规形状设施的应用。液体冷却提供了许多空气冷却和其他散热系统无法比拟的优势。

如今,液冷技术得到了许多企业公司的推崇,众多数据中心都开始采用液冷技术。

今天,中国IDC圈为您呈现六大液冷数据中心案例,带你了解液冷技术当前的发展现状。

数据中心海底捞

6

微软在苏格兰奥克尼群岛海岸线附近的水域中部署了潜水艇式水下数据中心。微软将一艘40英尺长的船沉入位于苏格兰近海的奥克尼群岛海岸,该数据中心有12个机架,共有864台服务器和相应的冷却设施。

把数据中心建在海底,利用湖水、海水对数据中心进行冷却在一定程度上降低了数据中心的建设成本,降低了数据中心的电力能耗,从而降低PUE值,进而降低TCO。

温水来降温

如今,北京大学第七个校级平台——“未名一号”高性能计算平台已投入运营。该平台采用了联想45℃温水水冷技术。

“未名一号”采用了联想深腾X8800超级计算机系统,深腾X8800基于联想的45℃温水水冷技术,通过无泄漏快速连接系统,将冷却水流经水冷头来冷却核心处理器及其内存。相比传统的风冷散热技术,采用45℃温水水冷技术的“未名一号”,LINPACK效率达到92.6%,PUE值控制达1.1。

潮水引流

7

阿里云在浙江千岛湖建设的数据中心,因地制宜采用湖水制冷。深层湖水通过完全密闭的管道流经数据中心,帮助服务器降温,再流经2.5公里的青溪新城中轴溪,作为城市景观呈现,自然冷却后最终洁净地回到千岛湖。

利用深层湖水制冷并采用阿里巴巴定制硬件,设计年平均PUE(能源效率指标)低于1.3,最低时PUE1.17,比普通数据中心全年节电约数千万度,减少碳排放量一万多吨标煤,也是目前国内亚热带最节能的数据中心之一。除此之外,阿里巴巴也开发一种新的数据中心冷却系统,将服务器主板浸没在冷却液中,利用液体卓越的散热能力对服务器进行冷却。

洞里有玄机

8

挪威绿山公司将位于挪威斯塔万格的一个废弃的北约弹药仓库改造成为一个空间为146,000平方英尺(13,600平方米)的数据中心。这个三层的地下数据中心位于山中,并使山上景观未受破坏。该数据中心拥有两个水力发电站提供的绿色能源。并采用峡湾全年为8°C(46°F)的冷水冷却服务器,使用循环系统进行冷却。

绿山公司建设的数据中心是采用水电驱动的,利用山间小溪的水来制冷和附近峡湾的水来冷却他们的数据中心。真正做到了低成本、低风险、以及低碳。吸引了更多的企业在此建设数据中心。

“空气冷却2.0”—水间接参与冷却

9

Cologix和Equinix公司在加拿大多伦多的数据中心,该采用安大略湖的湖水为其服务器冷却。在这两种情况下,水是间接参与冷却过程。通过热交换器,数据中心内的空气相应地被液体冷却介质冷却,然后用于硬件的自然冷却。

这种方式被称之为"空气冷却2.0"。

液体冷却降PUE值

Google比利时的数据中心位于Saint-Ghislain该数据中心采用蒸发冷却系统,从附近的工业运河抽取用水,设计并制作了站内的水处理厂。

该数据中心利用运河的冷水来带走热量,并自己修建水处理厂,再将处理后的运河水给数据中心提供冷量,只采用冷却塔来散热,无冷却机,实现了100%水侧自然冷机房,是谷歌的第一个完全自然冷的数据中心,降低了数据中心的PUE。

10

芬兰海水制冷数据中心采用了100%的海水散热。采用模块化制冷单元和闭式的内循环冷冻水(淡水)对开式的外循环冷却水(海水)的热交换器传热,然后将升温后的海水送到室外的温度调节房,这个房间的主要作用是将送出的热水和进入的新鲜海水进行混合。在回到海中之前,Google会用更多的海水来冷却它。减少了对环境的影响。

通过液冷技术在各个企业和国家的和应用。可以看出,液体冷却确实受到很多企业和公司的青睐。液体冷却具有许多优点,使其成为数据中心潜在的强大解决方案。也许其最大的吸引力在于所提供的灵活性和敏捷性。液体冷却使数据中心操作人员可以在特定位置增加冷却,而无需更改整个冷却系统。此功能使他们能够根据不断变化的业务需求调整冷却设置,并提供更精确的冷却。

液体冷却,风险尚存

虽然现在很多企业和公司都液冷的方式来运维和管理数据中心,规范数据中心机房的建设,但是液冷仍旧存在一定的问题,阻碍了其广泛应用。

当前问题主要表现在缺乏标准、潜在泄漏、安全风险、操作复杂性、投资成本等问题。除此之外,有些数据中心设施可能长时间没有这种需求。如果数据中心运营商没有计划处理来自人工智能或物联网等先进技术的数据,他们可能不需要增加冷却能力。随着这些技术变得越来越普遍,这样的数据中心将变得越来越少。然而,最好的冷却解决方案的类型仍然取决于每个设施的需求和资源。

液冷,未来或将不可或缺

伴随着数据中心规模的不断扩大,数据中心的运营必须更加灵活。技术的改进和液体冷却技术的更新迭代,将会让液冷技术的应用变得越来越普遍。

然而,目前开始考虑研究液体冷却技术的厂商还需要理智的分析,进行明智的投资,因为液体冷却可能在未来的数据中心中发挥不可或缺的作用。

【中国IDC圈原创 未经授权禁止转载】

相关阅读:

微模块数据中心空调漏水监控方案

经验萃取丨空气滤网压差开关的测试问题

数据中心采用液体冷却技术面临的挑战

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新最新开户送体验金

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2018-10-09 15:12:00
国内最新开户送体验金 不吹不黑!年均PUE 1.1的百度首个自建超大型数据中心是什么水平?
PUE(数据中心总设备能耗/IT设备能耗,越接近1表明能效越高)是数据中心领域衡量能源效率的权威指标,记者了解到,百度云计算(阳泉)中心单模组PUE低至1.1,1.1是什么概念 <详情>
2018-10-09 14:26:23
云安全 网络安全和数据保护会削弱企业对云的信心?
根据英国软件公司Advanced发布的一份最新报告显示,网络安全和数据保护问题正在削弱企业对云的信心。 <详情>
2018-10-09 13:35:41
国际最新开户送体验金 Stulz公司携手Cloud&Heat公司合作开发水冷微型数据中心系统
第一个合作推出的产品是一个40kW的数据中心盒,能够容纳标准的19英寸服务器。作为合作伙伴关系的一部分,Stulz公司还将协助Cloud&Heat公司进行销售和工作。 <详情>
2018-10-09 13:27:00
国内最新开户送体验金 浩云网络自建数据中心 施耐德提供强弱电一体化解决方案
浩云网络与施耐德电气此次成功携手共建安全高效数据中心,也将推动城市信息化发展,实现信息系统的高可管理性、高可靠性和高可扩展性,助力数字中国建设。 <详情>
2018-10-09 11:04:45
国际最新开户送体验金 EcoDataCenter公司在瑞典开通一个2MW的数据中心
这个2MW的数据中心提供标准主机托管和HPC托管服务。来自服务器的余热将被送入由Falu Energi&Watten运营的区域供热系统,以便在住宅和商业物业中重复使用。它还将供应当地的 <详情>

最新开户送体验金