数据中心趋势——1兆瓦机架即将到来
作者: CBISMB
责任编辑: 贾西贝
来源: ISMB
时间: 2025-09-18 16:34
关键字: 伟创力,数据中心,1兆瓦机架,液冷技术
浏览: 451
点赞: 20
收藏: 5
人工智能正推动着对更高计算密度的需求。但满足这一需求并非是把更多服务器塞进机架那么简单。
· 1兆瓦(MW)机架即将到来,标志着机架功率水平呈指数级跃升
· 这些新型机架将需要强大的液冷系统
· 它们还需要全新的物理设计,以实现电力分配与计算模块的分离
伟创力总裁Chris Butler在一次采访中谈及,1兆瓦(MW)机架即将成为现实。这一话题听起来似曾相识,因为就在几天前,液冷技术产品研发商LiquidStack的战略主管Angela Taylor也提到了同样的事情。
Butler表示:“我认为在未来一年至一年半内,这将大规模成为现实。”尽管“大规模”是相对概念,且这些(1兆瓦机架)不会取代数据中心的所有机架,但他指出,目前已有大规模计划将其应用于所有GPU相关的应用场景。
需要说明的是,1兆瓦(MW)等于1000千瓦(kW),与目前数据中心中普遍使用的15千瓦以下的机架功率相比,是一个巨大的飞跃。即便是与人们最初认为AI所需的40-100千瓦高性能机架功率水平相比,这也是一个巨大的跨越。
但是在英伟达2027年路线图中,GPU单机架功率需求将达600千瓦。因此,云服务提供商正着眼于大规模布局以迎接未来——真正意义上的“大规模”。
散热挑战
问题在于,这种功率跃升对电力和散热系统具有重大影响。
正如Butler所言,1兆瓦机架的散热靠风冷根本行不通。因为这类系统散发出的热量足以为多栋房屋供暖。这意味着必须引入液冷系统,并相应地设计数据中心基础设施。
鉴于伟创力如今已收购数据中心液冷公司JetCool,Butler显然有理由坚持液冷是必需的。戴尔奥罗集团数据中心物理基础设施研究总监Alex Cordovil也认同这一观点。
“要支持如此高密度的IT负载,液冷将成为必不可少的配置。”他说道。
因此,全行业供应商都在为这一必然趋势做准备。正如Taylor提到的,LiquidStack设计了一种新型模块化冷却液分配单元(CDU),该系统可根据机架需求动态调整冷却能力。新CDU以2.5兆瓦模块为单位,整体系统可扩展至10兆瓦。
“我们现在讨论的不仅是600千瓦,而是1兆瓦机架。因此,你需要应对这一挑战:如何设计冷却系统,既能满足当下需求,又能适应未来发展。这正是我们选择模块化设计的原因。”Taylor说道。
Cordovil指出,单相直接芯片冷却系统(目前最主流的技术,也是LiquidStack新CDU支持的类型)有望持续进化以满足不断攀升的功率需求。就目前来看,1兆瓦机架似乎仍在其技术范围内。
但他也提到,“单相系统将在何种机架密度下达到散热上限”尚未明确。而当这一上限到来时,双相直接液冷系统将迎来机会,例如Zutacore和Accelsius所提供的解决方案。
电力升级
要实现1兆瓦机架,需变革的不止是散热系统,电源供应系统也是另一关键组件。
伟创力目前正研发400伏(V)直流电(DC)系统,而Butler透露,伟创力已在着眼未来的800VDC甚至1500VDC技术。
如前所述,从当今的48V系统升级至400V直流电(DC)不仅需要大幅增强安全措施,还需对工作人员进行重新培训。但Cordovil与Butler均指出,这一转变也将重塑机架的物理设计。
目前,将配电架与计算服务器置于同一机架内是常见做法。然而,功率水平的指数级提升意味着电力分配与计算模块可能很快需要独立部署。
“谷歌与微软等企业正与开放计算项目(Open Compute Project Foundation)合作开发新设计,代号‘迪亚布洛山’。”Cordovil解释道,“该设计将整个电力架构移至相邻的机架侧柜,从而让同一机架内能容纳更多服务器。”
他还认为释放服务器机架的空间,对于实现机架内更高效的南北向快速通信、承载更多IT负载至关重要,正是这一转变将推动行业迈向“传说中的1兆瓦”机架。