阿里商城

数据中心机架进化论:Open Rack V3 是什么“新物种”

日期:2026年04月23日 | 浏览次数:12933

数据中心机架进化论:Open Rack V3 是什么“新物种”
摘要
如果你走进一个传统数据中心,最先看到的是什么?一排排黑色的铁皮柜子,里面塞满服务器,风扇呼呼转,走道里冷气扑脸。这些铁皮柜子叫“机架”,过去几十年,它们一直安安静静地做着“容器”的工作——把服务器装进去、固定好、通上电、吹上风,完事儿。
但这两年,情况变了。
AI算力爆发,GPU服务器一个比一个“能吃”,功耗从几千瓦飙到几十千瓦甚至上百千瓦。传统的风冷机架开始“喘不上气”——风扇转得再快,也带不走GPU那颗火热的心。液冷从“备选”变成了“刚需”。与此同时,数据中心的规模越来越大,运维工程师们发现,不同厂商的机架、电源、管路互不兼容,换个设备像“配钥匙”,麻烦得要命。
于是,一个叫OCP(开放计算项目)的社区,早在十年前就开始琢磨一件事:能不能搞一个“通用标准”,让机架像乐高积木一样,谁家的零件都能拼上去?
Open Rack V3,就是他们交出的最新答卷。
从“铁皮柜子”到“开放平台”
传统的服务器机架,大多数遵循一个叫EIA-310-D的老标准,那是上世纪90年代定的。一个标准机架单元(RU)的高度是44.45毫米,宽度19英寸。这标准用了三十年,不能说不好用,但它有个大问题:它不是为“开放”而生的。
什么叫“不开放”?就是你买A厂的机架,最好连B厂的电源一起买,否则可能装不上。走线槽、PDU、侧板、盲板,各家有各家的设计,换一个厂商就得重新适应。更别提液冷接口了——根本没有统一说法,大家都是“八仙过海,各显神通”。
ORV3的思路是:把机架当作一个“平台”,而不是一个“容器”。
这个平台规定好了尺寸、承重、电源接口、气流方向、接地方式,甚至连液冷管路的盲配接口都给你画得明明白白。你只要按这个规范做IT设备,塞进任何符合ORV3标准的机架里,都能“即插即用”。
打个比方:传统机架像老式手机充电器——每个牌子都有自己的接口,混用会冒烟。ORV3就像USB-C,统一的接口、统一的协议,插上就能干活。
比标准更“狠”的Meta版本
ORV3基础规范本身给出了两种机架几何选项,但真正把“开放”推向极致的,是Meta(也就是Facebook的母公司)贡献的那个具体实现版本——也就是规范里说的“Meta Version”。
这个版本有多“狠”?我挑几个关键数字给你感受一下:
  • 高度:2286毫米,约90英寸。比传统42U机架高一截,能塞下47个标准RU或者44个“OpenU”。别问为什么不是整数,开放计算有自己的“尺子”——OpenU是48毫米,比44.45毫米的RU高出一截,为的是给散热和布线留更多空间。

  • 宽度:600毫米,这个倒和传统差不多。

  • 深度:1068毫米,约42英寸。足够塞进超深度的GPU服务器。

  • 承重:1400公斤(不含机架自重)。注意,这是“有效载荷”——机架本身不算,光IT设备就接近1.5吨。传统机架能扛800公斤就算不错了。

但光有“大”和“重”还不够。Meta版本最让人头疼(也最让人兴奋)的地方,是它对
盲配液冷
的支持。
盲配液冷:让“接水管”变得像“插U盘”
我采访过一个数据中心运维,他跟我吐槽:“以前装液冷服务器,最怕的就是接那个快接头。一个人扶着几十公斤的机箱,另一个人猫着腰对接口,手一滑就漏液。一个机架几十个接口,干完腰都直不起来。”
ORV3的盲配(Blind Mate)方案,就是来“拯救”运维老哥们的。
什么是盲配?简单说,就是你在机架后面预先装好一根“歧管”,上面有一排阀门。服务器机箱推进去的时候,机箱背板上的“喷油嘴”会自动对准歧管上的阀门,“咔哒”一下对接上。拔出来的时候,阀门自动关闭,不滴不漏。
你不用看,不用对,不用拧,推到底就行。这就是“盲配”——闭着眼睛都能装上。
当然,说起来简单,做起来难。Meta版本的规范用了整整一章(第14章)来定义盲配液冷的要求:
  • 机架框架在阀门对接时的允许挠度不能超过0.6毫米。因为阀门的工作范围就那么点,铁皮柜子弯了,阀就对不准。

  • 液冷套件要额外加装网状加强件板间加强件,光靠原来的立柱扛不住液压力。

  • 歧管的静水压力要能扛住150 psi(正常工作时的三倍),不能漏、不能裂。

  • 塑料件要有阻燃等级,管路要过拉伸测试,连非金属部件都要在87℃高温下烤14天做蠕变测试……

每一个数字背后,都是一次次“折腾”。但正是这种折腾,保证了你在数据中心里,可以放心地把几百台液冷服务器推进去,不用担心漏水“烧机房”。
为什么说ORV3是“未来十年的底座”?
你可能觉得,这是Meta、Google这些“大厂”的游戏,跟普通企业没关系。
但事实是,开放计算的逻辑是“大厂开路,小厂跟上”。一旦标准成熟,整个供应链都会向它靠拢。你会在市面上看到越来越多兼容ORV3的机架、电源、液冷套件、IT设备。采购的时候不用再担心“绑死”在一家厂商身上。
更关键的是,ORV3不是只盯着液冷。它同时支持风冷和液冷,可以混装。你可以先买风冷机架跑普通业务,等液冷普及了,再加装液冷套件升级。这种“向前兼容”的设计,对企业的投资保护非常友好。

另外,ORV3对

母线供电
接地路径
电缆管理
气流阻断
这些“细节”都有明确规定。看似琐碎,但在大规模部署时,每一点标准化都能省下大量时间和成本。

BusBar + PSU:一个机架的能源互联网

把BusBar和PowerShelf放在一起看,你就能理解ORV3供电系统的全貌了:

PowerShelf是“发电厂”——把进来的交流电转成直流,稳压、滤波、冗余管理。
BusBar是“电网”——把直流电输送到机架的每一个位置。
IT设备的取电接口是“电表+开关”——取电、计量、通断控制,全部集成在设备端

更重要的是,维护成本降低了。以前备品备件要备几十种不同型号的服务器电源,现在只需要备一种——PowerShelf电源模块。坏了任何一个服务器,不需要拆服务器换电源,只需要确认PowerShelf模块正常即可。如果模块坏了,换一个模块,两分钟搞定。
写在最后:标准是桥,不是墙
ORV3的意义,不在于它规定了多大的尺寸、多重的负载,而在于它建立了一座“桥”——让不同厂商的设备和方案可以互通、互换、互操作。
对于数据中心的管理者来说,这意味着更低的采购成本、更灵活的升级路径、更短的故障恢复时间。对于设备厂商来说,这意味着更大的市场、更公平的竞争、更快的创新节奏。
开放计算的口号是“Open is better”。这话听着有点理想主义,但你看看USB、看看PCIe、看看Linux,哪个不是开放标准的胜利?
机架,这个数据中心里最不起眼的“铁皮柜子”,正在悄悄完成它的进化。下一次你走进数据中心,看到那一排排整齐的黑色机架时,不妨多想一下:它们可能已经不是“柜子”,而是一个个“开放平台”的基石。
而ORV3,就是那块最新的基石。



上一篇:工信部指导中国电信首次获批卫星通信国际电信码号资源
下一篇:没有了