每周有9亿人在使用ChatGPT支撑其运转的系统正在成为核心基础设施。要让AI变得更聪明企业必须把成千上万块芯片连接在一起协同工作。而芯片之间的数据传输速度直接决定了整个系统的计算效率。OpenAI联合AMD、博通、英特尔、微软和英伟达通过开放计算项目正式发布了多路径可靠连接网络协议Multipath Reliable ConnectionMRC。MRC技术打破了传统网络设计的局限通过多平面网络、数据包喷射和静态源路由技术彻底解决了超大规模计算集群中的网络拥堵和设备故障停机难题大幅降低了建设成本与能耗。拆解超大单行道训练前沿AI模型时一个简单的计算步骤会产生数百万次的数据传输。哪怕只有一个数据包迟到整个训练任务都会受到波及导致昂贵的计算芯片只能停下来原地等待。集群规模越大网络拥堵、线路老化和设备故障引发的延迟就越频繁。在以往的架构下哪怕只是一根网线接触不良都有可能导致整个训练任务彻底崩溃。工程师必须让系统从上一个保存点重新启动或者让整个网络停顿数十秒去重新计算数据传输路线。大规模同步预训练要求所有芯片步调一致工作负载就成了一个巨大的故障放大器一点微小的波动都会带来极高的算力周期和时间成本。为了应对Stargate星际之门级别超级计算机的建设需求工程师必须从底层架构重新思考网络设计。OpenAI的扩展团队与业界伙伴耗时两年开发出了MRCMultipath Reliable Connection多路径可靠连接协议。这项技术建立在RoCERDMA over Converged Ethernet基于融合以太网的远程直接内存访问标准的基础之上。RoCE是一项由IBTAInfiniBand Trade AssociationInfiniBand贸易协会制定的标准专门用于加速图形处理器和中央处理器之间的直接内存读取。MRC吸收了UECUltra Ethernet Consortium超级以太网联盟开发的相关技术并将其扩展到支持大规模计算网络。构建高弹性的网络需要足够的物理冗余保证部分线路断开时数据依然有路可走。传统思路是将每个网络接口视作一条800Gb/s每秒800吉比特的超宽单行道。MRC选择将这条单行道拆分。一个接口可以连接到8个不同的交换机上由此构建出8个独立的、平行运行的100Gb/s网络平面。这种设计让计算集群的形态发生了巨大改变。一台原本只能连接64个800Gb/s端口的交换机现在可以连接512个100Gb/s的端口。在连接约13万块GPU时新架构只需要两层交换机就能完成全互联配置传统架构往往需要堆叠三到四层交换机。MRC对多平面网络的支持意味着我们可以用两层交换机连接超过10万个GPU。与传统方法相比这降低了所需的功率、可能发生故障的组件数量和网络的总成本。层级的减少大幅削减了建设成本降低了系统整体能耗减少了潜在的硬件故障点。更多的数据流量可以留在底层交换机内部进行本地处理传输效率得到了实质性的提升。把数据当水洒出去多平面网络提供了极其丰富的路径选择想要充分利用这些路径并非易事。传统的AI训练网络协议要求单次数据传输必须沿着固定的一条路径前进以确保数据包能够按照原本的顺序到达终点。在拥有众多平面的大型网络中死板的单路径规则会引发严重的后果。不同的数据流很容易在同一条线路上发生碰撞造成局部拥堵其他空闲的平行网络平面却无事可做。单纯增加物理路径而不改变传输规则系统的整体表现依然会非常糟糕。MRC彻底改变了数据传输的派发模式。系统不再给数据分配单一的固定通道而是将一次传输任务拆散像喷水壶一样将海量的数据包均匀地喷射到网络中的数百条路径和所有平面上。这些数据包到达终点的顺序是完全错乱的。每一个MRC数据包内部都携带了最终的内存地址坐标。目的地接收端会在数据到达的瞬间直接将它们安放到对应的内存位置上完成拼图般的重组。把流量摊薄到无数条路径上网络内部的局部拥堵热点就不复存在了。所有的数据交互任务都能保持相近的处理时间消除了拖慢同步训练的木桶短板。每一个MRC连接都会在系统里保留一点状态记录。一旦协议察觉到某条路径的流速变慢就会迅速将其替换为另一条畅通的路径让整个网络的负载保持绝对的均衡。遇到数据包丢失的情况系统会采取最保守的安全策略假定该路径上的某些硬件已经损坏立即停止向该路径发送数据并重新发送丢失的内容。被弃用的路径也不会被彻底遗忘系统会定期发送探测包去检查故障是否已经修复一旦确认恢复正常就会将其重新纳入传输队伍。网络发生拥堵时接收端来不及处理数据同样会造成丢包。MRC引入了数据包修剪机制来应对这种状况。面临拥堵时交换机会切掉数据包的核心有效载荷只把表头信息发送给目的地接收端看到表头后会直接发起明确的重传请求。这种修剪动作有效避免了系统产生误判防止协议把单纯的拥堵错误地当成物理硬件损坏。让交换机停止思考有了多平面拓扑、数据喷射、负载均衡和数据包修剪这些特性的配合MRC连接能够在微秒级别内察觉并绕过网络故障。传统网络往往需要耗费几秒甚至几十秒的时间才能稳定下来并重新规划路线。MRC在简化网络控制层面走得更远。传统的交换机通常需要运行BGPBorder Gateway Protocol边界网关协议等动态路由协议。这类协议的作用是让交换机自己去计算可用的路径并绕开故障。交换机本身是非常复杂的设备里面运行着复杂的控制软件。当它们出现一些难以察觉的隐蔽故障时工程师很难排查原因网络连接也会随之频繁中断。动态路由在MRC架构下失去了存在的必要。MRC采取了非常激进的做法直接禁用了动态路由转而使用SRv6IPv6 Segment Routing基于IPv6的段路由技术。利用SRv6发送端可以直接决定每一个数据包在网络中应该走的具体路径。发送端把沿途每一台交换机的识别码按顺序嵌入到数据包的目的地址里。交换机在转发数据时只需要核对数据包上有没有自己的识别码。核对无误后交换机把自己的识别码抹掉让下一台交换机的识别码显露出来。接着交换机去查看一张静态路由表把数据包扔向下一个目的地。这张静态路由表在交换机初次开机部署时就已经配置完毕此后再也不会发生变动。交换机不需要再耗费算力去重新计算路线只需要像一个毫无思想的流水线工人一样机械地遵循静态规则进行转发。如果某条路径真的断了发送端不再往这条路上喷射数据包即可。这样的设计在实际生产环境中展现出了惊人的稳定性。在拥有数百万条网线的训练网络里底层和上层交换机之间每分钟都会发生多次链路抖动。MRC确保了这些抖动对同步预训练任务没有产生任何可测量的负面影响工程师甚至不需要优先去维修那些不稳定的网线。在近期一次前沿模型的训练过程中运维团队重启了四台上层交换机。按照以往的经验运维人员必须极其谨慎地协调时间生怕打断训练任务。有了MRC的庇护运维团队无需跟负责训练的团队打任何招呼直接在系统全速运转时完成了设备重启。线路维修也是如此损坏的网线可以带电直接热修复。能用的线MRC自然会用不能用的线它会自行绕开。在训练运行期间捕获的真实数据显示MRC对T1开关完全丢失的反应。训练工作暂时放缓但很快恢复。以往只要GPU网卡和底层交换机之间的连接断开整个训练任务就会宣告失败。现在哪怕一张拥有8个端口的网卡坏掉了一个端口系统最高传输速率仅仅下降八分之一。MRC会瞬间察觉到端口丢失立刻重新计算路径绕开损坏的平面同时通知网络里的其他节点不要再往这个损坏的平面发送数据。多数掉线故障在一分钟内就能物理恢复随后该平面会被无缝接纳回传输队伍中。系统速度的实际损耗往往比物理硬件容量的损失要小得多。开放标准与硬件落地没有任何一家企业能独自解决AI领域的硬件挑战。MRC协议目前已经部署在OpenAI最大的英伟达GB200超级计算机上包括位于德克萨斯州阿比林市的OCIOracle Cloud Infrastructure甲骨文云基础设施站点以及微软的Fairwater超级计算机中。这项技术已经利用英伟达和博通的硬件成功训练了OpenAI多个模型。AMD不仅联合主导了MRC规范的编写还贡献了应对真实世界复杂环境的高级拥塞控制技术。AMD已经在其实验集群中大规模部署并验证了这项技术。凭借Pensando Pollara 400 AI NICNetwork Interface Card网络接口卡的软硬件全可编程能力AMD在MRC标准正式确立之前就已经实现了改进版RoCEv2传输协议的早期验证。目前AMD正将这项成熟的技术平滑过渡到下一代Vulcano 800G AI NIC网卡上。AMD近期股价也翻了一番。通过开放计算项目MRC规范的细节已经向全世界公开。全行业建立统一的关键基础设施标准能够让计算系统跨越不同合作伙伴的生态壁垒。网络正在成为消化硬件故障的减震器保持计算资源的持续高产出让通向通用AI的道路变得更加平稳。参考资料https://openai.com/index/mrc-supercomputer-networking/https://www.amd.com/en/blogs/2026/amd-advances-ai-networking-at-scale-with-mrc.htmlhttps://www.opencompute.org/documents/ocp-mrc-1-0-pdf