OpenAI牵头AMD、NVIDIA、Intel、微软、博通巨头罕见联手! 终于把AI网络层搞定OpenAI通过开放计算项目OCP正式发布MRC多路径可靠连接协议解决大规模AI训练中的GPU网络通信瓶颈。该协议由OpenAI与AMD、NVIDIA、Intel、微软和博通历时两年联合开发目前已在搭载NVIDIA GB200的超算集群中投入实际使用。MRC要解决的核心问题是在训练大规模AI模型时单次数据传输延迟就足以导致整个训练过程中断GPU集体空转等待而集群规模越大由网络拥塞、链路和设备故障引发的延迟问题越频繁。MRC的方案是将单条800Gb/s网络接口拆分为多条更小的链路例如将一个接口连接至8台不同交换机构建8条独立的100Gb/s并行网络而非依赖单一800Gb/s网络。这一改变对集群拓扑结构的影响极为明显一台支持64个800 Gb/s端口的交换机在拆分后可连接512个100 Gb/s端口使得仅用两层交换机即可实现约13.1万块GPU的全互联网络。传统800 Gb/s方案则需要三到四层交换机才能达到同等规模层数减少直接意味着延迟降低和故障点减少。MRC基于现有的RDMA over RoCE融合以太网协议扩展支持GPU和CPU的硬件加速远程直接内存访问。OpenAI已在Oracle Cloud Infrastructure和微软Fairwater超算上的GB200集群中部署MRC用于训练前沿模型。该协议也将成为OpenAI正在建设的Stargate超算的基础网络架构该超算目标在2029年部署10GW AI算力过去三个月已部署超过3GW。MRC协议还向整个AI行业开放OpenAI表示希望借此推动跨行业协作共同解决AI基础设施中最棘手的网络难题。