OpenAI牵头:AMD、NVIDIA、Intel、微软、博通巨头罕见联手!终于把AI网络层搞定

→ 源码教程下载地址见 →右侧下载链接 →点“登录购买”→注册登录购买后可见→
→ 这里没有广告,只有干货! 给力项目更多教程,点此加入VIP会员,即可免费下载!
→ 每日分享你意想不到的网络思维!加入红帽VIP会员,感受一下网络赚钱的快感,点击进入了解。

5月7日消息,OpenAI今日通过开放计算项目(OCP)正式发布MRC(多路径可靠连接)协议,解决大规模AI训练中的GPU网络通信瓶颈。

该协议由OpenAI与AMD、NVIDIA、Intel、微软和博通历时两年联合开发,目前已在搭载NVIDIA GB200的超算集群中投入实际使用。

MRC要解决的核心问题是:在训练大规模AI模型时,单次数据传输延迟就足以导致整个训练过程中断,GPU集体空转等待,而集群规模越大,由网络拥塞、链路和设备故障引发的延迟问题越频繁。

MRC的方案是将单条800Gb/s网络接口拆分为多条更小的链路,例如将一个接口连接至8台不同交换机,构建8条独立的100Gb/s并行网络,而非依赖单一800Gb/s网络。

这一改变对集群拓扑结构的影响极为明显,一台支持64个800 Gb/s端口的交换机,在拆分后可连接512个100 Gb/s端口,使得仅用两层交换机即可实现约13.1万块GPU的全互联网络。

传统800 Gb/s方案则需要三到四层交换机才能达到同等规模,层数减少直接意味着延迟降低和故障点减少。

MRC基于现有的RDMA over RoCE(融合以太网)协议扩展,支持GPU和CPU的硬件加速远程直接内存访问。

OpenAI已在Oracle Cloud Infrastructure和微软Fairwater超算上的GB200集群中部署MRC,用于训练前沿模型。

该协议也将成为OpenAI正在建设的Stargate超算的基础网络架构,该超算目标在2029年部署10GW AI算力,过去三个月已部署超过3GW。

MRC协议还向整个AI行业开放,OpenAI表示希望借此推动跨行业协作,共同解决AI基础设施中最棘手的网络难题。

温馨提示:
1、如非特别声明,本内容转载于网络,版权归原作者所有!
2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!
我要投诉
红帽SEO工作室 » OpenAI牵头:AMD、NVIDIA、Intel、微软、博通巨头罕见联手!终于把AI网络层搞定
在线客服 购买特价主机

服务热线

139-3511-2134

关注红帽网络

微信客服

微信客服