AI网络起波澜,英特尔、AMD、思科等9家公司“围攻”英伟达

科技巨头们已结盟,AMD、AWS、Astera Labs、思科、谷歌、HPE、英特尔、Meta与微软等九大董事会成员携手宣布成立超级加速器链接(UALink)联盟,剑指Scale up网络,对英伟达的挑战意味不言而喻。
2024-11-07 16:44:36  |   作者:航标  |   来源:IT精选

AI网络起波澜,英特尔、AMD、思科等9家公司“围攻”英伟达

科技巨头们已结盟,AMD、AWS、Astera Labs、思科、谷歌、HPE、英特尔、Meta与微软等九大董事会成员携手宣布成立超级加速器链接(UALink)联盟,剑指Scale up网络,对英伟达的挑战意味不言而喻。
2024-11-07 16:44:36
作者:航标
来源:IT精选

2019年3月,英伟达宣布以70亿美元收购Mellanox之时,其市值尚徘徊在1000亿美元左右。彼时,鲜有人预见,英伟达几年后能借AI东风扶摇直上,而Mellanox在其AI战略中竟能扮演如此举足轻重的角色。Mellanox的InfiniBand技术在英伟达落地生根,与NVLink、NVLink Switch(NVSwitch)携手,共同铸就了英伟达在AI网络领域的霸主地位。时至今日,英伟达近乎垄断了Scale up网络市场,在Scale out网络市场亦占据显著优势。

OIP-C (1).jpg

然而,英伟达并非没有隐忧。科技巨头们已结盟,AMD、AWS、Astera Labs、思科、谷歌、HPE、英特尔、Meta与微软等九大董事会成员携手宣布成立超级加速器链接(UALink)联盟,剑指Scale up网络,对英伟达的挑战意味不言而喻。

对高带宽与低时延的极致追求

随着生成式AI的广泛普及,AI服务器的增长速度已远超通用服务器,数据中心内GPU处理的数据量急剧攀升,大量GPU的部署也引发了GPU互联的新问题。如今,10万卡以上的GPU集群已屡见不鲜。据报道,埃隆·马斯克的xAI在孟菲斯部署的巨型AI超级计算机便搭载了10万张英伟达H100 GPU,堪称巨型GPU集群的典范。Meta亦在利用1.6万张GPU集群进行训练。

专为人工智能与机器学习打造的GPU集群,通常分为前端网络与后端网络两大部分。两者需求各异,技术实现亦有所不同。

前端网络主要负责节点(或超级节点)间的互联,即Scale out,旨在解决计算单元间的通信问题,将它们联结成一个庞大而松散的集群。其在满足性能与带宽要求的同时,还需兼顾可扩展性。

前端网络的主流技术包括InfiniBand与以太网。相较于InfiniBand的专有性,开放的以太网更受青睐,这亦是UEC(超级以太网联盟)的技术路径。前文提及的xAI超级计算机采用的前端网络便是Spectrum-X平台,一种支持RoCE的以太网平台。

值得一提的是,2023年成立的UEC正是对InfiniBand及其背后的英伟达发起的挑战。其创始成员包括AMD、Arista、博通、思科、Eviden、HPE、英特尔、Meta与微软等巨头,没有英伟达。不过,如今英伟达亦宣布加入UEC联盟。

后端网络,即Scale up,则主要面向节点内(超级节点)的通信。UALink正是瞄准了这一市场。Scale up网络致力于解决计算单元内部GPU间的互联问题,它追求极致的网络带宽与性能,其速度通常比Scale out网络快出一个数量级以上。

Scale up网络之所以对带宽与延迟要求如此严苛,主要在于当前大模型参数规模日益庞大,模型的训练任务需由多个GPU协同完成,它们需像访问本地内存一样直接访问其他GPU的内存空间。例如,当前用于AI训练的并行计算模式之一——张量并行计算便需依赖Scale up网络来承载。训练时,模型的参数矩阵被分配到不同的GPU进行计算,以解决内存限制问题。这种通信对延迟极为敏感。

实际上,如今GPU集群单节点的GPU卡越来越多,已从原来的单服务器内8张增加至超级节点的几十张,甚至更多。比如,英伟达的超级节点NVL72便配备了72张GPU卡。如何高效实现这些节点或超级节点内GPU卡的互联,便显得尤为重要,因为将直接影响训练效率。

目前,节点内(超节点内)互联主要采用PCIe、NVLink(英伟达)、Infinity Fabric(AMD)等技术。服务器通过PCIe可连接8张卡,若采用其他技术则可增至32张。Infinity Fabric基于PCIe实现,属AMD,但其市场影响力远不及英伟达的NVLink。

NVLink源自英伟达,其最新一代能实现GPU间每秒1.8TB的数据传输,远超传统PCIe解决方案。结合英伟达的NVSwitch高速交换机技术,可将多个GPU和CPU节点在更大范围内连接起来,形成更为复杂的互连网络,在无阻塞计算架构中支持多达576个GPU。

英伟达GPU在市场中占据绝对主导地位,拥有超过90%的市场份额。加之NVLink技术成熟,使得NVLink成为Scale up网络的首选,甚至是唯一选择。

UALink的出现,旨在打破这一现状。

UALink究竟意欲何为?

UALink联盟成立的消息早在今年5月便已见诸报端。当初由AMD、博通、思科、谷歌、HPE、英特尔、Meta与微软八家公司牵头。而今,博通中途退出,新增AWS、Astera两家公司。目前,UALink联盟已公开邀请新成员加入,国内已有盛科、联想、澜起科技、联动等公司加入成为贡献者成员。

UALink联盟的主要任务是为AI服务器Scale up互连制定一个开放的标准。它将聚焦于加速卡的DDR内存与HBM的共享,促进AI加速器(即GPU)之间的直接加载、存储与原子操作,从而提升加速器间的通信效率。

UALink联盟主席Willie Nelson表示:“我们鼓励有兴趣的公司作为贡献者成员加入,以支持我们的使命:为人工智能工作负载建立开放且高性能的加速器互连。”

联盟的首份正式规范UALink 1.0预计将于今年内向联盟成员发布,并计划在明年一季度向公众开放。该规范有望在AI Pod中多达1024个加速器之间实现每通道基于200Gbps Serdes的扩展连接,从而为大型AI模型提供更高效的内存访问。

UALink 1.0将以AMD的Infinity Fabric等“开放标准”为基础,允许在AI芯片的内存之间进行直接加载和存储。与现有互连规范相比,UALink 1.0可提高速度并降低数据传输延迟。而带宽更高的更新规范UALink 1.1则将于今年第四季度推出。

显而易见,UALink与UEC一样,均是由意图取代英伟达的行业巨头所组成。UALink的成立无疑将给英伟达带来压力。为了保持竞争优势,英伟达需不断提升NVLink与NVLink Switch的性能、可扩展性与成本效益,从而有可能加速行业创新的步伐。而从行业角度来看,开放的UALink有助于摆脱专有系统的束缚,促进创新,推动行业发展。

对于UEC,英伟达后来选择了加入。对于UALink,英伟达是否会加入,尚不得而知。