Nvidia正通过与Marvell Technology的新合作伙伴关系扩大其在AI基础设施堆栈中的影响力,该合作将20亿美元投资与更深入的NVLink Fusion生态系统集成相结合。
这一合作将Marvell定位为基于Nvidia架构构建半定制AI基础设施的关键推动者,同时强化了Nvidia将其平台从GPU扩展到更广泛的合作伙伴驱动的"AI工厂"模式的战略。
今天公布的合作将Marvell的定制芯片和互连产品组合与Nvidia的NVLink Fusion平台相结合。NVLink Fusion是一个机架级架构,旨在支持异构AI系统,同时保持与Nvidia核心技术的兼容性。
NVLink Fusion扩展成关键技术
这项合作的核心是NVLink Fusion,它允许客户使用Nvidia和合作伙伴组件的组合构建半定制AI基础设施。根据协议,Marvell将提供定制XPU和NVLink兼容的扩展网络,而Nvidia提供底层计算和连接堆栈,包括其Vera CPU、ConnectX网卡、BlueField DPU、NVLink互连和Spectrum-X交换平台。
两家公司表示,这种方法使客户能够将定制加速器与Nvidia GPU和其他基础设施组件集成,而不会破坏与Nvidia更广泛生态系统的兼容性——这是AI部署变得更加专业化时的关键要求。
"推理拐点已经到来。Token生成需求激增,全世界都在竞相构建AI工厂,"Nvidia首席执行官黄仁勋在声明中说。"与Marvell合作,我们使客户能够利用Nvidia的AI基础设施生态系统并扩展以构建专业化AI计算。"
这一举措反映了向异构AI架构的日益转变,超大规模提供商和企业越来越多地在单一部署中结合多种类型的加速器、网络技术和定制芯片。
Marvell首席执行官Matt Murphy指出了连接和光学在这一转变中的作用,强调了公司在光学DSP、硅光子学和定制芯片方面的优势。
"通过NVLink Fusion将Marvell在高性能模拟、光学DSP、硅光子学和定制芯片方面的领导地位与Nvidia不断扩展的AI生态系统连接起来,我们正在帮助客户构建可扩展、高效的AI基础设施,"Murphy说。
NVLink技术向非Nvidia芯片扩展
行业分析师表示,此次合作最重要的元素是NVLink扩展到Nvidia原生芯片之外。
Moor Insights & Strategy副总裁兼首席分析师Matt Kimball表示,Marvell采用NVLink标志着一个显著转变。
"突出的亮点是Marvell在其XPU中添加了NVLink支持——为非Nvidia加速器启用NVLink支持,"Kimball说。"这使得半定制芯片能够更直接地集成到基于Nvidia的AI系统中。"
虽然有些人可能将此举解读为Nvidia放松了对其生态系统的控制,但Kimball持相反观点。"这是Nvidia通过将自己定位为连接组织——控制层——来扩展控制,跨越日益异构的AI环境,"他说。
他补充说,这种异构性是AI基础设施下一阶段的核心。
"推理世界不会是纯GPU的,"Kimball说。"它将是GPU、LPU、定制加速器和专用网络的混合,需要作为紧密耦合的系统运行。耦合越紧密,推理性能越好。"
Kimball认为,控制权不是在单一芯片供应商那里,而是在互连层面合并。"我们不会走向一个供应商主导一切的局面,"他说。"但我们正走向一种模式,控制权围绕将这些推理引擎和组件连接在一起的结构——互连——进行整合。"
竞争性互连模型兴起
Kimball还指出了高速AI互连竞争方法的出现,最值得注意的是超级加速器链接(UALink),这是一个由AMD、Intel、Broadcom、Astera Labs和Marvell等公司支持的联盟努力。
"UALink旨在在多供应商模型中提供类似的扩展能力,"他说。"我们可以在性能上讨论NVLink与UALink的对比,但这实际上不是关于性能——而是关于控制。"
他补充说,Nvidia正在积极努力重塑NVLink作为封闭生态系统的观念,指出了诸如与Intel达成在Xeon CPU中支持NVLink的协议等举措。
"这远超20亿美元投资或设计胜利,"Kimball说。"Nvidia正在投资可以被认为是AI推理控制层的领域,而Marvell正在务实地提供支持广泛AI需求的解决方案。"
硅光子学和AI-RAN扩展
除了计算集成,两家公司还将在硅光子学和光互连技术方面合作——随着AI集群扩展到数万或数十万GPU,这是一个越来越关键的层面。
合作还扩展到电信基础设施,Nvidia和Marvell合作推进使用Nvidia的Aerial平台进行5G和新兴6G网络的AI-RAN部署。目标是将传统电信网络转变为AI功能基础设施,模糊数据中心和边缘网络之间的界限。
分析展望
Marvell交易突出了Nvidia扩大其在芯片之外更广泛AI基础设施堆栈中作用的更大推动。通过与合作伙伴更紧密合作,Nvidia正将自己定位在AI系统构建方式的中心,即使这些系统变得更加定制化。20亿美元投资反映了这种方法,将Nvidia与能够帮助更快扩展AI部署的公司结盟。
随着需求从训练模型转向在生产中运行模型,灵活性和效率对云提供商和企业都变得更加重要。随着Marvell现在成为其NVLink Fusion平台的一部分,Nvidia正朝着围绕其技术构建更广泛生态系统迈出另一步——一个旨在支持AI增长下一阶段的生态系统。
Q&A
Q1:NVLink Fusion是什么?它有什么作用?
A:NVLink Fusion是Nvidia开发的机架级架构平台,允许客户使用Nvidia和合作伙伴组件的组合构建半定制AI基础设施。它支持异构AI系统,使客户能够将定制加速器与Nvidia GPU集成,同时保持与Nvidia生态系统的兼容性。
Q2:这次合作对AI基础设施发展有什么意义?
A:这次合作标志着AI架构向异构化发展的重要转变。它使得不同类型的加速器、网络技术和定制芯片能够在单一部署中协同工作,为AI推理提供更好的性能优化和更大的灵活性。
Q3:UALink与NVLink有什么区别?
A:UALink是由AMD、Intel、Broadcom等多家公司支持的联盟标准,旨在多供应商模型中提供类似的AI互连能力。而NVLink是Nvidia的专有技术。两者的竞争本质上不是性能对比,而是关于AI基础设施控制权的争夺。