(CWW)NVIDIA和软银公司近日宣布,双方正在合作打造一个基于NVIDIA GH200 Grace Hopper™超级芯片、面向生成式AI和5G/6G应用的开创性平台。软银计划在日本各地的全新分布式AI数据中心采用该平台。

为在全球范围内快速部署生成式AI应用和服务铺平道路,通过与NVIDIA合作,软银将打造能够在多租户通用服务器平台上托管生成式AI和无线应用的数据中心,以降低成本和更节能。

该平台将使用全新NVIDIA MGX™参考架构和基于Arm Neoverse的GH200超级芯片,有望提高应用程序工作负载的性能、可扩展性和资源利用率。


(资料图片仅供参考)

软银公司总裁兼首席执行官Junichi Miyakawa表示:“随着我们进入一个社会与AI共存的时代,对数据处理和电力的需求将不断增长。软银将提供下一代社会基础设施,以支持日本的超级数字化社会。与NVIDIA的合作将帮助我们的基础设施利用AI实现更高的性能,包括对RAN的优化。我们期待这也可以帮助我们降低能耗,创建一个互连的数据中心网络,用于共享资源并托管一系列生成式AI应用。”

NVIDIA创始人兼首席执行官黄仁勋表示:“对加速计算和生成式AI的需求正在推动数据中心架构的根本性变革。NVIDIA Grace Hopper是一个革命性的计算平台,专为处理和扩展生成式AI服务而设计。与以往富有远见的其它举措一样,软银正在引领世界创建一个电信网络来承载生成式AI服务。”

相比以往的数据中心,这些新数据中心的分布将更加均衡,并能够同时处理AI和5G工作负载。这将让它们更好地保持峰值运行,同时保持低时延并大幅降低总体能源成本。

软银正在为自动驾驶、AI工厂、增强现实和虚拟现实、计算机视觉和数字孪生开发5G应用。

虚拟RAN的吞吐量破纪录

NVIDIA Grace Hopper和NVIDIA BlueField®-3 DPU将加速软件定义的5G vRAN以及生成式AI应用,而无需定制硬件加速器或专用5G CPU。此外,配备BlueField-3的NVIDIA Spectrum以太网交换机将为5G提供高精度时间同步协议。

该解决方案在NVIDIA加速的1U MGX服务器设计上实现了突破性的5G速度,根据公开的5G加速器数据,它实现了业内吞吐量最高的36Gbps下行链路容量。运营商一直难以通过行业标准服务器实现如此高的下行链路容量。

全新参考架构

NVIDIA MGX是一个模块化参考架构,让系统制造商和超大规模企业客户能够快速、经济地构建100多种服务器机型,适用于各种AI、HPC和NVIDIA Omniverse™ 应用。

通过将NVIDIA Aerial™ 软件引入到高性能的软件定义的云原生5G网络中,这些5G基站将允许运营商动态地分配计算资源,并实现比竞品高2.5倍的能效。

Arm首席执行官Rene Haas表示:“生成式AI的未来发展需要高性能、节能的计算,就像NVIDIA 基于Arm Neoverse的 Grace Hopper超级芯片那样。结合NVIDIA BlueField DPU,Grace Hopper使软银新的5G数据中心能够运行最苛刻的计算和内存密集型应用,并为Arm上的软件定义5G和AI带来指数级的能效提升。”

推荐内容