人工智能 (AI) 将改变世界。但要实现其潜力,我们将不得不改变设计计算系统的方式。
诸如在云中训练神经网络或在边缘实时执行模式识别等任务将需要专门的片上系统 (SoC),最终需要针对独特的功率、性能和数据吞吐量进行优化的服务器和数据中心人工智能和机器学习 (ML) 的需求。否则,人工智能所需的成本、电力和碳将开始超过收益。
NVIDIA 率先使用 GPU 来提高数据中心中 HPC 和 AI 的性能、生产力和效率,今天在其 GTC 活动中宣布了其基于 Arm Neoverse 的 NVIDIA Grace CPU 超级芯片计划背后的细节。
NVIDIA Grace CPU 的亮点- NVIDIA Grace CPU 基于我们的下一代 Armv9 架构,将作为 Grace CPU 超级芯片和 Grace Hopper 超级芯片的一部分首先上市。Grace 系列处理器旨在在 AI 最苛刻的任务中提供高达 10 倍的性能飞跃,例如训练具有超过一万亿个参数的 NLP 模型,同时显着提高每瓦性能。
- NVIDIA Grace CPU Superchip 将包含两个 Grace CPU,总共多达 144 个 Arm Neoverse 内核,以及模块内部高达 960GB 的 LPDDR5x 内存,可提供 1 TB/秒的内存带宽,以满足 AI 的海量数据吞吐量要求, HPC 和超大规模工作负载。
- 来自 NVIDIA 的基准测试显示 Grace CPU Superchip 在 SPECrate ® 2017_int_base 基准测试中达到了 740 的估计性能。
- NVIDIA Grace Hopper 超级芯片将单个 Grace CPU 与基于 NVIDIA Hopper 的 GPU 结合在一起,这是 NVIDIA 最新的 GPU 架构。它还将配备 16 个 PCIe Gen5 通道和高达 960GB 的 LPDDR5x 内存。
- Superchips 中的 CPU 和 GPU 将通过 NVIDIA 的新 NVLink-C2C 连接,在芯片之间提供 900 GB/秒的带宽,是 NVIDIA 上的 PCIe Gen5 的 7 倍。与当今领先的服务器相比,GPU 的总系统内存带宽将提高 30 倍。
- NVIDIA NVLink-C2C 将支持 Arm 的 AMBA CHI 协议,以实现直接的芯片到芯片连接,从而加快同一 SoC 中基于 Arm 的 CPU 之间的通信,以及基于 Arm 的 SoC(如 Grace CPU Superchip)与其他基于 Arm 的设备,例如 NVIDIA Bluefield 数据处理单元 (DPU),或由 NVIDIA 合作伙伴开发的定制 ASIC。
基于 Arm Neoverse 的 NVIDIA Grace CPU 超级芯片Grace Hopper 超级芯片将成为 Alps 的处理器,这是一台由 瑞士国家超级计算中心 (CSCS) 和惠普企业开发的超级计算机,预计将于 2023 年用于气候建模、计算流体动力学和其他任务。Grace Hopper 超级芯片还被选为 美国能源部洛斯阿拉莫斯国家实验室 和 HPE 正在开发的超级计算机。
这里有许多首创。Grace CPU Superchip 是 NVIDIA 的第一款离散数据中心 CPU。Grace CPU 超级芯片也是第一款专为 AI、HPC 和超大规模工作负载设计的基于 Arm Neoverse 的设备,展示了通过 Neoverse CPU 以及高性能加速器和内存系统的紧密耦合实现的可能性。Grace CPU 还标志着 NVIDIA 第一款基于 Armv9 的芯片,因此将能够利用许多下一代功能。最后,新产品大大推动了提高互连性能的努力。
无处不在的人工智能蓝图过去十年是关于人工智能可以完成的事情。展望未来,科技行业、我们的客户,甚至广大公众都希望了解更多关于我们
如何实现这一目标的信息,即无线网络、数据中心架构或设备设计所需的变化,以制造自动驾驶汽车、预测性医疗保健,或其他可能的 AI 应用程序。
实现人工智能的承诺将利用整个 Arm 生态系统的人才,从系统和芯片设计人员到开发人员微调神经网络以提高速度、准确性和效率。我们要感谢 NVIDIA 帮助设置课程。
0