搭载 Tensor 核心的 GPU 在每个递交 MLPerf 评测项目中皆创下最佳效能记录,更透过 NGC 全面释出加速堆栈

NVIDIA (辉达) 今天宣布于业界所发表首波 AI 评测标准中,创下 6 项 AI 效能纪录

包括 Google、Intel、百度、NVIDIA 与其他数十家科技巨擘全力支持的 MLPerf 效能评测标准能用来评鉴各种深度学习作业负载的处理效能。作为业界首个客观的 AI 效能评测标准,它涵盖的领域包括计算机视觉、语言翻译、个人化推荐与强化学习等方面。

NVIDIA在 6 项递交的 MLPerf 评测项目中皆创下最佳的效能纪录,从搭载 16 个 GPU 的单一节点到搭载 640 个 GPU 的 80 个节点所组成的系统,涵盖各种作业负载与基础设施的规模。

上述 6 个项目包括影像分类、物体切分、物体侦测、非常见语句翻译、常见语句翻译与推荐系统。NVIDIA 并未递交第 7 项增强式学习的评测,因为该类运算并没有充分发挥 GPU 加速的能力。

NVIDIA 技术在语言翻译这个关键的评测项目中表现尤其优异,在 6.2 分钟内就完成 Transformer 类神经网络的训练。欲了解所有递交的 6 项评测项目详情, 敬请参阅 NVIDIA 开发者新闻中心

NVIDIA 工程师在 NVIDIA DGX 系统上达成这次纪录,该系统搭载了全球最强的 AI 系统 NVIDIA DGX-2,其以完整连结 16 个 V100 Tensor 核心 GPU 所打造。

NVIDIA 是唯一递交 6 项评测项目的企业,此举充分展现 V100 Tensor 核心 GPU 在现今部署各类 AI 作业负载中的多元化用途。

NVIDIA 副总裁暨加速运算总经理 Ian Buck 表示:「全新 MLPerf 评测标准展现 NVIDIA Tensor 核心 GPU 无可匹敌的效能与多元应用。该 GPU 在全球各地皆可透过各个云端服务供应商与计算机制造商以合理的价格取得,协助全球开发人员提升 AI 在各阶段发展的潜能。」

顶尖 AI 运算需要完整堆栈的全面创新

要在复杂且多元的运算作业负载上发挥卓越效能,需要的资源不光只有芯片,而加速运算涉及的层面也不仅止于加速器,需要动用到全部的元件堆栈。

NVIDIA 旗下的堆栈包含了 NVIDIA Tensor 核心、NVLinkNVSwitch、DGX 系统、CUDAcuDNNNCCL、最佳化深度学习框架容器与 NVIDIA 软件开发套件

NVIDIA AI 平台是最易取得、价格最合理的平台,Tensor 核心 GPU 现已在全球各地的各大云端平台与计算机制造商供应取用。

透过最强大的桌上型 GPU NVIDIA TITAN RTX,与 Tensor 核心 GPU 相等的效能也能在桌机上发挥,其售价为 2,500 美金,若透过 3 年的分摊,其等同于每小时仅需消耗几分美元。

此外,加速堆栈也将透过 NVIDIA GPU Cloud (NGC) 持续更新。

NVIDIA 创纪录平台现正透过 NGC 开放使用

用来达成 NVIDIA 领先业界 MLPerf 效能所采用的软件创新与最佳化技术,现正透过 NVIDIA NGC 深度学习容器免费开放各界使用。下载请至 NVIDIA NGC 容器登入服务官方网站

这些容器内含完整的软件堆栈与热门的 AI 框架,其皆已由 NVIDIA 进行最佳化。NVIDIA NGC 18.11 版本深度学习容器中就亦含创新 MLPerf 纪录所采用的软件。

开发者可在每个开发阶段将这些堆栈运用在任何领域:

对于使用桌机的资料科学家,可以透过 NVIDIA TITAN RTX GPU 进行顶尖研究。

对于团体用户,可以透过 NVIDIA DGX 工作站系统执行上述容器。

对于企业方面,可以透过像阿里云、AWS、百度云、 Google Cloud、IBM Cloud、Microsoft Azure、Oracle Cloud Infrastructure 与腾讯云等环境中执行 NVIDIA GPU 加速,提高各种 AI 应用处理资料的速度。