机器学习是当代最重要的计算机运算发展项目之一。

先进的机器学习技术使得人工智能出现爆炸性的发展,创造出新一波智慧应用和服务项目。

实时语音翻译、自动机器人、通过脸孔分析侦测人类情绪,一眼望过去,这些项目全都可以做得到。

但要做到以上事物,得花费不少运算效能来训练这些崭新应用方式背后精密的深度神经网络,这可是一项大工程,就算速度最快的超级计算机也得花费数天到数周的时间进行训练。

毫不意外地,后来每位顶尖机器学习研究人员和开发人员采用 NVIDIA Tesla 加速运算平台和 Deep Learning 软件开发套件(这是加快深度神经网络运算的工具和元件库组合)。

针对训练神经网络,利用 GPU 加速器要较使用 CPU 的速度快上10到20倍。原本需耗上数天或数周的时间,现在减少到只要几小时就能完成。研究人员和资料科学家便能建立更庞大、更精密的神经网络,创造出无比聪明的下一代应用项目。

业界领先机构将 GPU 用于机器学习

Facebook 是最新宣布打算使用 GPU 的企业。今日稍早Facebook 披露「Big Sur」计划,这是他们下一代专门用于训练深度神经网络的系统。

 Big Sur 采用NVIDIA全新的 Tesla M40 GPU 加速器,这是用于在企业资料中心里训练深度神经网络的产品。在 GPU 的加持下,Big Sur 的速度较 Facebook 现有系统提高2倍,可训练两倍数量的神经网络,让应用程序更具智慧也更精准。

Facebook 的合作伙伴打算透过开放运算计划(Open Compute Project),将 Big Sur 的规格源码开放给社群,让其他人能将 GPU 用于各种机器学习活动上。

其它机构亦陆续将 GPU 用于机器学习上。

上个月 IBM 宣布旗下的 Watson 认知运算平台开始支援 NVIDIA Tesla K80 GPU 加速器

GPU 与 Watson 的 POWER 架构两相结合,将撷取和评等 API 速度加快1.7倍,处理能力则是快上10倍,使得 Watson 的自然语言处理及其它重大应用程序的能力更为强大。

NVIDIA 深度学习软件开发套件(Deep Learning SDK)推动机器学习进步

NVIDIA 的 Deep Learning SDK 是快速推动将 GPU 用于机器学习的关键,这组 SDK 内集合多项强大工具和元件库,资料科学家和研究人员可用于建立训练和部署深度神经网络所需的区块。

内有 NVIDIA 的深度学习 GPU 训练系统「DIGITS」,让资料科学家和研究人员能运用实时网络特性视觉化内容,快速依资料设计最佳的深度神经网络,重点是过程中无需编写任何程序码。

SDK 内还有 NVIDIA CUDA 深度神经网络(cuDNN),其优化后的例行程序使得开发人员能将重心放在设计和训练神经网络模型上,而非用于低阶的调效性能作业上。

它还内含其它元件库及工具,象是 cuBLAS、cuSPARSE、NCCL 及 CUDA 工具套件,皆加以优化以减轻机器学习的工作量。  

深度学习架构的基础

NVIDIA GPUs 与深度学习软件开发套件推动了机器学习领域的发展,而发展及使用 GPU 加速深度学习架构,以训练深度神经网络的机构数量也不断增加。

其中包括微软的 CNTK 架构及 Google 的 TensorFlow,他们的开发人员日前推出这两项架构的开放源码解决方案供大众使用,加入 Caffe、Theano 及 Torch 等其它广泛用于设计和训练深度神经网络的开放架构。

人工智能的竞赛己经开跑,机器学习更推波助澜人工智能的竞赛。GPU 成为推动机器学习发展的强力引擎,日后定会在产业和研究各领域促进发展创新项目。