Nvidia发布Pascal芯片及GPU服务器

简介:

在一年一度的GPU Technologies大会上,Nvidia发布了据它称是目前最大的16纳米FinFET芯片,以及封装了8个这种芯片的一款高端系统。Tesla P100芯片以及DGX-1服务器是最新的图形处理引擎,瞄准深度学习算法。

在关于计算机游戏的主题演讲中,Nvidia首席执行官黄仁勋展示了未来一切都将采用新兴的人工智能技术,从下一代云服务到汽车。

“深度学习不再只是研究,而是发生在各行各业,”黄仁勋表示。他将新兴的神经网络算法称为“一种新的计算模式”,“计算领域将要发生的最重要的事情之一”,“未来10年将会在每个行业和应用领域创造5000亿美元的机会”。

例如,P100(也就是此前的Pascal)将用于一款汽车主板上,将有助于开发自动驾驶使用。在对该技术的一项测试中,Nvidia将把这种芯片接入20台处于自动驾驶竞赛模式的无人驾驶电动赛车中。

Nvidia发布Pascal芯片及GPU服务器

首席执行官黄仁勋正在将Nvidia打造成为深度学习领域的一个新的“杀手级应用”。

“这场竞赛从耗费大量预算的机制测试转向对神经网络的软件竞争,”Nvidia汽车部门高级总监Danny Shapiro表示。

Nvidia正在提供自动驾驶系统的原型,80家汽车制造商和学者正在使用PDX2板卡,该板卡连接多达12个高清摄像头和其他传感器,Shapiro表示。

在云计算方面,百度高级研究员Bryan Catanzaro表示,他的实验室希望神经运行的速度提高30倍,将数据分散到8个P100芯片组成的集群上,该集群则是借助P100新的互连技术实现的。

黄仁勋表示,Google正在开源自己的TensorFlow人工智能框架。“我们确实认为深度学习将成为一切的组成部分,不仅是是针对数据中心,还有嵌入式系统和手机等各种各样的事物,”Google TensorFlow技术主管Rajat Monga这样表示。

另外,黄仁勋表示,虚拟现实正在作为一种新的计算平台崛起,Nvidia承诺将会给给领域的初创公司提供15亿美元资金。他邀请苹果联合创始人Steve Wozniak体验Mars 2030——一个将在今年秋季发布的虚拟现实环境。

此外,Nvidia还公布了两个VR版本的渲染系统,针对光线追踪。黄仁勋展示了其中专业VR系统,显示Nvidia正在建设中的新总部,另外一个是针对消费者的,采用安卓查看器。

Nvidia发布Pascal芯片及GPU服务器Nvidia的Pascal将成为机器人竞赛中无人驾驶电动汽车的司机。

Nvidia发布Pascal芯片及GPU服务器Pascal围绕着一个16纳米的FinFET GPU,带有HBM2内存,采用TSMC的CoWoS制程。

Tesla P100(也就是Pascal)将16GBytes HBM2 DRAM置于一个720GByte/s CoWoS (Chip-On-Wafer-On-Substrate)上。该GPU封装了3584个Nvidia Cuda核心,600mm2模片上有150亿个晶体管。

“这是目前最大的16纳米FinFET芯片,”Nvidia GPU工程高级副总裁Jonah Alben这样表示。

Alben指出,该中介层要求光罩缝合,因为它要比光罩大。该芯片的未来版本可能会在TByte/s总线上支持32GByte,他暗示说。

Pascal瞄准像深度学习系统这样的高性能计算任务。它会赶超来竞争对手AMD去年发布的Fiji芯片,更多地瞄准高端游戏领域。

每个芯片上的60个GPU块,旨在最大利用每个块中的56个核心。因此,核心周围配置了更多资源,包括寄存器数量翻番,共享内存比上一代多出了1/3。

这款芯片是Nvidia首次支持半精度,据称这对于深度学习、传感器数据和图像处理等应用是很有用处的。

该处理器正在进行量产,但是还没有出货,Nvidia表示它将出现在从今年6月开始出货的DGX-1服务器中。

Nvidia发布Pascal芯片及GPU服务器

Nvidia Pascal显微照片和关键指标

Nvidia发布Pascal芯片及GPU服务器

上面的Pascal横断面显示了四高HBM堆栈,以及硅光罩,采用4000条线连接内存和GPU。HBM2芯片支持ECC,这是设计者在早期GDDR内存中必须采用的。

对于开发者来说,这就像是全局内存一个更大、更快的块。49字位的虚拟内存空间可以支持数千个默认页和2 Mbyte页面大小。得到的统一内存系统可以将整个物理内存空间分配在一个系统中,可以跨CPU和GPU访问块,并且支持原子操作。

覆盖一系列深度学习任务(如下)的结果显示,两个Pascal芯片的性能要超过4个上一代Kepler处理器。蓝线的意思是结果低于英特尔Hashwell CPU。当4个和8个Pascal芯片做成集群的时候,系统很好地进行伸缩,很大程度上是因为采用了Pascal新的NVLink技术。

Nvidia发布Pascal芯片及GPU服务器

Nvidia发布Pascal芯片及GPU服务器Nvidia混合采用NVLink(绿色)和PCIe(黑色)连接GPU和CPU

Pascal是首款采用Nvidia NVLink的芯片,这是一种芯片到芯片的互连技术,最多可包括4个40 Gbit/s的连接。它旨在将8个Nvidia GPU做成集群,或者GPU和CPU的混合,例如将支持NVLink的IBM Power8处理器。

NVLink是一种连贯的互连,所以程序员看到的有点类似于跨芯片的本地内存。在物理层上,板卡设计者会看到承载NVLink、PCIe和电源信号的Pascal模块连接(如下)。

Nvidia发布Pascal芯片及GPU服务器

Pascal芯片堆栈下的模块连接器。

Nvidia发布Pascal芯片及GPU服务器

DGX-1是一款封装了最多8个GPU的3U服务器。

借助DGX-1,Nvidia将自己的足迹扩大到GPU计算系统领域。它在一台3U服务器内封装了8个Pascal芯片,交付170 TFlops性能,功耗是令人惊讶的3200瓦。该系统还包括一个7TB的固态盘,以及一个支持10Gb和100Gb Infiniband的网络控制器。

Nvidia宣称DGX-1可以将培训Alexnet的时间缩短到2个小时,而以前这在一台双路英特尔至强服务器上需要花费150小时。

Nvidia将在6月开始出货这款芯片和系统。OEM厂商包括Crap、戴尔、HPE和IBM,这些厂商将从明年年初开始出货各自的系统。


原文发布时间为:2016-04-08

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。



相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
1月前
|
存储 机器学习/深度学习 并行计算
阿里云服务器X86计算、Arm计算、GPU/FPGA/ASIC、高性能计算架构区别
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别,本文主要简单介绍下不同类型的云服务器有何不同,主要特点及适用场景有哪些。
阿里云服务器X86计算、Arm计算、GPU/FPGA/ASIC、高性能计算架构区别
|
5月前
|
存储 人工智能 芯片
多GPU训练大型模型:资源分配与优化技巧 | 英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe
在人工智能领域,大型模型因其强大的预测能力和泛化性能而备受瞩目。然而,随着模型规模的不断扩大,计算资源和训练时间成为制约其发展的重大挑战。特别是在英伟达禁令之后,中国AI计算行业面临前所未有的困境。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析英伟达禁令对中国AI计算行业的影响。
|
1月前
|
机器学习/深度学习 存储 弹性计算
阿里云GPU服务器价格多少钱?2024年阿里云GPU服务器价格配置及性能测评
2024年阿里云GPU服务器是一款高性能的计算服务器,基于GPU应用的计算服务,多适用于视频解码、图形渲染、深度学习、科学计算等应用场景。阿里云GPU服务器具有超强的计算能力、网络性能出色、购买方式灵活、高性能实例存储等特点。 阿里云提供了多种配置的GPU服务器,包括gn6v、gn6i、vgn6i-vws和gn6e等,这些服务器配备了不同型号的GPU计算卡、不同规格的内存和存储空间,可以满足不同用户的计算需求。同时,阿里云还为新用户提供了特惠价格,包年购买更是低至3折起,使得用户可以更加经济地购买到高性能的GPU服务器。
151 0
|
2月前
|
弹性计算 大数据 测试技术
2024年阿里云服务器价格配置表汇总(轻量服务器、ECS服务器、游戏服务器、GPU服务器)
今天整理了阿里云服务器价格,包含了阿里云轻量应用服务器、阿里云ECS云服务器、阿里云游戏服务器、阿里云GPU云服务器。阿里云服务器租用费用,云服务器ECS经济型e实例2核2G、3M固定带宽99元一年、ECS u1实例2核4G、5M固定带宽、80G ESSD Entry盘优惠价格199元一年,轻量应用服务器2核2G3M带宽轻量服务器一年61元、2核4G4M带宽轻量服务器一年165元12个月、2核4G服务器30元3个月,幻兽帕鲁4核16G和8核32G服务器配置,云服务器ECS可以选择经济型e实例、通用算力u1实例、ECS计算型c7、通用型g7、c8i、g8i等企业级实例规格。
161 0
|
3月前
|
弹性计算 并行计算 UED
带你读《弹性计算技术指导及场景应用》——4. 自动安装NVIDIA GPU驱动和CUDA组件
带你读《弹性计算技术指导及场景应用》——4. 自动安装NVIDIA GPU驱动和CUDA组件
|
3月前
|
异构计算 Python
GPU服务器:使用Colab
GPU服务器:使用Colab
87 1
|
4月前
|
弹性计算 并行计算 UED
GPU实例使用--自动安装NVIDIA GPU驱动和CUDA组件
GPU 云服务器正常工作需提前安装正确的基础设施软件,对于搭载了 NVIDIA 系列 GPU卡的实例而言,如果把 NVIDIA GPU 用作通用计算,则需安装 NVIDIA GPU 驱动、 CUDA、cuDNN等软件。
100921 3
|
4月前
|
机器学习/深度学习 存储 人工智能
南通阿里云代理商:阿里云GPU服务器GA1
@luotuoemo 飞机@TG 【聚搜云】服务器运维专家! 阿里云GPU服务器GA1是一款基于GPU架构的高性能计算机,它能够用于各种科学计算、人工智能、深度学习等应用程序。它不仅支持最新的NVIDIA GPU,还采用了最新的英特尔处理器和千兆以太网网络。
|
4月前
|
机器学习/深度学习 人工智能 运维
阿里云国际站:阿里云GPU计算型云服务器
简介:@luotuoemo 飞机@TG 【聚搜云】服务器运维专家! 提供便捷的管理工具,用户可以通过阿里云控制台轻松管理云服务器。如何使用阿里云GPU计算型云服务器使用阿里云GPU计算型云服务器,需要以下步骤:
|
3月前
|
人工智能 机器人 Serverless
魔搭大模型一键部署到阿里云函数计算,GPU 闲置计费功能可大幅降低开销
魔搭大模型一键部署到阿里云函数计算,GPU 闲置计费功能可大幅降低开销
580 2

热门文章

最新文章