微软为什么要用英伟达的GPU来支持CNTK?

简介:

今天下午,在北京举行的GTC CHINA 2016(GPU技术大会)中,英伟达深度学习研究院对CNTK中图像识别功能进行了简单介绍。

首先,我们来了解下CNTK。

CNTK(Computational Network Toolkit)是由微软研究院开发的开源计算网络工具包,它通过一个有向图对一系列的计算步骤进行描述,也是一个统一的深度学习神经网络工具包。

微软为什么要用英伟达的GPU来支持CNTK?

CNTK的总体架构如上图所示,这里我们可以简单地分几部分进行理解,分别是上中下和左中右两种理解逻辑。先说上中下部分,最下面的包含IDataReader这一层可以理解为基础的数据。

想象训练一个典当行的学徒鉴别古董的真假,你需要先拿一些真真假假的古董让他自己去领会,这个就是学习的过程,也是初始数据的输入过程。

学习的结果就是第二层包含CN的东西

可以理解为典当行学徒通过真真假假的古董所领悟到大脑的知识

最上面的IExecutionEngine

其实可以理解是这个典当行学徒的个人行为,顾客拿了一个古董,让其鉴别其真假,这就是最上层的作用或者是意思。

其次左中右部分,最左边是输入的原始数据,这里引入了CN Description也就是网络的描述

可以理解为典当行学徒的师傅给予的指导性意见或者是古董鉴别教科书

而Features&Labels中的Features就是样本或者古董,Labels可以理解是古董样本上标明真真假假的标签

中间的是ICNBuilder是学习的行为的驱使,IDataReader是仔细观察并且检验所学内容的行为的驱使。最右边的ILeaner是学习方法,CN之前解释过了是学习的成果,IExecutionEngine也就是最终拿来真正东西进行检验的行为。

可以说CNTK的总体架构,描述了一个典当行学徒的从入门到精通的学习过程。从样本训练自己,形成自己的能力,然后使用其所学。

根据研究人员的描述,由于具备更为优秀的交互能力,CNTK工具包中图像识别速度比另外四个当下主流的计算工具包都更加受开发者的欢迎。

微软为什么要用英伟达的GPU来支持CNTK?

在微软最新发布的CNTK1.7版本中,CNTK已经支持英伟达的最新的深度神经网络资料库cuDNN5.1。

其实在Facebook、百度等巨头的人工智能研究中,经常用到英伟达的GPU。

Facebook的Big Sur服务器是围绕本来为图片处理而开发的大功率处理器——GPU来设计的。每8个GPU就配置一台Big Sur服务器,Facebook使用的正是擅长于图像识别的英伟达制造的GPU。

百度将把英伟达的GPU应用到其无人驾驶系统的车载电脑中。这台电脑可以解决汽车厂商在融合无人驾驶技术时面临的一大问题:如何将人工智能技术集成到紧凑的电脑中,从而帮助汽车制定决策。除了为无人驾驶、以及深度学习的复杂计算提供强劲性能支持外,它还能够同时驱动多个高分辨率的显示设备,应用于智能汽车中的仪表盘、地图导航、车载中控面板等。

几乎所有巨头都在依靠强大的图形处理单元(GPUs)来进行深度学习应用,从而处理更为复杂的算法,能提高人工智能和识别能力,微软在此方面也不甘落后。

本文转自d1net(转载)

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
30天前
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。
|
5月前
|
存储 人工智能 芯片
多GPU训练大型模型:资源分配与优化技巧 | 英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe
在人工智能领域,大型模型因其强大的预测能力和泛化性能而备受瞩目。然而,随着模型规模的不断扩大,计算资源和训练时间成为制约其发展的重大挑战。特别是在英伟达禁令之后,中国AI计算行业面临前所未有的困境。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析英伟达禁令对中国AI计算行业的影响。
|
6月前
|
机器学习/深度学习 人工智能 芯片
一文详解多模态大模型发展及高频因子计算加速GPU算力 | 英伟达显卡被限,华为如何力挽狂澜?
近年来,全球范围内的芯片禁令不断升级,给许多企业和科研机构带来了很大的困扰,需要在技术层面进行创新和突破。一方面,可以探索使用国产芯片和其他不受限制的芯片来替代被禁用的芯片;另一方面,可以通过优化算法和架构等方法来降低对特定芯片的依赖程度。
|
5月前
|
存储 人工智能 安全
探秘英伟达显卡的制造之路 | 英伟达断供GPU,中国大模型何去何从?
在当今时代,人工智能技术正以前所未有的速度发展,推动着各个领域的创新与变革。作为人工智能技术的核心引擎之一,高性能GPU扮演着至关重要的角色。在这个领域,英伟达的H100无疑是一款备受瞩目的高端产品。它针对高性能计算和人工智能应用而设计,具备强大的计算能力和高内存容量,以及先进的互连技术,可以有效提升集群中的计算效率,加速深度学习、计算机视觉、自然语言处理等领域的AI训练和推理任务。
|
10月前
|
机器学习/深度学习 存储 人工智能
【玩转 GPU】英伟达GPU架构演变
【玩转 GPU】英伟达GPU架构演变
468 0
【玩转 GPU】英伟达GPU架构演变
|
11月前
|
机器学习/深度学习 人工智能 缓存
英伟达用AI设计GPU算术电路,面积比最先进EDA减少25%,速度更快、更加高效
英伟达用AI设计GPU算术电路,面积比最先进EDA减少25%,速度更快、更加高效
206 0
|
11月前
|
机器学习/深度学习 人工智能 定位技术
几个GPU工作数天≈10人团队工作大半年,英伟达用AI高效设计芯片
几个GPU工作数天≈10人团队工作大半年,英伟达用AI高效设计芯片
|
人工智能 Ubuntu Linux
重磅!英伟达宣布开源 Linux GPU 内核驱动
重磅!英伟达宣布开源 Linux GPU 内核驱动
225 0
重磅!英伟达宣布开源 Linux GPU 内核驱动
|
机器学习/深度学习 人工智能 供应链
时代落在英伟达身上的是粒什么沙,国产GPU的机会又在哪?
天道好轮回,苍天饶过谁。近日英伟达称,他们被要求停止向中国出口两种用于数据中心的GPU A100和H100,AMD也表示,已经收到新的要求,MI250出口到中国将会受限。A100,MI250等高端型号的GPU最主要特点就是可以提供双精度FP64类型的算力,而国产GPU一般在FP16也就是半精度数据处理方面不差,在FP32类型的处理能力上表现就一般了,FP64几乎是缺失的状态。
时代落在英伟达身上的是粒什么沙,国产GPU的机会又在哪?