浪潮发布业界最高GPU密度的SR-AI整机柜

简介:

在不久前结束的2017浪潮云数据中心全国合作伙伴大会(IPF)上,浪潮秉承坚持围绕"计算+"战略,进一步明确业务重心,聚焦智慧计算,发展开放融合的计算生态,建立智慧计算市场的领导力。

智慧计算的未来在商业应用, 随着人工智能应用的快速发展,AI所需的计算力也急剧攀升。此前,浪潮就已在AI计算平台、架构领域布局,拥有业界完整的支持2、4、8 GPU卡的异构超算服务器阵列。而本次IPF上,浪潮发布了业界最高密度的、单机点支持16块GPU卡的SR-AI整机柜,进一步优化了AI计算硬件架构,改变原有CPU-GPU紧耦合状态,实现GPU资源的灵活池化扩容。

浪潮发布业界最高GPU密度的SR-AI整机柜

人工智能成为未来社会发展重要动因

更复杂的AI应用呼唤更强大的计算平台

深度学习概念和浅层学习算法已经被提出多年,而人工智能近年才开始逐渐升温,原因是人工智能技术的进步受限于计算平台的性能和数据量的积累。举个例子,从IBM深蓝战胜卡斯帕罗夫,浪潮天梭战胜五位象棋大师,再到谷歌AlphaGo战胜围棋冠军李世石,解决问题的博弈树空间扩大了237数量级,这其中需要更优化的算法,也需要更强大的计算平台来支撑实时运算。

除了AI游戏,在现实生活中人工智能的应用也越来越广泛和复杂,从人脸签到打卡,到行动轨迹追踪,再到无人驾驶汽车,更复杂的AI应用呼唤更强大的计算平台。传统的单机单卡、2卡甚至8卡已经不能满足多样化的业务需求,浪潮SR-AI整机柜服务器以单节点16卡的更高密度,满足当下快速膨胀的AI计算能力需求。

浪潮发布业界最高GPU密度的SR-AI整机柜

SR-AI整机柜服务器

更高密度+资源解耦,10倍于传统AI计算设备性能

此次,浪潮与百度联合发布的SR-AI整机柜服务器,符合最新的天蝎2.5标准,是全球首个采用PCIe Fabric互联架构设计的AI方案,通过PCI-E交换机和GPU BOX两个模块的配合,打破GPU和CPU的物理耦合,让两者可以灵活扩展,相对于传统的GPU服务器,这是种颠覆式的创新,带来了高密度、低延迟、易扩展等优势。

首先,传统的AI计算设备集群需要通过高速网络实现数据的交互,着会带来us级以上的延迟,而SR-AI整机柜中GPU BOX间的互联是通过PCI-E交换机来实现,并借助GPUDirect RDMA技术可以大幅下降跨节点GPU间的通信延迟,能够实现ns级网络延时。

第二,SR-AI整机柜的I/O BOX单节点即可实现支持16个GPU的超大扩展,并且可以通过PCI-E交换机实现4个BOX、64块GPU的级联,峰值处理能力达到为512TFlops。

第三,SR-AI整机柜的GPU资源扩展无需同步配置高成本的IT资源(比如IB交换机),成本可优化5%以上,并随着规模上升成本优势越明显。

SR-AI整机柜是面向更大规模数据集和深层神经网络的超大规模AI计算平台,能够高效支撑复杂的深度学习线下模型训练任务,适用于图像识别、语音识别、自然语言处理、搜索排序等AI应用。百度实际业务的测试数据显示,SR-AI整机柜相比传统的AI方案性能提高5-10倍!

高效开发框架+算法协同优化,AI计算效率最大化

与 CPU 少量的逻辑运算单元相比,GPUFPGAMIC这种协处理加速设备整个就是一个庞大的计算矩阵,可实现 10-100 倍应用吞吐量。但同时,这种庞大的并行能力需要付出代价:需要较强的软件开发能力和算法优化能力。

为此,浪潮将高效深度学习框架Caffe-MPI开源,与众多开发者共同优化,为深度学习的用户提供了更便捷、更高效的应用手段。浪潮Caffe-MPI能够在保证正确率相同的情况下,在4节点下16卡的性能较单卡提升13倍,并增加了对cuDNN库的支持,使程序开发人员能够轻松实现高性能深度学习代码的开发。

在算法方面,此前浪潮与客户在GPU加速加速流量特征分析技术开展合作,通过软硬件和算法的协同优化,使训练24万样本的时间单节点4GPU相对于单GPU加速3倍,单机4GPU卡程序性能较原始版本加速270倍。

数据显示,2016年浪潮在人工智能计算领域的市场份额超过60%,为百度、阿里巴巴、腾讯、奇虎、科大讯飞、Face++等中国人工智能企业,提供基于GPU、FPGA、KNL等协处理加速服务器和caffe-MPI等软件、算法优化。


原文发布时间为: 2017年5月11日

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
1月前
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。
|
6月前
|
机器学习/深度学习 人工智能 芯片
一文详解多模态大模型发展及高频因子计算加速GPU算力 | 英伟达显卡被限,华为如何力挽狂澜?
近年来,全球范围内的芯片禁令不断升级,给许多企业和科研机构带来了很大的困扰,需要在技术层面进行创新和突破。一方面,可以探索使用国产芯片和其他不受限制的芯片来替代被禁用的芯片;另一方面,可以通过优化算法和架构等方法来降低对特定芯片的依赖程度。
|
9月前
|
人工智能 算法 自动驾驶
“AI+算力=最强龙头“的网络热门等式
“AI+算力=最强龙头“的网络热门等式
214 0
|
11月前
|
机器学习/深度学习 人工智能 编解码
双芯片四芯粒互联,寒武纪发布AI训练卡MLU370-X8:性能超越RTX
双芯片四芯粒互联,寒武纪发布AI训练卡MLU370-X8:性能超越RTX
371 0
双芯片四芯粒互联,寒武纪发布AI训练卡MLU370-X8:性能超越RTX
|
11月前
|
机器学习/深度学习 人工智能 并行计算
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能(1)
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能
418 0
|
机器学习/深度学习 人工智能 编解码
华为麒麟的AI性能是高通的3.5倍?这是所有手机运行神经网络的能力
麒麟 970 真的是当前最强手机 AI 芯片吗?至少苏黎世联邦理工学院的研究人员是这样认为的,在他们开发的 AI Benchmark 应用中,搭载麒麟芯片的华为 P20 Pro 的神经网络处理性能第一,比第二名一加 6 手机(搭载高通骁龙 845)的 3.4 倍还多。这款 APP 目前已经在 Google Play Store 上线,任何人都可以用来测试自己的手机「是否准备好进入 AI 时代了」。
191 0
华为麒麟的AI性能是高通的3.5倍?这是所有手机运行神经网络的能力
|
机器学习/深度学习 人工智能 运维
业界最高密度 阿里云发布新一代浸没式液冷GPU服务器集群解决方案
10月20日,2021杭州云栖大会,阿里云携手英伟达,宣布将为客户提供搭载英伟达A100 GPU的新一代浸没式液冷服务器集群解决方案。作为全球领先的云服务提供商和数字经济的新基础设施,阿里云为英伟达异构算力服务领域丰富了新的解决方案,将为不同需求用户提供更丰富、更具性价比的GPU服务器集群解决方案。
业界最高密度 阿里云发布新一代浸没式液冷GPU服务器集群解决方案
|
机器学习/深度学习 人工智能 算法
阿里云潘岳:异构计算四年算力提升100倍,云上AI推理占比超50%
潘岳介绍,阿里云提供了超大规模的云上异构计算集群,每秒可支撑100亿亿次的异构运算,能够在1秒内看懂超过5.3亿张图片;识别3.3亿秒/9.2万小时长的语音,相当于听写了1723本《红楼梦》长篇小说或者26万篇短篇小说;1秒内可以翻译4千万句话,相当于翻译了42本《哈姆雷特》。
阿里云潘岳:异构计算四年算力提升100倍,云上AI推理占比超50%
|
机器学习/深度学习 人工智能 自动驾驶
刚刚,黄仁勋发布全球最大GPU,超算级逆天算力,仅售39.9万美元
今天在刚刚结束的GTC 2018上,英伟达CEO黄仁勋说两件大事,一是发布了迄今最大的GPU,二是暂定自动驾驶暂停研发。随后英伟达股价下跌3.8%。GPU正在成为一种计算范式,但本质性突破乏善可陈,教主一路回顾过去创下的纪录,而鼎盛之下,衰退的迹象,似乎已经潜藏。
2193 0

热门文章

最新文章