创新不忘初心应用更创价值 中科曙光全球首发M-Pro架构服务器

简介:

6月19日至23日,每年一度的高性能计算领域的国际盛会——第31届国际超级计算大会(ISC2016)在德国法兰克福举行。当地时间6月21日上午,国内领先的高性能计算厂商曙光公司全球首次发布了基于Multi-Host技术的“M-Pro”架构服务器——Multi-Hosted Multi-Processor,成为ISC2016新产品板块的耀眼新星。

巧妙的M-Pro架构设计

众所周知,在摩尔定律的指引下,CPU的多核化、SIMD向量化不断提升着计算机的理论计算性能。然而,简单地增加核心数、增加向量位宽也导致着高性能计算应用的并行效率越来越低、向量指令利用率等优化越来越困难,这成为了制约应用性能提升的最大瓶颈。

 创新不忘初心应用更创价值  中科曙光全球首发M-Pro架构服务器

曙光此次提出的全新M-Pro架构就是要“反其道而行”,即采用单核性能更加高的Xeon E3-1200 v5系列处理器和Muti-host共享网络技术,配合曙光已有的高密度刀片技术,来设计实际应用性能更高,性价比更好,兼容性更强的服务器。

M-Pro架构的优势

1, E3 v5•强劲的单核性能

“提高CPU的单核计算性能是提升服务器应用性能最直接的手段,这一手段远比增加CPU核数更为有效。”曙光高性能计算产品事业部总工程师,戴荣博士解释说,“大部分高性能计算应用更喜欢主频高、单核性能好的服务器。一般而言,单核性能好,对实际应用就更有利,尤其是对计算、访问存储、通信密集要求高,而并行扩展性一般的应用而言更是如此。”

据了解,M-Pro节点采用Intel最新Skylake架构的Xeon E3-1200 v5系列处理器,该处理器3.0-3.7GHz的主频和更高的单核计算峰值(1.x倍)、更高的单核内存性能(1.x倍)、更高的单核网络带宽(2.x 倍)可提供比普通双路计算节点更为强劲的单核性能,能够更轻松地应对计算密集、访存密集、通信密集型应用。

2, Multi-Host•更先进的高速网络技术

针对普通双路节点上相邻两颗CPU上的进程跨节点通信性能不足且不均匀的问题,曙光选择利用先进的 Multi-Host高速网络技术作为解决方案。基于100Gb/s EDR InfiniBand的Multi-Host技术可以让多个节点共享一个网络设备,该技术已经被Facebook主导OCP组织认定为服务器网络标准。

“1片 CX20-G30 刀片包含2个E3 v5单路节点,2片CX20-G30(4颗CPU)共享一个100Gb/s EDR InfiniBand接口。这样一来,可实现0.6μs超低延迟、单核网络带宽达到6.25Gb/s,是普通双路节点的两倍多。”戴博士解释说,“Multi-Host高速网络技术可使所有CPU上的进程跨节点通信性能均衡,并且节点共享还可降低网络成本。尤其是低至0.6μs的网络延迟正是实际的应用程序所迫切需要的。”

“数据中心相关技术正在进入一个崭新的阶段,其中的网络互连部分正起着越来越重要的作用。Mellanox的Multi-host产品能够帮助曙光 等合作伙伴完成独一无二的可调节且性能优异的服务器解决方案。我们很高兴看到,我们的Multi-host 100G EDR InfiniBand产品能够被曙光M-Pro刀片系列服务器采用。我们坚信这个创新的解决方案将迅速获得市场关注。”迈络思(Mellanox)公司市场副总裁Gilad Shainer先生评价道。

3,一脉相承,上下兼容

近些年服务器市场格局变幻莫测,用户需求也不断提升。刀片服务器比机架服务器占用更少的空间,性能更高。刀片服务器的电路板上设置了关键服务器组件,每个服务器板消除了专用电缆和其他元素,能够为用户节约成本。

曙光的刀片服务器研发可以追溯到2004年,至今已经研制出6代刀片。此次推出的基于M-Pro架构的高密度刀片,不仅能够实现与曙光相关刀片的兼容,还可以实现与普通其他刀片的混插。极大的满足了不同客户多样性的需求。

曙光M-Pro架构发展路线

 创新不忘初心应用更创价值  中科曙光全球首发M-Pro架构服务器

由于M-Pro服务器具有相同理论峰值下实测应用性能更高、相同投资情况下实测应用性能更好的显著优 势,它已经得到了高性能计算应用和互联网应用用户的着重关注。为了尽快服务客户,针对于高性能计算应用的M-Pro HPC服务器预计将于2016年7月量产。而针对于互联网应用的M-Pro Web服务器预计将于2016年10月量产。据悉,M-Pro Web服务器与M-Pro HPC服务器的主要差别会在网络方面。

M-Pro HPC:看得见的实测应用性能提升和更优的性价比

 创新不忘初心应用更创价值  中科曙光全球首发M-Pro架构服务器

据测试,M-Pro架构服务器相比普通双路计算节点实测应用性能显著提高。如VASP, OpenMX, Espresso, CPMD, Lammps, WRF的测试数据都展现了近150%的性能提升。从成本角度来说,则相当于为客户节约了~30%的服务器购置投入。

曙光M-Pro架构服务器是一款从客户实际应用出发,采用最先进的处理器和网络技术,进行优化设计出的一款具有相当性价比竞争力的产品。这曙光一直以来秉承的“从客户应用中来,回到用户应用中去”的理念的又一次成功尝试。我们热诚的邀请用户一起来为下一代刀片技术献计献策,一起寻找和实现更加高效的计算解决方案。


原文发布时间为:2016-06-22

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。



相关文章
|
1天前
|
存储 机器学习/深度学习 应用服务中间件
阿里云服务器架构解析:从X86到高性能计算、异构计算等不同架构性能、适用场景及选择参考
当我们准备选购阿里云服务器时,阿里云提供了X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等多种架构,每种架构都有其独特的特点和适用场景。本文将详细解析这些架构的区别,探讨它们的主要特点和适用场景,并为用户提供选择云服务器架构的全面指南。
|
15天前
|
Kubernetes 监控 Serverless
基于阿里云Serverless Kubernetes(ASK)的无服务器架构设计与实践
无服务器架构(Serverless Architecture)在云原生技术中备受关注,开发者只需专注于业务逻辑,无需管理服务器。阿里云Serverless Kubernetes(ASK)是基于Kubernetes的托管服务,提供极致弹性和按需付费能力。本文深入探讨如何使用ASK设计和实现无服务器架构,涵盖事件驱动、自动扩展、无状态设计、监控与日志及成本优化等方面,并通过图片处理服务案例展示具体实践,帮助构建高效可靠的无服务器应用。
|
25天前
|
机器学习/深度学习 运维 资源调度
深度学习在资源利用率优化中的应用:让服务器更聪明
深度学习在资源利用率优化中的应用:让服务器更聪明
102 6
|
1月前
|
弹性计算 负载均衡 Java
【上云基础系列 02-01】通过SLB+1台ECS+ESS弹性伸缩,搭建一个精简版的上云标准弹性架构(含方案及教程)
通常,构建一个弹性架构(即使是一个最基础的入门版),至少需要2台ECS。但是,很多小微企业刚开始上云的时候,为了节省成本不愿意购买更多的服务器。通过 “ALB+ESS弹性伸缩+1台ECS+RDS”方案,在保障低成本的同时,也不牺牲业务架构的弹性设计,更避免了很多人因为节省成本选择了单体架构后频繁改造架构的困局。 方案中的几个设计非常值得小微企业借鉴:(1)通过ALB/RDS的按量付费,节省了初期流量不大时的费用;(2)通过ESS弹性伸缩,不需要提前购买服务器资源,但是当业务增长或减少时却保持了资源弹性自动扩缩容。
|
1月前
|
存储 人工智能 并行计算
2025年阿里云弹性裸金属服务器架构解析与资源配置方案
🚀 核心特性与技术创新:提供100%物理机性能输出,支持NVIDIA A100/V100 GPU直通,无虚拟化层损耗。网络与存储优化,400万PPS吞吐量,ESSD云盘IOPS达100万,RDMA延迟<5μs。全球部署覆盖华北、华东、华南及海外节点,支持跨地域负载均衡。典型应用场景包括AI训练、科学计算等,支持分布式训练和并行计算框架。弹性裸金属服务器+OSS存储+高速网络综合部署,满足高性能计算需求。
|
1月前
|
数据采集 搜索推荐 定位技术
网站服务器管理中静态长效代理的价值与作用
在网站服务器管理中,使用静态长效代理具有多重优势。其稳定性与持久性确保长时间稳定运行,简化网络管理,减少配置更改;能访问受限资源,提升工作效率,增强安全性与信息保护,优化网络营销策略,如SEO和关键词排名监测。静态代理是现代网络管理不可或缺的工具。
31 0
|
2月前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器ECS架构区别及选择参考:X86计算、ARM计算等架构介绍
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别,本文主要简单介绍下这些架构各自的主要性能及适用场景,以便大家了解不同类型的架构有何不同,主要特点及适用场景有哪些。
257 10
|
2月前
|
存储 人工智能 运维
面向AI的服务器计算软硬件架构实践和创新
阿里云在新一代通用计算服务器设计中,针对处理器核心数迅速增长(2024年超100核)、超多核心带来的业务和硬件挑战、网络IO与CPU性能增速不匹配、服务器物理机型复杂等问题,推出了磐久F系列通用计算服务器。该系列服务器采用单路设计减少爆炸半径,优化散热支持600瓦TDP,并实现CIPU节点比例灵活配比及部件模块化可插拔设计,提升运维效率和客户响应速度。此外,还介绍了面向AI的服务器架构挑战与软硬件结合创新,包括内存墙问题、板级工程能力挑战以及AI Infra 2.0服务器的开放架构特点。最后,探讨了大模型高效推理中的显存优化和量化压缩技术,旨在降低部署成本并提高系统效率。
|
1天前
|
人工智能 运维 数据可视化
玩转云服务器——阿里云操作系统控制台体验测评
在云服务器日益普及的背景下,运维人员对操作系统管理工具的要求不断提高。我们需要一款既能直观展示系统状态,又能智能诊断问题,提供专业指导的控制台。阿里云操作系统管理平台正是基于API、SDK、CLI等多种管理方式,致力于提升操作效率,为用户带来全新的系统运维体验。阿里云操作系统控制台凭借便捷易用的设计和高效的管理功能,成为云服务器运维的强力助手。本次测评基于真实体验截图,对其整体表现进行了深入探索。
50 33
|
3天前
|
存储 运维 监控
深度体验阿里云系统控制台:SysOM 让 Linux 服务器监控变得如此简单
作为一名经历过无数个凌晨三点被服务器报警电话惊醒的运维工程师,我对监控工具有着近乎苛刻的要求。记得去年那次大型活动,我们的主站流量暴增,服务器内存莫名其妙地飙升到90%以上,却找不到原因。如果当时有一款像阿里云 SysOM 这样直观的监控工具,也许我就不用熬通宵排查问题了。今天,我想分享一下我使用 SysOM 的亲身体验,特别是它那令人印象深刻的内存诊断功能。

热门文章

最新文章