英伟达推GPU加速Arm服务器参考设计!微软Azure启动GPU超算实例

发布时间:2019-11-21 阅读量:594 来源: 智东西 发布人: Jane

11月20日消息,19日,英伟达在2019国际超级计算大会(SC19)上推出用于构建GPU加速Arm服务器的参考设计,以及用于优化网络和存储数据处理的Magnum IO软件套件。

 

与此同时,英伟达创始人兼CEO黄仁勋宣布,微软已在Azure云计算平台上构建了NDv2超大型实例,专为AI和HPC应用而构建,是全球最大的GPU加速的云端超级计算机之一 。

 

值得一提的是,Magnum IO软件套件主要针对当下市场的数据处理需求,能够帮助研究人员在数分钟内处理大量复杂的数据,数据迁移速度比以往提升20倍。

 

此外,黄仁勋还在现场发表演讲,针对AI、图像和高性能计算等技术的行业现状,以及目前业内的最新发展动态,阐释了他对HPC领域未来广阔的发展前景。

 

“高性能计算领域正在同时朝各个方向扩展。实际上,高性能计算已无处不在,比如超级计算中心、云和边缘等。”他说到。

 

英伟达推GPU加速Arm服务器参考设计1.jpg 

 

一、GPU加速Arm服务器参考设计,满足多样化HPC需求

 

黄仁勋在会上预测,如今Arm已拥有超过1000亿台计算设备,而在未来几年,该数字将超过1万亿台。

 

随着AI和机器学习等领域的技术研发不断创新与突破,从云端到边缘端、从高性能存储到百万兆级超算等方面的高性能计算需求正在持续增长。

 

而英伟达此次联合Arm等科技企业推出GPU加速Arm服务器的参考设计,由英伟达和Arm、Marvell和富士通等高科技企业共同开发,能满足从云端到边缘端等多样化的高性能计算需求。

 

同时,该设计还将硬件和软件基础模块相结合,让超级计算中心、超大型云运营商和企业,能通过使用英伟达加速计算平台和Arm服务器平台,来进一步满足自身的技术研发和工业应用等需求。

 

在黄仁勋看来,英伟达和Arm等企业的合作将会形成一个优质的生态,几乎所有在高性能计算中运行的工作,都应该能够在任何CPU上运行,并且目前已有30个应用已开始启动并运行。

 

英伟达推GPU加速Arm服务器参考设计2.png 

 

同时,许多高性能计算软件公司也开始使用英伟达CUDA-X库,以构建能在Arm服务器上运行,并可通过GPU实现的管理和监控工具。

 

此外,英伟达还与GROMACS、LAMMPS和Relion等领先的高性能计算应用开发商进一步合作,为Arm提供GPU加速的应用程序。

 

截至目前,英伟达已提供Arm兼容软件开发套件的预览版本,其包括英伟达CUDA-X库和加速计算开发工具。

 

英伟达推GPU加速Arm服务器参考设计3.png 

 

二、微软Azure云计算平台构建NDv2实例

 

Azure NDv2实例是专为处理要求苛刻的AI和HPC应用而构建,能够在一个Mellanox InfiniBand后端网络上,提供多达800个互联的英伟达V100 Tensor Core GPU,进一步解决当下复杂AI、机器学习和高性能计算的工作负载。

 

黄仁勋谈到,NDv2作为全球最快的超级计算机之一,能够使高性能计算研究者和其他人员实时获得前所未有的GPU算力。

 

在他看来,这是英伟达有史以来首次让用户可依据自身需求,来租用整台AI超级计算机,并且性能还可与需要长达数月部署时间的大型本地超级计算机相匹配。

 

此外,NDv2与其他基于CPU的传统计算机相比,其性能和性价比也有了一定的提升。

 

一方面,它可迅速启动多个NDv2实例,在短短几小时内完成复杂的会话式AI模型训练。例如,微软和英伟达研发人员曾使用64个NDv2实例,在三小时左右完成了BERT会话式AI模型的训练。

 

另一方面,它可帮助客户使用多个NDv2实例,以运行复杂的高性能计算工作负载。同时,相比专用于深度学习等特定应用程序,或未使用GPU的高性能计算节点而言,单个NDv2实例就可实现高达一个数量级的速度提升。

 

目前,NDv2已推出预览版本,其中一个实例包含了8个英伟达V100 GPU,以根据不同的工作负载需求进行扩展。

 

英伟达推GPU加速Arm服务器参考设计4.png 

 

三、Magnum IO软件套件:大量数据迁移速度提升20倍

 

近年来,随着AI等数据驱动型应用的愈加发展和成熟,大数据正在迎来爆发式增长,如何优化数据的传输和处理,已然成为数据中心所需面临的巨大挑战。

 

基于此,英伟达推出的Magnum IO软件套件,能将多服务器、多GPU计算节点的数据处理速度提升至20倍,帮助AI研究者和数据科学家将数据移动时间从数小时缩短至几分钟。

 

“Mangum IO能够为I/O与存储带来具有革命性计算性能的英伟达GPU加速。”针对Magnum IO软件套件对网络和存储领域进行的数据处理优化,黄仁勋说到。

 

与此同时,英伟达GPUDirect Storage是Magnum IO的一项关键功能,能为数据提供一条连通GPU内存和存储的直接数据路径,让研发人员在访问存储时绕过CPU,以快速访问用于模拟、分析和可视化的数据文件。

 

此外,GPUDirect可兼容多种通信互联产品与API,由点对点和RDMA组件组成。

 

值得注意的是,虽然Magnum IO软件套件已上市,但GPUDirect Storage暂时只为部分用户提供早期访问权限。

 

黄仁勋表示,英伟达计划在2020年上半年向所有客户提供GPUDirect Storage。

 

英伟达推GPU加速Arm服务器参考设计5.png 

 

结语:英伟达联手科技企业为HPC领域注入新活力

 

不难看出,随着AI、5G和自动驾驶等技术的进一步发展与成熟,超算技术已然成为驱动大数据、云计算和深度学习算法等融合创新的重要力量之一。

 

而作为全球领先的GPU巨头,英伟达在持续提高产品多样化、进行市场全方位部署的同时,也在持续打入各大领域的生态系统,进一步为这些生态提供各类高性能的计算工具。

 

未来,随着HPC领域的愈发成熟,以及超算技术与AI和云计算等各类领域的深度结合,英伟达又将会联合科技企业为行业带来那些惊喜,十分值得我们期待。

相关资讯
汽车继电器选型指南

继电器是一种当输入量(电、磁、声、光、热)达到一定值时,输出量将发生跳跃式变化的自动控制器件。而汽车继电器是汽车中使用的继电器,该类继电器切换负载功率大,抗冲、抗振性高。汽车中的电源多用12V,线圈电压大都设计为12V。由于是蓄电池供电、电压不稳定; 环境条件恶劣,吸动电压V≤60%VH(定额工作电压);线圈过电压允许达1.5VH。线圈功耗较大,一般为1.6~2W,温升较高。环境要求相当苛刻:在发动机舱,环境温度范围要求为-40℃~125℃,其他位置环境温度范围为-40℃~85℃;在发动机舱里使用的继电器要能经受砂尘、水、盐、油的侵害;振动、冲击相当苛刻。

电位器的选型技巧与关键技术参数

电位器具有一系列优势,包括设计简单、价格低廉、电阻范围大、操作简便和技术成熟。它们作为可靠的器件,在电子和电气系统中对线性或旋转运动进行电压控制、测量和精确感应。在实际应用中,我们需要了解电位器的技术参数,以便正确选型和使用,确保电路的正常运行。

Transphorm与伟诠电子合作推出新款集成型SiP氮化镓器件

该SiP系列现已增至三款器件,均使用了Transphorm的SuperGaN,为支持新一代适配器和充电器拓展了功率等级

血氧仪无缝替代的元器件选型方案

全球性公共卫生事件呈现多发态势,引发了社会各界对个人健康及公共卫生问题的深度反思和广泛关注。如何迅速、高效地了解人体健康状况,以确保个人身体健康,成为一大焦点问题。家庭医疗电子设备,以其便捷的操作和智能化的检测手段,使人们能迅速直观地判断自身健康状况,因此受到了大众的青睐。血氧仪采用非介入的方式测量或连续监测动脉血液中的氧饱和度,以确保血液中存在足够的氧,这种设备常用于处在麻醉状态的呼吸道疾病患者、新生儿以及重症患者。

低功耗智能燃气表实战方案:华大电子,龙芯和小华半导体套件汇总

随着中国城市化进程的加快、“煤改气”工程的持续推进等因素的加持,我国智能燃气表行业正迎来全面放量的时期,智能燃气表的市场需求快速增长。智能燃气表是在普通燃气表的基础上,增加了通信和计量技术,使得燃气表具备了自动抄表、数据传输、智能监测等多种新功能。作为燃气计量和结算的重要依据,燃气表计量数据采集及抄收的准确性、及时性至关重要,由于燃气的特殊性,要求燃气表有防爆的需求,同时还需要长时间高可靠工作,所以对MCU的稳定性、可靠性都有很高的要求。针对智能燃气表的需求特点,快包分析师推荐华大、龙芯、小华的智能燃气表主控方案。