英伟达这个芯片,依然难逢敌手

发布时间:2022-07-6 阅读量:763 来源: 我爱方案网整理 发布人: Aurora

1657099545694915.jpg

 

随着机器学习越来越多地进入社会的每一个角落,相应的训练任务也成为了云端数据中心最关键的运算负载之一,同时这也推动了半导体相关芯片市场的蓬勃发展。在云端训练芯片领域,虽然一直有不同的挑战者,但是Nvidia一直保持着龙头的位置。从2012年深度学习复兴,依靠Nvidia GPUCUDA生态成功克服训练效率难题并成功掀起这一代人工智能潮流之后,NvidiaGPU一直是训练市场的首选芯片。    

 

上周MLperf公布的最新训练榜单也再次印证了Nvidia的稳固地位。MLPerf是由机器学习业界的行业组织ML Commons牵头做的标准榜单,其中训练榜单的具体测评方法是ML Commons提供一些业界最流行的机器学习模型的训练任务,而不同的机构会自行去使用不同的处理器和AI加速芯片配合相应的软件框架去搭建系统执行这些训练任务,并且将结果提交到MLPerf来汇总和公布。每过一段时间,该榜单都会更新一次以包括新的芯片以及新的训练任务。在最新的629日公布的MLPerf训练2.0版本的结果中,Nvidia的领先地位可以从榜单中的两个地方看出:    

 

首先是使用Nvidia GPU提交结果的数量。在这次MLPerf的最新训练榜单中,绝大多数(90%以上)机构提交的训练结果都是基于NvidiaGPU做训练加速,而如果再仔细看结果,会发现NvidiaGPU是和不同的机器学习训练框架兼容性最好的。例如,GoogleIntelGraphCore都上传了使用非Nvidia GPU的结果(Google使用TPU v4Intel使用Habana Gaudi芯片,而Graphcore使用Bow IPU),但是这些竞争芯片对于深度学习框架支持的广度都不及Nvidia——基本上所有深度学习框架都会支持NvidiaGPU,但是支持其他芯片的深度学习框架种类则有限。这也从一个角度说明了Nvidia在生态上的领先。    

 

其次是性能上的比较。值得注意的是,本次绝大多数机构提交的基于Nvidia GPU的结果都是基于Nvidia A100 GPU,换句话说这已经是两年前的芯片的结果了(Nvidia官方宣布基于下一代GPU H100的结果将会在下一次MLPerf榜单更新时提交),但是其结果仍然很有竞争力,相较于其他更新的芯片的结果并不遑多让。例如,相比最新的Google TPUv4,在大规模语言模型预训练(BERT)任务上,同样使用4096张加速卡TPU v4需要的时间是0.179分钟,而Nvidia A100需要的时间是0.206分钟,相差并不大。相比Intel Habana Gaudi2,同样使用8张加速卡Nvidia A100 BERT训练结果是17.624分钟,而Habana Gaudi2需要的时间是17.209分钟。相比Graphcore Bow IPU,在BERT任务上128A100的训练时间是2.655分钟,而Bow IPU需要4.415分钟。在一些物体识别任务中,Habana Gaudi2的性能确实强于A100,但是这样的优势在Nvidia H100发布后是否还能保持还有很大的不确定性。

   

Nvidia的软硬件生态是关键护城河    

 

如前所述,Nvidia目前仍然在机器学习训练市场可以说是独孤求败,并没有受到强大的挑战。我们认为,这得益于Nvidia在芯片和软件方面的全面能力,而这从另一个角度又与人工智能芯片发展的规律相得益彰。    

 

首先,人工智能的发展规律中,人工智能模型始终和相关的加速硬件一起发展,也正因为这个原因,有能力掌握软硬件协同设计的公司将会有巨大的优势。即使单从芯片设计的角度来看,人工智能加速芯片中的架构设计也是极其重要,从性能提升角度比芯片的半导体工艺要更重要。    

 

纵观MLPerf公布的榜单,从第一个榜单公布到现在的时间周期内,摩尔定律主导的芯片性能(时钟频率)提升约为四倍,但是芯片对机器学习任务的处理能力却增强了四十倍,由此可见芯片架构以及软硬件协同设计恰恰是人工智能加速芯片的核心要素,而半导体工艺提升只是一个辅助因素。在这个领域,Nvidia确实具有巨大的优势,因为Nvidia在拥有强大的芯片架构设计团队来为人工智能模型设计芯片架构的同时,也拥有很强的软件团队来优化在芯片上的人工智能模型运行效率,两者相结合确实威力无穷。    

 

纵观Nvidia针对机器学习的GPU设计,其软硬件协同设计的思路可以说是一以贯之;在深度学习还未成为主流的时候,Nvidia就相当具有前瞻性地大力投入CUDA通用计算(包括软件架构以及相应的芯片架构支持)GPU在曾经CPU一统天下高性能计算领域的打出一片天,而在深度学习成为主流之后,Nvidia的做法并非一味暴力增强算力,而是通过有针对性地优化来以最佳的效率提升性能,其中的例子包括支持混合精度训练和推理,对于INT8的大力支持,在GPU中加入Tensor Core来提升卷积计算能力,以及最新的在H100 GPU中加入Transformer Engine来提升相关模型的性能。这些投入都包括了软件和芯片架构上的协同设计,而同时也收到了很好的回报,使得Nvidia能使用最小的代价(芯片面积,功耗)来保持性能的领先。    

 

时至今日,Nvidia的GPU架构已经能在通用性(即对于各种模型算子的支持)和效率(即对于重要模型算子的运行效率)上获得了很好的平衡,因此即使在“GPU架构并不是最适合机器学习模型加速”的观点盛行多年后,NvidiaGPU仍然是机器学习训练市场的最优选择——因为其他的加速芯片对于某些算子做专用优化之后往往通用性无法顾及,而通用型的加速芯片则很难与拥有巨大系统团队支持的Nvidia设计的GPU性能相抗衡。    

 

在性能领先之外,Nvidia在软件生态上也拥有很高的护城河。如前所述,Nvidia的芯片架构能够在通用性和效率之间实现一个很好的平衡,而在这个基础上,一套易用且能充分调动芯片架构潜力的软件生态则会让Nvidia在机器学习模型社区拥有巨大的影响力——这使得模型设计者在设计模型时将会自发针对NvidiaGPU做模型优化,从而更进一步提高Nvidia的竞争力。Nvidia拥有CUDA这样成熟而性能良好的底层软件架构,因此目前几乎所有的深度学习训练和推理框架都把对于Nvidia GPU的支持和优化作为必备的目标,相比较而言对于其他竞争芯片来说,软件生态方面的支持就少得多了(例如对于Google TPU的主要生态支持来自Google自己的TensorFlow,然而TensorFlow目前在人工智能社区使用人数正在慢慢落后于Pytorch,这也成为TPU在生态上的一个瓶颈),这也成为了Nvidia GPU的一大护城河。


相关资讯
日本Rapidus突破2nm芯片技术,挑战台积电三星霸主地位

日本政府支持的半导体企业Rapidus于7月18日宣布,已成功试产国内首个2nm晶体管,标志着该国在先进芯片制造领域取得关键突破。这一进展是日本耗资5万亿日元(约合340亿美元)半导体复兴计划的重要里程碑,旨在重塑其在全球芯片产业链中的竞争力。

RISC-V架构突破性能瓶颈,Andes发布新一代AX66处理器IP

在2025年RISC-V中国峰会的“高性能计算分论坛”上,Andes晶心科技CEO林志明正式发布了公司最新一代64位RISC-V处理器IP——AX66。该产品基于RISC-V国际基金会最新批准的RVA23 Profile标准,专为高性能计算(HPC)、AI加速及边缘计算等场景优化,标志着RISC-V生态在高性能计算领域的进一步成熟。

1 GHz实时扫描革新EMC测试:是德科技PXE接收机技术解析

随着电子设备复杂度的提升和产品开发周期的缩短,电磁兼容性(EMC)测试已成为制造商面临的关键挑战。传统EMI测量方法效率低下,难以捕捉瞬态干扰信号,导致测试周期延长、成本增加。是德科技(Keysight Technologies)推出的新一代PXE电磁干扰(EMI)测量接收机,通过突破性的1 GHz实时无间隙扫描技术,将测试速度提升3倍,显著优化了EMC认证流程,为工程师提供了更高效、精准的测试解决方案。

亚马逊AWS部门启动战略性裁员,生成式AI推动云业务重组

全球电商及云计算巨头亚马逊近日对其核心利润引擎——亚马逊网络服务(AWS)部门实施新一轮裁员。据公司内部消息人士透露,本次调整涉及销售、市场及技术解决方案团队,受影响岗位达数百人。这是继4月影视与硬件部门优化后,亚马逊2024年内第三次公开披露的裁员计划,反映出企业在人工智能浪潮下的持续业务重塑。

圣邦微电子SGM42203Q:高性能汽车级双通道高边驱动解决方案

随着汽车电子化程度不断提高,高边驱动器(High-Side Driver)在车身控制模块(BCM)、LED照明、电机驱动等应用中发挥着关键作用。圣邦微电子(SG Micro)推出的SGM42203Q是一款专为汽车电子设计的24V双通道高边驱动器,具备模拟电流检测、高可靠性及智能保护功能,可广泛应用于电阻性、电容性和电感性负载驱动。本文将深入解析该产品的技术优势、市场竞争力及典型应用场景。