三大AI芯片架构谁最抢戏?中国“天机”芯片首秀《Nature》

发布时间:2019-09-29 阅读量:1027 来源: 智东西 发布人: Jane

智东西9月28日消息,近日,美国媒体VentureBeat对近年来行业在AI芯片竞争中研发的新芯片架构进行解读,其中包括神经拟态芯片、光学计算芯片和Cerebras WSE芯片。

 

随着社会越来越多领域的问题都试图采用AI技术来解决,因此,一场围绕AI技术的军备竞赛也就此爆发,而其中,就有以更高速度、更低运行功耗,以及支持深度学习等特征的专用硬件——AI芯片。

 

毫无疑问,AI芯片的芯片体系结构较以往来说,均有着较大的技术突破,它们执行的计算方式也与从前有着许多差异。这次,VentureBeat通过对三种典型AI芯片功能的拆解,来分析它们将在未来几年内催生的各种AI应用程序。

 

一、神经拟态芯片:中国“天机(Tianjic)”芯片

 

神经拟态芯片主要用于进行神经拟态计算(Neuromorphic Computing),简单来说,它可通过数字电路,来模拟人类大脑的行为,能够进行计算和自主学习等功能。

 

神经网络由成千上万个小程序组成,它们负责通过简单的计算来执行复杂的任务,例如检测图像中的对象,或将语音转换为文本,而这些也是深度学习的关键。

 

但传统计算机并未针对神经网络操作的特征进行优化,相反,它们由一个或几个强大的CPU组成。

 

相比之下,神经拟态计算机则使用另一种全新的芯片架构——神经拟态芯片,以一种物理的形式来模拟神经网络。

 

神经拟态芯片由许多物理人工神经元组成,这些神经元直接与其软件的对应部分相对应,使得它们能快速地训练和运行神经网络。

 

实际上,神经拟态计算的概念在1980年代就已出现。但当时,神经网络的效率十分低下,因此并未广泛地引起人们的关注。

 

直到近年来,随着技术的发展,以及深度学习和神经网络的兴起,关于神经拟态芯片的研究也再次回到研究人员的关注视野。

 

今年7月,中国的一支清华芯片团队研发出了一颗名为“天机(Tianjic)”的神经拟态芯片,它采用28nm制程,由156个FCores组成。同时,其面积为3.8×3.8毫米,包含了大约40000个神经元和1000万个突触,可同时支持机器学习算法和类脑电路。

 

三大AI芯片架构谁最抢戏1.png 

 

研究人员曾将该芯片整合到自动驾驶自行车中测试芯片性能,显示其能够实现目标检测、导航和语音识别等功能。

 

这一研究成果不仅发表在了顶级学术杂志《自然(Nature)》中,也成功登上了杂志封面。而研究人员也在论文中说到:“我们的研究有望通过为更通用的硬件平台铺平道路,来刺激AGI(通用人工智能)的发展。”

 

尽管目前,并没有直接证据表明神经拟态芯片是创建人工智能的正确途径,但它们肯定会有助于创建更高效的AI硬件。

 

与此同时,神经拟态计算也引起了各大高科技巨头们的关注。

 

今年上半年,英特尔推出了一台装有64个Intel Loihi神经拟态芯片的计算机,名为“Pohoiki Beach”,它能够模拟800万个人工神经元。英特尔表示,Loihi的信息处理速度比传统处理器快1000倍,效率最高10000倍。

 

三大AI芯片架构谁最抢戏2.jpg 

 

二、光学AI加速器与“全光学”神经网络

 

随着技术的发展,神经网络和深度学习计算需要大量的计算资源和电力。

 

但随之而来的,AI的碳足迹也已成为一个环境问题。同时,神经网络的部署也受到能耗的影响,特别在电力有限的环境中十分受限,例如电池供电设备。

 

而且,随着摩尔定律发展的持续放缓,传统的电子芯片也正努力跟上AI行业不断增长的需求。

 

如今,许多公司和研究实验室已转向光学计算领域,以寻找解决AI行业中速度和电力问题的解决方案。

 

简单地说,光学计算使用光子硬件代替电子硬件,并使用光学信号代替数字电子设备来进行计算。

 

由于光学计算设备并不会像铜缆那样产生热量,因此其能耗大大降低。光学计算机也特别适用于快速矩阵乘法,而这也是神经网络中的关键操作之一。

 

今年上半年,总部位于波士顿的光学AI芯片创企Lightelligence研发了一款光学AI加速器,该光学加速器与当前的电子硬件兼容,并可通过优化一些重型神经网络计算,将AI模型的性能提高一两个数量级。

 

Lightelligence的工程师表示,光学计算的进步还将降低制造AI芯片的成本。

 


三大AI芯片架构谁最抢戏3.png 

 

就在前段时间,香港科技大学研究人员研发了双层全光学神经网络。该全光学神经网络(AONN)使用的线性函数和非线性激活函数,均根据光学实现。同时,它还能扩展到更加复杂的神经网络架构,以完成图像识别等更复杂的任务。

 

目前,研究人员已经开发了一种概念验证(proof-of-principle)模型,可以模拟具有16个输入和2个输出的完全连接的两层神经网络。

 

此外,大规模的光学神经网络能以光速和低能耗运行计算密集型应用,包括从图像识别到科学研究领域。

 

三、有史以来最大规模AI芯片:Cerebras WSE

 

在研发AI芯片的过程中,还有一种解决方式就是扩大规模。

 

今年8月,美国硅谷的一家AI芯片创企Cerebras Systems推出了有史以来规模最大的AI芯片,名为“Cerebras WSE”。

 

Cerebras WSE包含1.2万亿个晶体管,其芯片面积为46225平方毫米,比当前市场上最大的英伟达Tesla V100大56倍。

 

同时,该芯片采用台积电16nm制程,面积每边约22厘米(约8.5英寸),拥有40万个AI优化核心和18 Gigabytes片上内存。

 


三大AI芯片架构谁最抢戏4.jpg 

 

在带宽方面,Cerebras WSE还拥有9 PByte/s内存带宽和100 Pbit/s fabric带宽。

 

该芯片主要用于深度学习的加速神经网络训练,不仅能加快数据处理速度,还能以更快的速度训练AI模型。同时,与传统的GPU和CPU相比,Cerebras WSE拥有的独特架构还进一步降低了能耗。

 

当然,该芯片的尺寸也将在一定程度上,影响它在空间受限环境中的使用。因此,它的商用价值在公布后也受到了一定的质疑。

 

然而,Cerebras最近也与美国能源部的两大实验室达成合作,率先签下商用落地的第一份合同。美国能源部将使用该芯片来加速科学、工程和健康领域的深度学习研究。

 

结语:AI芯片市场潜力巨大,正面临落地挑战

 

近年来,AI芯片的风口一度火爆,许多AI芯片创企和研究室拔地而起,针对深度学习训练而研发出的新成果,也一次次地刺激着人们对AI和芯片未来发展认知的神经。

 

就行业来看,AI芯片的市场潜力十分庞大,一面是云端和边缘段AI芯片的火热,一面是终端AI芯片的转型和爆发,IoT、智能家居、智能手机和自动驾驶汽车等多个甚至碎片化的应用场景等待着它的“哺乳”。

 

深度学习应用的行业和领域是多样化的,单一架构几乎不可能主导市场。毫无疑问,未来也将涌现出更多突破性的AI芯片技术,给整个社会、行业和人们的生活带来变革性的发展。

 

现阶段,AI芯片的落地和商用价值也已经进入了大浪淘沙的阶段,未来谁能真正成为赢家?时间将会告诉我们答案。

 

文章来源:VentureBeat

相关资讯
对标国际竞品:Abracon ASH5KW在微型晶振市场的技术制胜点

在物联网与可穿戴设备爆发式增长的浪潮中,功耗敏感型应用的时钟系统设计面临核心挑战:如何在微安级电流限制下实现稳定的高精度计时?Abracon ASH5KW系列晶体振荡器通过颠覆性设计,为电池供电设备提供了超低功耗时钟解决方案,重新定义了节能型实时时钟(RTC)的性能边界。

三星半导体业务遭遇滑铁卢,晶圆代工部门奖金归零引关注

2025年7月7日,三星电子公布上半年目标达成奖励金(TAI)分配方案,半导体事业暨装置解决方案事业部(DS)再度成为焦点。其中晶圆代工部门因业绩未达基准,继2024年后第二次上半年奖金清零。TAI作为三星核心绩效机制,发放比例直接反映业务健康度,本次DS事业部整体奖金区间0%-25%,暴露半导体业务的结构性挑战。

华为Mate 80系列旗舰前瞻:直屏全系回归,麒麟9030性能提升20%

据多方可靠行业消息源透露,华为计划于今年第四季度正式推出其新一代旗舰智能手机产品线——Mate 80系列。作为华为年度高端旗舰的重磅之作,该系列在产品设计与核心性能方面均展现出显著的迭代亮点,引发市场和消费者的高度期待。

三星电子Q2业绩预警:HBM认证延迟拖累利润,地缘政治风险加剧挑战

全球科技巨头三星电子即将公布的2025年第二季度(4月至6月)业绩预期不容乐观。综合伦敦证券交易所SmartEstimate等权威市场预测数据,三星本季度营业利润预计将仅为6.3万亿韩元(约合46.2亿美元),相较于去年同期大幅下滑39%。这将是三星电子连续六个季度以来录得的最低盈利水平,凸显出该公司当前面临的严峻挑战。

高通取消双供应商策略,台积电独家代工骁龙8 Elite Gen 2芯片

据行业权威渠道确认,高通已正式取消双供应商计划,终止与三星在下一代旗舰芯片Snapdragon 8 Elite Gen 2(代号SM8850)上的合作。该处理器将完全由台积电采用第三代3纳米制程(N3P)独家代工,此前规划的三星2纳米版本(代号Kaanapali S)已被移除产品线。