AI芯片对比:GPU/FPGA/ASIC/类脑芯片

发布时间:2018-01-22 阅读量:1189 来源: 我爱方案网 作者:

2017年,“人工智能”俨然已经成为所有媒体的头条热点,在媒体和资本的推动下,AI以迅雷不及掩耳之势向我们汹涌奔来。从政策层面,2017年关于AI发生了三件大事,一是发布了人工智能发展规划;二是人工智能首次写入十九大报告;三是很多城市,如上海、重庆等都在进行人工智能规划。

从数据来看,2013年只有100多家组织机构研究深度学习和人工智能,而到了2015年,这个数字已经飙升到3409家,两年时间增长30多倍。就连以电动汽车起家的特斯拉也宣布开始设计AI芯片,马斯克请来了AMD公司Zen架构的开发者Jim Keller,担任自动驾驶硬件副总裁。

在AI热闹非凡的大背景下我们也需要认真思考:人工智能是否需要专门的芯片?现有的技术架构具有怎样的优势?近期,北京建广资产管理有限公司主办了一场以“构造’芯’生态”为主题的沙龙,赛迪智库半导体研究所副所长林雨从AI芯片定义、分类、生态环境、投资等方面做了分析。

人工智能如果按照架构进行划分,有三个重要元素:数据、算法和算例,其中算例就是芯片,算例是基础,算法是核心,数据是保障。先看人工智能的定义,从广义上讲只要能够运行人工智能算法的芯片都叫人工智能芯片。但是深入分析,林雨表示,“只有针对人工智能算法做了特殊加速设计的芯片才可以称作为人工智能芯片,市场上真正做到了对芯片里面的架构做了特殊加速设计的公司少之又少。”

三个维度对人工智能进行分类

分别从功能、应用场景和技术架构对人工智能进行了分类:

从功能上来看,人工智能包括推理和训练两个环节。在训练层面,通过大数据训练出一个复杂的神经网络模型。目前训练环节主要使用英伟达的GPU集群完成,谷歌的TPU2.0也支持训练环节和深度网络加速。推理环节是指利用训练好的模型,使用新数据推理出各种结论。总得来看,训练环节对芯片的性能要求比较高,推理环节对简单指定的重复计算和低延迟的要求很高。

从应用场景来看,人工智能芯片应用于云端和设备端,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。在设备端,智能终端的数量庞大,而且需求差异较大,比如VR设备对于实时性要求很高,推理环节无法在云端完成,要求设备有独立的推理计算能力,因此专用芯片的需求还是很大。

从技术架构来看有四类:一是通用性芯片,如GPU;二是以FPGA为代表的半定制化芯片,如深鉴科技的DPU;第三,ASIC全定制化芯片,如谷歌的TPU;第四,类脑芯片。

GPU/FPGA/ASIC/类脑芯片,各有怎样的优势?

为了进行大数据处理,当前的方案一般采用高性能的处理器辅助MCU进行计算,但是随着摩尔定律时间周期拉长,处理器上可集成的器件数量会达到极限,而数据量还在不断增加,因此我们需要通过架构的变化来满足数据量的增长,这就是人工智能芯片推出的背景。

目前来看,人工智能芯片有四类架构:GPU、FPGA、ASIC和类脑芯片。

GPU:是单指令、多数据处理,采用数量众多的计算单元和超长的流水线,如名字一样,图形处理器,GPU善于处理图像领域的运算加速。但GPU无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。

FPGA:和GPU相反,FPGA适用于多指令,单数据流的分析,因此常用于预测阶段,如云端。FPGA是用硬件实现软件算法,因此在实现复杂算法方面有一定的难度,缺点是价格比较高。将FPGA和GPU对比发现,一是缺少内存和控制所带来的存储和读取部分,速度更快。二是因为缺少读取的作用,所以功耗低,劣势是运算量并不是很大。结合CPU和GPU各自的优势,有一种解决方案就是异构。

ASIC芯片:是专用定制芯片,为实现特定要求而定制的芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在高性能、低功耗的移动端。谷歌的TPU、寒武纪的GPU,地平线的BPU都属于ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,与CPU和GPU相比,TPU把控制缩小了,因此减少了芯片的面积,降低了功耗。

很多人认为ASIC是人工智能芯片的一个主要发展方向,其实在ASIC芯片里还有一个特殊的群体—类脑计算,林雨认为,“这才是真正的人工智能芯片未来发展的方向。类脑计算是真正模拟人脑进行设计,人脑的特点就是神经元进行传输数据。当我们用硬件去模拟人脑时,在硬件环节里还有许多多余的元素,而类脑芯片就拟合人脑的作用。要做类脑芯片非常难,IBM、高通、英特尔等公司的芯片策略都是用硬件来模仿人脑的神经突触。”

四种架构将走向哪里?

将以上四种架构对比,GPU未来的主攻方向是高级复杂算法和通用性人工智能平台,其发展路线分两条走:一是主攻高端算法的实现,对于指令的逻辑性控制要更复杂一些,在面向需求通用的AI计算方面具有优势;二是主攻通用性人工智能平台,GPU的通用性强,所以应用于大型人工智能平台可高效完成不同的需求。FPGA更适用于各种细分的行业,人工智能会应用到各个细分领域。

ASIC芯片是全定制芯片,长远看适用于人工智能。现在很多做AI算法的企业也是从这个点切入。因为算法复杂度越强,越需要一套专用的芯片架构与其进行对应,ASIC基于人工智能算法进行定制,其发展前景看好。类脑芯片是人工智能最终的发展模式,但是离产业化还很遥远。

投资投哪里?


第一,关注具有纵向产业链整合能力的企业。因为未来在人工智能领域侧重生态整合。单独做芯片的公司不如既掌握芯片又掌握算法公司,因此,那些算法和芯片兼具的企业更值得关注。

第二,专攻终端应用市场,人工智能芯片的应用场景里有两个:一个是在云端,一个是在终端。云端格局应该变化不大,但是在终端方面变数未定,这是对国内企业来说是一个不错的切入点,边缘计算值得关注。

第三,关注专用芯片,ASIC从功耗、技术都具有优势,是未来AI芯片发展的主要方向,尤其要关注是否有加速环节。

有了资本和媒体的热捧,AI已经在全球范围内遍地开花,顺势而为的创业者也不在少数。目前,国内已经有20多家初创企业在做人工智能芯片,但是评估一家企业的技术能力是第二位的,第一位的考察点要看他们是否能真正能将技术变现,是否能将技术转化为商业产品。因此,看一家AI芯片设计企业,商业能力要大于技术能力,这才是融资点。



方案超市都是成熟的量产方案和模块,欢迎合作:

直流屏电源远程监控与运维服务解决方案(物联网)
应用于物联网领域的高精度、免校准“电”计量芯片
蓝牙4.0 BLE 2640物联网开发套件


快包任务,欢迎技术服务商承接:

百万级物联网软件平台 ¥30000 竞标中
物联网智能控制APP开发 ¥10000 竞标中


>>购买VIP会员套餐


相关资讯
对标国际竞品:Abracon ASH5KW在微型晶振市场的技术制胜点

在物联网与可穿戴设备爆发式增长的浪潮中,功耗敏感型应用的时钟系统设计面临核心挑战:如何在微安级电流限制下实现稳定的高精度计时?Abracon ASH5KW系列晶体振荡器通过颠覆性设计,为电池供电设备提供了超低功耗时钟解决方案,重新定义了节能型实时时钟(RTC)的性能边界。

三星半导体业务遭遇滑铁卢,晶圆代工部门奖金归零引关注

2025年7月7日,三星电子公布上半年目标达成奖励金(TAI)分配方案,半导体事业暨装置解决方案事业部(DS)再度成为焦点。其中晶圆代工部门因业绩未达基准,继2024年后第二次上半年奖金清零。TAI作为三星核心绩效机制,发放比例直接反映业务健康度,本次DS事业部整体奖金区间0%-25%,暴露半导体业务的结构性挑战。

华为Mate 80系列旗舰前瞻:直屏全系回归,麒麟9030性能提升20%

据多方可靠行业消息源透露,华为计划于今年第四季度正式推出其新一代旗舰智能手机产品线——Mate 80系列。作为华为年度高端旗舰的重磅之作,该系列在产品设计与核心性能方面均展现出显著的迭代亮点,引发市场和消费者的高度期待。

三星电子Q2业绩预警:HBM认证延迟拖累利润,地缘政治风险加剧挑战

全球科技巨头三星电子即将公布的2025年第二季度(4月至6月)业绩预期不容乐观。综合伦敦证券交易所SmartEstimate等权威市场预测数据,三星本季度营业利润预计将仅为6.3万亿韩元(约合46.2亿美元),相较于去年同期大幅下滑39%。这将是三星电子连续六个季度以来录得的最低盈利水平,凸显出该公司当前面临的严峻挑战。

高通取消双供应商策略,台积电独家代工骁龙8 Elite Gen 2芯片

据行业权威渠道确认,高通已正式取消双供应商计划,终止与三星在下一代旗舰芯片Snapdragon 8 Elite Gen 2(代号SM8850)上的合作。该处理器将完全由台积电采用第三代3纳米制程(N3P)独家代工,此前规划的三星2纳米版本(代号Kaanapali S)已被移除产品线。