现在的位置: 首页资讯>正文

未来自动驾驶所用AI芯片,将是ASIC架构当道!

2018年01月17日 作者: 暂无评论 1,804+ 0

AI

从今年CES展会来看,自动驾驶俨然已成为本次展会的主角,各大汽车科技厂商都是有备而来,展示自动驾驶相关的科技成果,足以让世人对自动驾驶的未来充满了期待,特别是英伟达在展会上发布DRIVE 一系列软硬件AI芯片系统掀起了整个展会的小高潮!

目前,自动驾驶最为火热的芯片架构为GPU。而英伟达最新推出的DRIVE Xavter就是基于此架构。GPU架构:技术成熟,具有优秀的大规模并行运算能力,但功耗巨大是其最明显的劣势,其上一代产品DRIVE PX 2在功耗上达到了450W,是最新一代芯片 DRVIE Xavier15倍之多。

AI

自动驾驶市场空间广阔,集环境感知、决策推断、执行于一体,ADAS(高级驾驶辅助系统)芯片是其核心。以GPU(图形处理器)和CPU为两大阵营的芯片发展已较成熟。现阶段,以深度学习为基础的AI芯片正蓬勃发展,车企对自动驾驶芯片的选择也出现了新方向。

运用于自动驾驶的芯片架构主要有4种:CPU、GPU、FPGA(现场可编程门阵列)和ASIC(专用集成电路),那么这几中芯片架构都有什么区别呢?

GPU:是单指令、多数据处理,采用数量众多的计算单元和超长的流水线,如名字一样,图形处理器,GPU善于处理图像领域的运算加速。但GPU无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。

FPGA:和GPU相反,FPGA适用于多指令,单数据流的分析,因此常用于预测阶段,如云端。FPGA是用硬件实现软件算法,因此在实现复杂算法方面有一定的难度,缺点是价格比较高。将FPGA和GPU对比发现,一是缺少内存和控制所带来的存储和读取部分,速度更快。二是因为缺少读取的作用,所以功耗低,劣势是运算量并不是很大。结合CPU和GPU各自的优势,有一种解决方案就是异构,如GPU+FPGA。

ASIC芯片:是专用定制芯片,为实现特定要求而定制的芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在高性能、低功耗的移动端。谷歌的TPU、寒武纪的GPU,地平线的BPU都属于ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,与CPU和GPU相比,TPU把控制缩小了,因此减少了芯片的面积,降低了功耗。

其实总的来说,它们各具特点,CPU的数据处理能力弱;GPU的功耗大,散热高;FPGA比GPU的功耗低,但相对于ASIC,一次性成本较高;ASIC的体积小、功耗低、计算性能及效率高,但开发周期长,初期成本高。

作为芯片厂商的两大全球巨头,以GPU为主导的英伟达和以GPU+FPGA集成于CPU的英特尔并不是车企唯一的选择。2017年底,蔚来汽车在发布的第一款自动驾驶量产车型ES8上,选择了Mobileye EyeQ4芯片,其最高运算速率为2.5万亿次/秒,功耗为3W,该芯片属于ASIC芯片。奥迪A8、沃尔沃XC90、特斯拉Model S等自动驾驶车型上搭载了Mobileye EyeQ3芯片,最高运算速率为0.256万亿次/秒,功耗为2.5W,可满足自动驾驶L2~L3级所需的计算能力。值得注意的是,特斯拉在Model X以及Model3上选择了英伟达的定制计算平台Drive PX2,虽然最高运算速率达到8万亿次/秒,但功耗却高达250W,特斯拉表示会自己研发AI专用运算芯片,以降低功耗和提升效率。

AI

因此,尽管现阶段采用GPU架构、GPU+FPGA异构化、ASIC架构的车企并行存在,但综合来看,车企更倾向于选择ASIC专用型芯片,以自身更好的软件算法同时满足高性能和低功耗的要求。

专属AI芯片的研发只有少数科技巨头如谷歌、英特尔参与其中。近日,国内初创企业地平线机器人发布了针对智能驾驶的AI专用芯片“征程1.0”,其最高运算速率为1万亿次/秒,功耗仅为1.5W。它与Mobileye EyeQ3所采用的都是40纳米的制程,参数对比显示,“征程1.0”在功耗较小的情况下实现了更高的性能,研发时间也相对较短,这得益于地平线的专属BPU(分支处理单元)架构,同时,地平线是面向中国智能驾驶场景所研发的专用芯片,相比Mobileye,其芯片方案要更适合于中国场景,这是国内企业在AI芯片领域的突破,也是具有创新性的中国方案。此外,国内寒武纪、西井科技等也在AI专用芯片领域有所布局。

通用芯片GPU、CPU、FPGA在某些特定场景下会造成功能浪费,面积和功耗的冗余。ASIC专用芯片可以根据特定的算法实现计算能力和计算效率的专用定制化,随着各类应用场景在自动驾驶不同领域的渗透,即时性应用场景在深度学习上所需要的推理能力越来越强,在云端进行软件升级并进行计算已无法满足特定场景的即时性要求(5G时代的来临或许有可能解决这一数据传输速率的瓶颈),因此,各类应用场景将推动AI专用芯片的研发。

综上所述,各芯片架构并存的现象还将会延续一段时间,在自动驾驶车进入量产阶段后,GPU、CPU将会更广泛应用于一些较为通用的场景,大规模AI芯片的需求量将使ASIC前期的成本显著降低,车企选择ASIC架构的AI芯片或将成为趋势。因此,国内AI初创企业应紧跟自动驾驶对于AI芯片的需求,针对中国智能驾驶应用场景,采用软硬件一体的结合方案,使算法在硬件上得到最优化,从而在与整车厂的合作中,能够针对特定需求定制芯片,扩大自身优势,在AI芯片领域占据一席之地。

发表评论

相关文章

AI和工业4.0之间,差距不是那一星半点?

如今,人工智能在工业领域有着蓬勃发展趋势,因为自动化以及优化仍是数字革命的主要焦点。在本文中,我们将回顾近几年在AI社区中那些令人兴奋的最先进的计算机视觉技术,这些技术被认为是工...

一边享用便利,一边恐惧风险:AI有多接近你,你又有多害怕AI

从1958年美国原子能委员会提出在建筑中使用核爆的计划,再到谷歌眼镜,历史上有不少昙花一现的项目和技术。不过,人工智能(AI)显然不在此列,因为它正在不断刷新着存在感。  

人工智能都能伪造指纹了,生物识别还安全吗

“人工智能技术能够将海量的指纹数据作为‘原材料’,学习到他们的结构特征和细节信息,并且根据一定的规则进行重组,生成仿真度极高的伪造数据。”人工智能行业资深人士孙立斌告诉我们。

AI 真的来了!人脸识别距离你家门口还有多远?

最近 Google 中国开始新一轮的 PR,其中一项是在知乎发起品牌提问,内容是「哪件事让你开始相信 AI 就在身边」。抛开这个问题中 Google 想对「猜画小歌」一类项目的宣传不说,「让用户相信 A...

高性能GPU还要一年多时间,英特尔对光线追踪是什么态度?

2018年NVIDIA推出了图灵架构的新一代GPU,尽管大家觉得RTX 20系列显卡价格有点贵,但是从技术上来说NVIDIA在消费级GPU上确实开创了实时光线追踪时代。作为一种全新的技术,光线追踪目前的软...