赋能自动驾驶汽车 聊华为人工智能芯片

2021-08-11 22:26 汽车百科 投稿:维基百科
最佳答案   [汽车之家 新鲜技术解读] 华为成立于1987年,是一家制造通讯设备起家的中国企业。经过30多年的积累,华为已经发展成为全球最大的5G设备供应商。随着人工智能芯片市场的快速增长,华为借助中科寒武纪的芯片IP,成功在2017年推出了全球首款搭载人工智能加速单元的手机处理..

  [汽车之家 新鲜技术解读] 华为成立于1987年,是一家制造通讯设备起家的中国企业。经过30多年的积累,华为已经发展成为全球最大的5G设备供应商。随着人工智能芯片市场的快速增长,华为借助中科寒武纪的芯片IP,成功在2017年推出了全球首款搭载人工智能加速单元的手机处理器芯片——麒麟970。该芯片的成功让华为进一步坚信人工智能技术的发展潜力,加速了其自研人工智能处理器的步伐。而自动驾驶系统的域控制器正是人工智能芯片大派用场的地方。究竟华为的人工智能芯片性能有多强?它又是如何赋能自动驾驶汽车的呢?今天我们一起来看一看。


● 先聊聊大家熟悉的手机处理器NPU

  华为的自研人工智能芯片最开始是应用在手机芯片上的,后来才被应用到服务器和汽车自动驾驶系统等领域。下面我们就先来聊聊大家熟悉的搭载人工智能加速单元的手机处理器。华为的人工智能加速单元称为“NPU”,英文全称为“Neural-network Processing Units”,翻译过来就是神经网络处理单元。该NPU在手机上能够对人脸识别、语音识别、图像识别等功能实现加速,从而为手机用户提供更优秀的使用体验。


  在《和国外差距有多大?聊中国自动驾驶芯片》中我提到了,麒麟970处理器搭载的NPU实际上是来自于中科寒武纪的Cambricon-1A处理器IP,该芯片搭载在华为Mate 10手机之上。


  华为随后发布的麒麟980(搭载在华为Mate 20手机上)处理器的NPU采用的是中科寒武纪Cambricon-1H处理器IP。


  从目前网上公布的参数来看,麒麟810的NPU算力为0.83TFLOPS(注:1TFLOPS=每秒一万亿次的浮点运算),麒麟820的NPU算力为1.33TFLOPS。厂家并没有公布麒麟990和麒麟985的具体算力数值,但从苏黎世理工的AI Benchmark网站的数据来看,麒麟990的NPU算力在麒麟820之上,根据测试数据估计其算力在2TFLOPS以上。而麒麟985的NPU算力会稍高于麒麟820。


  麒麟710A是2018年推出的麒麟710的车规级版本,该芯片有完全的自主知识产权并将由中芯国际代工,是一颗纯正的“中国芯”。华为麒麟710进入汽车圈并成功落地后将会和高通骁龙820A抢占市场份额。


  随着这些搭载骁龙820A的新车陆续上市,它们带起了一波高科技座舱潮流。华为麒麟710A此时入市,正好是赶上了这波风潮,相信未来有不少中国品牌企业会考虑采用华为的这颗带有纯正中国血统的数字座舱芯片。


  虽然说麒麟710A的性能和华为最新推出的麒麟芯片性能有一定的差距,而且没有集成NPU核心,但满足数字座舱多屏显示和交互的性能需求是完全没有问题的。华为通过数字座舱进入汽车领域只是试水,进一步布局自动驾驶汽车芯片领域才是关键。

● 华为自动驾驶网络架构

  华为创始人兼总裁任正非在接受媒体采访时曾表示华为不会制造整车,但华为会造车联网模块、汽车中的电子部分,而且还可能做全世界最好的。既然如此,那华为定必会抢占车联网和自动驾驶这两个领域的主导权。


  如果华为的ADN目标架构成为了行业标准,这将成为华为未来10年的一个极为重要的利润增长点。华为的目标是非常宏大的,那就是包揽高阶自动驾驶系统的各种通讯和计算设备,并提供完善的一站式解决方案。通俗来讲就是要达到“要买自动驾驶汽车的通讯和计算设备,找华为就对了”的效果。

  本文虽然聚焦于芯片,但华为的强大不仅仅在于芯片,其在老本行网络通讯方面也同样出类拔萃。在聊芯片前,我想先举个车路协同的简单例子来说明这一点。


  这个简单的例子能够很好地说明华为是如何通过网络和通讯技术来赋能自动驾驶的。可以说未来的自动驾驶汽车绝不是一个“孤岛”,而是一个与万物互联的移动工具。

● 华为自动驾驶“芯”实力和软实力

  好了,简单聊了一下华为的网络架构在车路协同上的应用,下面我们来正式聊一下华为的自动驾驶平台和芯片。由于自动驾驶平台是基于华为的人工智能芯片搭建的,所以我们还是得先来简单了解下华为的人工智能芯片。



  昇腾910的应用偏向于需要极高算力的云端设备,而昇腾310的应用则偏向于对能耗比有一定要求的终端设备,但两者会有一定的交集。下表我汇总了目前华为应用上述两款芯片打造出来的Atlas系列产品的信息。

华为Atlas系列产品
产品 计算能力 功耗 备注
Atlas 900 AI集群(型号9000) 256-1024 PFLOPS - AI集群服务器
Atlas 800 训练服务器(型号9010) 2 PFLOPS 5.5kW功耗,风冷主动散热 AI训练服务器
Atlas 800 训练服务器(型号9000) 2 PFLOPS 5.5kW功耗,风冷主动散热 AI训练服务器
Atlas 800 训练服务器(型号3010) 448 TOPS - AI推理服务器
Atlas 800 训练服务器(型号3000) 512 TOPS - AI推理服务器
Atlas 500 Pro 智能边缘服务器 (型号:3000) 256 TOPS - AI边缘服务器
Atlas 500 智能小站(型号:3000) 16 TOPS 有盘40W,无盘25W AI边缘服务器
Atlas 300T 中心训练卡(型号:9000) 256 TFLOPS - AI加速卡
Atlas 300 推理卡(型号:3000) 64 TOPS 最大67W AI加速卡
Atlas 200 DK 开发者套件(型号:3000) 8-16 TOPS 典型功耗20W AI应用开发板
Atlas 200 AI加速模块(型号:3000) 8-16 TOPS 典型功耗20W AI加速模块
注:这里的1TOPS=每秒1万亿次8位整数运算,1TFLOPS=每秒1万亿次16位浮点数运算,1PFLOPS=每秒1千万亿次16位浮点数运算。

  人工智能加速芯片要真正运行起来还需要CPU的配合。上面提到的Atlas系列产品中,有一部分搭载了英特尔的服务器级CPU,另一部分则搭载的是华为自家的鲲鹏920 CPU芯片。



  这与大部分其他芯片厂商只做B2B业务,签了合约才提供开发文档的做法有很大的不同。不管开发者能力的高低,更多开发者采用华为的设备开发有利于更快地构建起属于华为的人工智能生态链,这将加速华为在人工智能领域的发展步伐。


  当然,针对不同的细分领域,华为还会提供针对性的软件服务,限于篇幅这里就不详细展开了,感兴趣的朋友可以去华为云逛一下了解更多。在其他芯片企业还在苦苦寻找行业突破口的时候,华为已经为各种不同行业提供了全面而完整的解决方案。看着官网密密麻麻各种行业的解决方案列表,我深感华为的强大。或许也正是华为的强大,才是其它企业苦苦追寻的重要原因。

声明:维基百科所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系 weijibaike@qq.com
加载中...