bnb 下载,bnb 白皮书

  

  5G时代正一步一个脚印走向你中有我,而随着5G商用部署规模的日益全面,技术的日益成熟,应用场景将越来越广泛,这也将使更多的技术获得更广阔的应用空间,比如AI。其实AI也是未来的大势所趋。正是因为这种趋势,智能手机厂商早早就开始了AI在移动终端的布局和应用。9月6日,华为在德国柏林IFA 2019展会上举行的全新麒麟芯片产品发布会上,正式推出全新的麒麟990系列芯片。在麒麟990系列芯片中,AI恰好是一大看点。   

  

     

  

  相信大家还记得,2017年华为推出的麒麟970芯片是全球首款集成NPU神经网络单元的智能手机AI计算平台,而2018年推出的麒麟980芯片也是全球首次集成双核NPU。在今年的麒麟990 5G上,AI能力再次升级,采用了基于华为自研达芬奇架构的全新大核微核架构的NPU。   

  

  麒麟990 5G,新架构的NPU,全面升级的AI能力   

  

  新的NPU架构使麒麟905G能够保持其行业领先的人工智能计算能力,同时实现更多实时人工智能体验。根据华为的介绍,麒麟990 5G在AIBenchMark上的跑分达到了麒麟980的476%。   

  

  不仅如此,在AI生态方面,麒麟990 5G的新NPU可以支持超过300个AI算子,而麒麟990 5G可以支持视觉计算神经网络模型下90%的开源模型。   

  

     

  

  麒麟905G集成的新NPU在架构上也做了创新,就是我们刚才说的macronucleus微核的架构。   

  

     

  

  其中两个大核性能强大,另一个微核能效极致。在两大核心的加持下,麒麟990 5G拥有业界最强的AI算力。与业界其他旗舰AI芯片相比,性能优势高达6倍,能效优势高达8倍。   

  

     

  

  关于新的微内核,华为表示,如果只是用来工作的话,手机一天的功耗不到5%,说明它确实功耗很低。至于采用大核微核架构的原因,可以对比一下CPU上的大核架构,就是在日常生活和工作中,很多任务AI计算任务不需要大核,微核就够了,就像卡车拉货一样。平时大货可以用大货车拉,小货可以用小货车拉,这样在手机芯片上可以大大减少不必要的功耗。华为也举了个例子。在人脸检测的应用场景中,微核工作的能量效率可以比大核工作提高24倍,令人惊讶。   

  

  除了以上特性,麒麟990 5G芯片的新NPU在AI计算能力和应用体验上独树一帜的更重要原因是它基于华为自研的达芬奇架构。   

  

  达芬奇详细讲解了架构,造就了麒麟990 5G的AI创新。   

  

  在文章的开头,我们提到5G将驱动AI在未来获得广阔的发展趋势。除了智能手机,万物互联,万物智能,无疑是未来的重要趋势。去年,华为还发布了《GIV2025打开智能世界产业版图》白皮书,其中指出,到8年后的2025年,全球IOT数量将达到1000亿,企业对AI的采用率将达到86%,创造23万亿美元的数字经济;同时,个人智能终端数量将达到400亿台,个人智能助理普及率达到90%,智能服务机器人进入12%的家庭。换句话说,这将是一个AI智能终端数量极度膨胀,类型极其丰富的未来。基于对这一未来的预测,华为将推出致力于多平台、多场景协作的统一AI架构——达芬奇架构。   

  

     

  

  那么达芬奇的结构是怎样的呢?   

  

  达芬奇的架构是基于AI计算芯片的,所以要从AI计算的本质说起。众所周知,AI的发展离不开三个要素:算法、算力、大数据。海量的数据只有通过强大的算法才能形成巨大的计算能力。但是,AI运算,或者说深度学习运算,和普通的CPU、GPU运算是不一样的。它有许多特殊的计算要处理,如卷积、残差网络、全连接等。比如图像处理需要卷积神经网络运算,自然语言和语音处理主要使用循环神经网络运算。这些运算本质上都是向量和矩阵运算,主要是加法和乘法(MAC),有时也有一些除法和指数运算。   

  

  所以我们来整理一下。AI运算的数据对象主要有标量(独立自然数)、向量(一组一维有序数)、矩阵(一组二维有序数)、张量(一组n维有序数)。其实前三者都可以理解为张量,只是维度不同而已。   

  

  学过高等数学的朋友相信都知道,当数据维度增加时,运算的复杂度是成倍增加的。所以AI运算都是计算量巨大的运算类型,对软硬件架构的性能要求很高。换句话说,需要专门的硬件和专门的软件架构。   

  

  达芬奇建筑的核心设计原则是以最低的成本去。   

理这些复杂的张量运算,从而实现最低的能耗。

  

达芬奇架构具体怎么做呢?

  

我们不妨先通过它的核心架构图来过一遍流程:

  

  

在上面这张图中,AI运算的数据通过Buffer L0A、L0B被传送到3D Cube矩阵乘法单元,数据经过矩阵运算后,结果输出到Buffer L0C,存放在这里的数据还需要输送到Vector向量计算单元完成向量计算,类似DSP,主要是池化(pooling)/padding、BN运算、激活,加法等处理,如果得到最终的结果,会传输给Unified Buffer。

  

另外还有一个Scalar标量运算单元,负责标量运算,这里主要是前面Cube、Vector等指令的地址和参数计算以及基本的算术运算,同时还负责整个程序的循环控制和分支判断等工作,它的最终结果也会输出到Unified Buffer。

  

  

这基本上就是达芬奇架构系统运算的核心过程,它有一个很重要的特点,就是以3D Cube的矩阵运算为基础,引入Vector向量计算单元作灵活的调整。因为在AI运算中,大量的运算会是矩阵乘法,例如常用的卷积神经网络运算就是通过矩阵乘法来计算的,所以,华为达芬奇架构针对矩阵运算进行加速,可以大幅提高单位面积下的AI算力。而对于之后的向量、激活等运算,可能比较灵活,所以以单独的模块进行灵活处理,这样就增加了运算系统整体的灵活性,可以大大提高运算的效率。

  

  

而3D Cube是怎样加速矩阵运算的呢?它的基本思路是以矩阵处理阵列的立体形式来处理MAC中的乘加运算,通俗来讲就是同时从三个面输入计算的数据,并且同时拥有16*16*16也就是4096个计算单元,也就是说当需要进行4096次运算时,2D结构需要64行*64列才能计算,3D Cube只需要16*16*16的结构就能算出,从而大大减小运算周期、降低时延,提高利用率。所以3D Cube也被华为称为“达芬奇魔方”。

  

这可以说是达芬奇架构的核心创新点了。

  

正是基于这种创新,我们才能看到前面所说的麒麟990的全新NPU在AI性能方面的诸多优势。

  

其实大部分小伙伴应该已经了解,达芬奇架构在不久前的麒麟810芯片中已经首发亮相,不过在麒麟990芯片中,达芬奇架构的整体性能相较麒麟810是有所升级的,升级在哪里呢?简单通俗来说,就是麒麟990的3D Cube的立体阵列可以达到16*16*16,而麒麟810则相对小一些。

  

  

另外值得注意的就是,在华为的产品阵列下,达芬奇架构下的系列新品并不仅仅是用于麒麟系列的,Max,Mini,Lite,Tiny和Nano五个系列,可以理解为超大号、大号、中号、小号、超小号。像超大号是用于像昇腾910这样的边缘计算、云计算领域的,大号也是如此,而麒麟系列是被用在中号。

  

  

所以我们就能看到,在达芬奇架构的系列芯片下,AI运算性能覆盖非常全面,大到云计算、服务器,小到我们身边像智能门铃这样超低功耗物联网设备,都能覆盖。IT之家小编从华为处了解到,达芬奇架构下的AI系列芯片的AI算力可以相差7个数量级,也就是10的7次方的差距。这也就体现了前文小编所说的,达芬奇架构能够真正做到未来智能物联时代的跨平台全场景AI运算。

  

回归应用,华为Mate30系列的AI功能令人期待

  

最后,我们还是要将目光回归到麒麟990 5G芯片身上,在达芬奇架构的全新NPU神经网络运算单元加持下,麒麟990 5G的AI运算能力上升到一个新的台阶,当然,最关键的,就是利用这些AI算力,麒麟990 5G能够满足更多场景下的AI运算需求,换言之,也就是能够实现更多的AI功能——这肯定是消费者最为关心的,一切还是要回归到应用层面。在发布会上,其实我们已经看到了华为方面演示的麒麟990 5G的一些创新AI应用,例如实时视频的多实例分割,简单说就是能够将视频画面中的每一个人物主体单独识别出来,实现多人物视频拍摄替换背景,甚至可以选择画面中需要保留的人物,让视频应用充满更多想象。

  

  

相信在即将发布的华为Mate30系列手机中,我们会看到更多创新性且实用的AI功能,这些功能,并非创意驱动,而是实实在在的技术驱动,将成为华为Mate30系列在产品差异化层面的技术壁垒。

  

运用强大的AI能力,华为Mate30系列可能会有哪些创意性的应用,我们拭目以待。

相关文章