昇腾AI处理器:Ascend310和CANN简介

ascend310 ai处理器逻辑架构昇腾ai处理器的主要架构组成:芯片系统控制cpu(control cpu)ai计算引擎(包括ai core和ai cpu)多层级的片上系统缓存(cache)或缓冲区(buffer)数字视觉预处理模块(digital vision pre-processing,dvpp)等ai core:集成了2个ai core。
下载链接:
ascend310 ai处理器规格
ascend310 ai处理器逻辑架构
昇腾ai处理器本质上是一个片上系统(system on chip,soc),主要可以应用在和图像、视频、语音、文字处理相关的应用场景。其主要的架构组成部件包括特制的计算单元、大容量的存储单元和相应的控制单元。该芯片大致可以划为:芯片系统控制cpu(control cpu),ai计算引擎(包括ai core和ai cpu),多层级的片上系统缓存(cache)或缓冲区(buffer),数字视觉预处理模块(digital vision pre-processing,dvpp)等。芯片可以采用lpddr4高速主存控制器接口,价格较低。目前主流soc芯片的主存一般由ddr(double data rate)或hbm(high bandwidth memory)构成,用来存放大量的数据。hbm相对于ddr存储带宽较高,是行业的发展方向。其它通用的外设接口模块包括usb、磁盘、网卡、gpio、i2c和电源管理接口等。
昇腾ai处理器的主要架构组成:
芯片系统控制cpu(control cpu)
ai计算引擎(包括ai core和ai cpu)
多层级的片上系统缓存(cache)或缓冲区(buffer)
数字视觉预处理模块(digital vision pre-processing,dvpp)等
ai core:集成了2个ai core。昇腾ai芯片的计算核心,主要负责执行矩阵、向量、标量计算密集的算子任务,采用达芬奇架构。
arm cpu核心:集成了8个a55。其中一部分部署为ai cpu,负责执行不适合跑在ai core上的算子(承担非矩阵类复杂计算);一部分部署为专用于控制芯片整体运行的控制cpu。两类任务占用的cpu核数可由软件根据系统实际运行情况动态分配。此外,还部署了一个专用cpu作为任务调度器(task scheduler,ts),以实现计算任务在ai core上的高效分配和调度;该cpu专门服务于ai core和ai cpu,不承担任何其他的事务和工作。
dvpp:数字视觉预处理子系统,完成图像视频的编解码。用于将从网络或终端设备获得的视觉数据,进行预处理以实现格式和精度转换等要求,之后提供给ai计算引擎。
cache & buffer:soc片内有层次化的memory结构,ai core内部有两级memory buffer,soc片上还有8mb l2 buffer,专用于ai core、ai cpu,提供高带宽、低延迟的memory访问。芯片还集成了lpddr4x控制器,为芯片提供更大容量的ddr内存。
对外接口:支持pcie3.0、rgmii、usb3.0等高速接口、以及gpio、uart、i2c、spi等低速接口。
昇腾ai处理器集成了多个arm公司的cpu核心,每个核心都有独立的l1和l2缓存,所有核心共享一个片上l3缓存。集成的cpu核心按照功能可以划分为专用于控制芯片整体运行的主控cpu 和专用于承担非矩阵类复杂计算的ai cpu。两类任务占用的cpu核数可由软件根据系统实际运行情况动态分配。
除了cpu之外,该芯片真正的算力担当是采用了达芬奇架构的ai core。这些ai core通过特别设计的架构和电路实现了高通量、大算力和低功耗,特别适合处理深度学习中神经网络必须的常用计算如矩阵相乘等。目前该芯片能对整型数(int8、int4) 或对浮点数(fp16)提供强大的乘加计算力。由于采用了模块化的设计,可以很方便的通过叠加模块的方法提高后续芯片的计算力。
针对深度神经网络参数量大、中间值多的特点,该芯片还特意为ai计算引擎配备了容量为8mb的片上缓冲区(on-chip buffer),提供高带宽、低延迟、高效率的数据交换和访问。能够快速访问到所需的数据对于提高神经网络算法的整体性能至关重要,同时将大量需要复用的中间数据缓存在片上对于降低系统整体功耗意义重大。为了能够实现计算任务在ai core上的高效分配和调度,还特意配备了一个专用cpu作为任务调度器(task scheduler,ts)。该cpu专门服务于ai core和ai cpu,而不承担任何其他的事务和工作。
数字视觉预处理模块主要完成图像视频的编解码,支持4k分辨率,视频处理,对图像支持jpeg和png等格式的处理。来自主机端存储器或网络的视频和图像数据,在进入昇腾ai芯片的计算引擎处理之前,需要生成满足处理要求的输入格式、分辨率等,因此需要调用数字视觉预处理模块进行预处理以实现格式和精度转换等要求。数字视觉预处理模块主要实现视频解码(video decoder,vdec),视频编码(video encoder,venc),jpeg编解码(jpeg decoder/encoder,jpegd/e),png解码(png decoder,pngd)和视觉预处理(vision pre-processing core,vpc)等功能。图像预处理可以完成对输入图像的上/下采样、裁剪、色调转换等多种功能。
开发者在利用昇腾硬件进行神经网络模型训练或者推理的过程中,可能会遇到以下场景:
训练场景下,将第三方框架(例如tensorflow、pytorch等)的网络训练脚本迁移到昇腾ai处理器时遇到了不支持的算子。
推理场景下,将第三方框架模型(例如tensorflow、caffe、onnx等)使用atc工具转换为适配昇腾ai处理器的离线模型时遇到了不支持的算子。
网络调优时,发现某算子性能较低,影响网络性能,需要重新开发一个高性能算子替换性能较低的算子。
推理场景下,应用程序中的某些逻辑涉及到数学运算(例如查找最大值,进行数据类型转换等),希望通过自定义算子的方式实现这些逻辑,从而获得性能提升。
此时我们就需要考虑进行自定义算子的开发,本期我们主要带您了解cann自定义算子的几种开发方式和基本开发流程,让您对cann算子有宏观的了解。
一、算子基本概念
相信大家对算子的概念并不陌生,这里我们来做简单回顾。深度学习算法由一个个计算单元组成,我们称这些计算单元为算子(operator,简称op)。
在网络模型中,算子对应层中的计算逻辑,例如:卷积层(convolution layer)是一个算子;全连接层(fully-connected layer, fc layer)中的权值求和过程,是一个算子。
再例如:tanh、relu等,为在网络模型中被用做激活函数的算子。
二、cann自定义算子开发方式
学习cann自定义算子开发方式之前,我们先来了解一下cann算子的运行位置:包括ai core和ai cpu。
ai core是昇腾ai处理器的计算核心,负责执行矩阵、向量、标量计算密集的算子任务。
ai cpu负责执行不适合跑在ai core上的算子,是ai core算子的补充,主要承担非矩阵类、逻辑比较复杂的分支密集型计算。
cann支持用户使用多种方式来开发自定义算子,包括tbe dsl、tbe tik、aicpu三种开发方式。其中tbe dsl、tbe tik算子运行在ai core上,ai cpu算子运行在ai cpu上。
1. 基于tbe开发框架的算子开发
tbe(tensor boost engine:张量加速引擎)是cann提供的算子开发框架,开发者可以基于此框架使用python语言开发自定义算子,通过tbe进行算子开发有tbe dsl、tbe tik两种方式。
tbe dsl(domain-specific language ,基于特性域语言)开发方式
为了方便开发者进行自定义算子开发,cann预先提供一些常用运算的调度,封装成一个个运算接口,称为基于tbe dsl开发。dsl接口已高度封装,用户仅需要使用dsl接口完成计算过程的表达,后续的算子调度、算子优化及编译都可通过已有的接口一键式完成,适合初级开发用户。
tbe tik(tensor iterator kernel)开发方式
tik(tensor iterator kernel)是一种基于python语言的动态编程框架,呈现为一个python模块,运行于host cpu上。开发者可以通过调用tik提供的api基于python语言编写自定义算子,tik编译器会将其编译为昇腾ai处理器应用程序的二进制文件。
tik需要用户手工控制数据搬运和计算流程,入门较高,但开发方式比较灵活,能够充分挖掘硬件能力,在性能上有一定的优势。
2. ai cpu算子开发方式
ai cpu算子的开发接口即为原生c++接口,具备c++程序开发能力的开发者能够较容易的开发出ai cpu算子。ai cpu算子在ai cpu上运行。
下面的开发方式一览表,对上述几种开发方式作对比说明,您可以根据各种开发方式的适用场景选择适合的开发方式。
三、cann算子编译运行
算子构成
一个完整的cann算子包含四部分: 算子原型定义、对应开源框架的算子适配插件、算子信息库和算子实现。 这四个组成部分会在算子编译运行的过程中使用。
算子编译
推理场景下,进行模型推理前,我们需要使用atc模型转换工具将原始网络模型转换为适配昇腾ai处理器的离线模型,该过程中会对网络中的算子进行编译。
训练场景下,当我们跑训练脚本时,cann内部实现逻辑会先将开源框架网络模型下发给graph engine进行图编译,该过程中会对网络中的算子进行编译。
cann算子的编译逻辑架构如下:
具体的cann算子编译流程如下,在编译流程中会用到上文提到的算子的四个组成部分。
graph engine调用 算子插件 ,将原始网络模型中的算子映射为适配昇腾ai处理器的算子,从而将原始开源框架图解析为适配昇腾ai处理器的图。
调用算子原型库校验接口进行基本参数的校验,校验通过后,会根据原型库中的推导函数推导每个节点的输出shape与dtype,进行输出tensor的静态内存的分配。
graph engine根据图中数据将图拆分为子图并下发给fe。fe在处理过程中根据算子信息库中算子信息找到 算子实现 ,将其编译成算子kernel,最后将优化后子图返回给graph engine。
graph engine进行图编译,包含内存分配、流资源分配等,并向fe发送tasking请求,fe返回算子的taskinfo信息给graph engine,图编译完成后生成适配昇腾ai处理器的模型。
算子运行
推理场景下,使用atc模型转换工具将原始网络模型转换为适配昇腾ai处理器的离线模型后,开发ascendcl应用程序,加载转换好的离线模型文件进行模型推理,该过程中会进行算子的调用执行。
训练场景下,当我们跑训练脚本时,内部实现逻辑将开源框架网络模型下发给graph engine进行图编译后,后续的训练流程会进行算子的调用执行。
cann算子的运行逻辑架构如下:
具体流程如下,首先graph engine下发算子执行请求给runtime,然后runtime会判断算子的task类型,若是tbe算子,则将算子执行请求下发到ai core上执行;若是ai cpu算子,则将算子执行请求下发到ai cpu上执行。


PC市场连续5季下滑,Gartner澄清不怨Win 8
基于ZigBee的工业无线网关设计
用于 de-chirp操作FPGA实现的总体设计
工信部徐昊对我国云服务行业的违规违法问题提出了几点建议
奖奖奖!2023罗姆产品斩获多项年度大奖,获得市场高度认可
昇腾AI处理器:Ascend310和CANN简介
HyperDrive的无线充电底座正式亮相发布
量子力学和量子计算——赋能第四次工业革命
三星新一代QLED电视畅薄 QX1 系列正式上架京东开售
语音聊天系统源码的独特优势有哪些
C语言模拟实现strstr函数
CBB62、CBB62B型金属化聚丙薄膜交流电容器
IBM z16主机系统如何赋能行业与企业的未来
变革性信息技术芯片时代来临,络绎知图深度分析
苹果销量下滑的最主要原因是iPhone价格太昂贵
万业企业:拟启动员工持股计划,完善公司利益共享机制
华为鸿蒙OS 2.0什么时候推送,面向的机型有哪些
博世两家工厂荣获ROI中国工业4.0杰出贡献奖
芯茂微推出高可靠TO220F-6封装大功率电源芯片
基于HART协议的智能仪表实现在线诊断管理系统的设计