CN107644254A - 一种卷积神经网络权重参数量化训练方法及系统 - Google Patents
一种卷积神经网络权重参数量化训练方法及系统 Download PDFInfo
- Publication number
- CN107644254A CN107644254A CN201710808978.4A CN201710808978A CN107644254A CN 107644254 A CN107644254 A CN 107644254A CN 201710808978 A CN201710808978 A CN 201710808978A CN 107644254 A CN107644254 A CN 107644254A
- Authority
- CN
- China
- Prior art keywords
- layer
- weight parameter
- parameter
- scaling
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于人工智能技术领域,具体为一种卷积神经网络权重参数量化训练方法及系统。本发明所述卷积神经网络包括卷积层、归一化层、缩放层、全连接层和池化层,该方法包括:根据所述归一化层的权重参数更新所述缩放层的;移除所述归一化层;采用指数量化方法对所述缩放层的权重参数进行量化;根据所述缩放层的权重参数的量化过程调节卷积层的权重参数;采用分组递归方法对所述卷积层的权重参数进行量化;根据所述缩放层的权重参数更新所述卷积层的权重参数;移除所述缩放层。采用本发明在不降低网络精度的同时,大幅降低网络计算复杂度、权重参数的存储容量和传输带宽,可获得无乘法器的硬件实现进而达到更快的计算加速。
Description
技术领域
本发明属于人工智能技术领域,具体涉及一种卷积神经网络权重参数量化训练方法及系统。
背景技术
随着人工智能的发展,深度学习已经成为目前非常热门的研究方向,吸引了极大的关注,并被广泛应用在计算机视觉、语音识别、自动驾驶等热门领域上。其中,图像识别应用作为核心应用领域之一受到广泛的关注并取得很多显著的成果。在图像分类和识别中,卷积神经网络(Convolutional Neural Network,以下简称CNN)的性能最好。CNN网络是一种前馈神经网络,主要由一个或多个卷积层、全连接层及其关联权重参数组成,辅以归一化层、池化层,归一化层后通常连接一个缩放层,该缩放层提供可学习参数,增加了归一化层的灵活性。归一化层是在最新型神经网络中使用的特殊网络层,通常和放置在卷积层后,用于规范化卷积层输出,使其输出结果均值为零,方差为一。目前,深度残差网络已经达到了很高的识别精度,甚至超越了人类的图像识别能力。这一研究结果令基于深度学习的图像识别取得了很大进展。
目前,在图像识别应用中,采用了残差结构的CNN网络能通过增加深度来获得更高的识别准确率。但是,随着CNN网络深度的增加,计算复杂度和数据量也会大幅度增加,对计算、存储和数据通信的压力越来越大。不论是部署在数据中心的应用还是嵌入式应用,支持高准确率的深度CNN模型都需要更高的计算、存储和数据通信开销。目前,为了获得高效能,多采用硬件加速来实现CNN的正向过程。研究者们提出了不同的深度神经网络加速器架构来加速网络实现。但是,大部分之前的工作仅关注了浅层且结构简单的卷积神经网络模型如AlexNet[5]和VGG[6]网络结构。而用于处理最先进的卷积神经网络模型需要处理更加复杂的网络和更大的计算和存储需求。在这种情况下,带宽和存储空间成为了一大难关。特别是嵌入式应用,尽管采用硬件加速器,但由于功耗的限制,复杂的CNN网络很难达到实时处理的计算速度。
发明内容
本发明的目的是提供一种可大幅降低网络计算复杂度、权重参数的存储容量和传输带宽的卷积神经网络权重参数量化训练方法及系统。
本发明提供的卷积神经网络权重参数量化训练方法,所述卷积神经网络包括卷积层、归一化层、缩放层、全连接层和池化层,所述方法的具体步骤为:
(1)根据所述归一化层的权重参数,更新所述缩放层的权重参数;
(2)移除所述归一化层;
(3)采用指数量化方法,对所述缩放层的权重参数进行量化;
(4)根据所述缩放层的权重参数的量化过程,调节卷积层的权重参数;
(5)采用分组递归方法,对所述卷积层的权重参数进行量化;
(6)根据所述缩放层的参数更新所述卷积层的参数;
(7)移除所述缩放层。
可选的,步骤(1)所述根据所述归一化层的权重参数更新所述缩放层的权重参数,具体做法为:
利用公式和更新所述缩放层的权重参数,其中,r,β为初始缩放层的权重参数,r表示缩放比例,β表示缩放偏置;是归一化层的两大参数,其中,μB表示归一化层输入数据的均值,表示归一化层输入数据的方差,r′,β′为缩放层更新后的权重参数,r′表示缩放层的新缩放参数,β′表示缩放层的新偏置参数。
可选的,步骤(3)所述采用指数量化方法对所述缩放层的权重参数进行量化,具体做法:
利用公式对所述缩放层的权重参数进行量化,其中WZ代表量化前缩放层的权重参数,表示量化后缩放层的权重参数,α为整数,2α为距离量化前所述缩放层的权重参数最近的数值,sgn()函数用于取数据符号,abs函数用于取数据的绝对值。
可选的,步骤(4)所述根据所述缩放层的权重参数的量化过程调节卷积层的权重参数,具体做法为:
(1)计算量化后缩放层权重参数与量化前缩放层权重参数的比值;
(2)根据该比值缩放卷积层的权重参数。
可选的,步骤(5)所述采用分组递归方法对所述卷积层的权重参数进行量化,具体流程为:
(1)根据所述权重参数的权重绝对值,将所述卷积层的每一层权重参数分为量化组和训练组,所述量化组中权重参数的权重绝对值高于所述训练组中权重参数的权重绝对值;
(2)在量化范围内,利用指数量化方法对所述量化组中权重参数进行量化;
(3)利用给定的训练参数训练所述训练组的权重参数。
可选的,步骤(5)中流程(3)所述在量化范围内利用指数量化方法对所述量化组中权重参数进行量化,具体为:
利用公式确定所述量化范围PL,其中n1>n2,n1表示所述量化的上界,n2表示所述量化的下界;
利用公式对所述量化组中权重参数进行量化;其中WC代表量化前量化组中的权重参数,表示量化后量化组中的权重参数,α为整数,2α为距离量化前权重参数最近的数值,sgn()函数用于取数据符号,abs函数用于取数据的绝对值。
可选的,步骤(5)所述采用分组递归方法对所述卷积层的权重参数进行量化,之前还包括:
固定量化后的所述缩放层的权重参数保持不变。
可选的,步骤(6)所述根据所述缩放层的参数更新所述卷积层的参数,具体包括:
利用公式更新所述卷积层的权重参数,其中W1表示卷积层更新前的权重参数;表示卷积层更新后的权重参数;r1′表示缩放层的缩放参数;
利用公式B1′=β1′/r1′将所述缩放层的偏置参数更新至所述卷积层,其中β1′表示更新前缩放层的偏置参数;B1′表示更新后的卷积层的偏置参数;r1′表示缩放层的缩放参数。
本发明还提供一种卷积神经网络权重参数量化训练系统,所述卷积神经网络包括卷积层、归一化层、缩放层、全连接层和池化层,所述系统包括:
(1)缩放层更新模块,用于根据所述归一化层的权重参数更新所述缩放层的权重参数;
(2)归一化层移除模块,用于移除所述归一化层;对应于方法中步骤(2)的操作内容;
(3)指数量化模块,用于采用指数量化方法对所述缩放层的权重参数进行量化;
(4)调节模块,用于根据所述缩放层的权重参数的量化过程调节卷积层的权重参数;
(5)分组递归量化模块,用于采用分组递归方法对所述卷积层的权重参数进行量化;
(6)卷积层更新模块,用于根据所述缩放层的参数更新所述卷积层的参数;
(7)缩放层移除模块,用于移除所述缩放层。
这7个模块的功能分别对应于方法中步骤(1)-步骤(7)的操作内容。
可选的,所述系统还包括:
固定模块,用于在采用分组递归方法对所述卷积层的权重参数进行量化之前固定量化后的所述缩放层的权重参数保持不变。
本发明在卷积神经网络计算过程中乘法操作彻底被移位操作代替,进而大幅降低网络计算复杂度、权重参数的存储容量和传输带宽,可获得无乘法器的硬件实现以达到更快的计算加速目的。
本发明提出的方法通过调整和训练卷积神经网络,在完成调整之后,实现了其他方法无法做到的网络结构简化和无损压缩功能。
首先,网络精度方面,本发明在完成调整训练流程之后,不同深度的残差网络均提升了一定的网络精度。
其次,本发明在无损压缩的同时,也成功去除了归一化层和缩放层,这是其他方法无法做到的。去除了归一化层和缩放层简化了卷积神经网络的结构,加速卷积神经网络推断过程。实验结果表明,结构优化后的卷积神经网络在CPU和GPU环境下都能够提升运算速率。进一步考虑硬件实现目标时,简化网络结构不仅带来了计算加速的效果,同时能精简硬件单元,去除额外网络层带来的存储和计算开销,从而提高硬件性能。
再次,本发明将卷积神经网络的所有权重参数都量化到指数表示,这使得整个卷积神经网络需要的存储空间大量降低,有利于提升硬件实现性能。硬件实现的另一大优点体现在计算单元上,指数表示的卷积神经网络能够采用移位计算单元取代乘法计算单元,在简化设计面积的同时也能提高网络性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明卷积神经网络权重参数量化训练方法实施例1流程图。
图2为本发明卷积神经网络权重参数量化训练系统结构图。
图3为本发明卷积神经网络权重参数量化训练方法实施例2流程图。
图4a-4c为本发明卷积神经网络权重参数量化训练方法实施例2中增量量化方法的流程图;其中4a为预训练好的全精度浮点网络,4b为经过第一轮权重划分,分组量化和重训练更新后得到的新网络,4c为量化完成后的低精度网络。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明卷积神经网络权重参数量化训练方法实施例1流程图。本实施例所涉及的卷积神经网络包括卷积层、归一化层、缩放层、全连接层和池化层。如图1所示,所述方法包括:
步骤101:更新缩放层的权重参数。根据所述归一化层的权重参数更新所述缩放层的权重参数。具体的,利用公式和更新所述缩放层的权重参数,其中,r,β为初始缩放层权重参数,r表示缩放比例,β表示缩放偏置;是归一化层的两大参数,其中,μB表示归一化层输入数据的均值,表示归一化层输入数据的方差,r′,β′为缩放层更新后的权重参数,r′表示缩放层的新缩放权重参数,β′表示缩放层的新偏置权重参数。更新后的缩放层代替了归一化层和更新前的缩放层。
步骤102:移除归一化层。由于更新后的缩放层可以实现归一化层的功能,则缩放层更新后,归一化层的权重参数变为(0,1),则此时无需保留“无用”的归一化层和额外的归一化层权重参数,可直接将该层移除,简化网络结构。
步骤103:对缩放层的权重参数进行量化。采用指数量化方法对更新后的缩放层的权重参数进行量化,指数量化方法是将网络权重参数量化为二的指数,量化后参数用于表示为二的指数位。
量化神经网络中有三种常用的网络权重参数量化方法,分别是线性量化方法(Linear Quantization)、指数量化方法(Log Quantization)和二进制量化方法(BinaryQuantization)。其中,线性量化方法最为简洁,该方法将网络权重参数转化为低位宽的定点数或微浮点数表示,能够在8-16比特量化级别下无损量化卷积神经网络,但量化至更低位数时出现明显的精度损失。二进制量化方法可视为线性量化和指数量化的单比特特例,在极大地减少神经网络的计算量的同时也带来了无法恢复的精度损失。指数量化方法相比于线性量化方法,在硬件实现上有着极大的优势。通过指数量化方法,可有效地降低网络数据量,用硬件实现时,可以采用移位器取代乘法器,在简化硬件复杂度的同时也能提高网络性能。这使得指数量化方法是理想的量化方法。
综上所述,指数量化方法在降低CNN计算和数据复杂度上取得了显著进展,但同时也存在问题。现有指数量化方法仅适用于在卷积层和全连接层参数上。但是,最新的CNN结构发展出了特殊的归一化层(Batch Normalization Layer),归一化层通过规范化卷积层的输出,可以在神经网络训练阶段提升训练速度,加快收敛过程,并能少量提升分类效果。在归一化层中直接采用指数量化方法会损失大量精度。有具体实验中尝试用指数量化方法量化归一化层参数,结果在4位等级量化时损失了30%精度,8位等级量化时损失了2%精度。如此大的精度损失使得指数量化方法难以在有归一化层的卷积神经网络上实现无损量化压缩。因此,本申请中通过步骤101和步骤102的操作后,移除归一化层,对缩放层进行指数量化,实现了无损精度的量化过程。
采用指数量化方法对更新后的缩放层的权重参数进行量化,具体包括:
利用公式对所述缩放层的权重参数进行量化,其中WZ代表量化前缩放层的权重参数,表示量化后缩放层的权重参数,α为整数,2α为距离量化前所述缩放层的权重参数最近的数值,sgn()函数用于取数据符号,abs函数用于取数据的绝对值。
步骤104:调节卷积层的权重参数。根据所述缩放层的权重参数的量化过程调节卷积层的权重参数。具体包括:
计算量化后缩放层权重参数与量化前缩放层权重参数的比值;
根据该比值缩放卷积层的权重参数。
步骤105:对卷积层的权重参数进行量化。采用分组递归方法对所述卷积层的权重参数进行量化,具体包括:
根据所述权重参数的权重绝对值将所述卷积层的每一层权重参数分为量化组和训练组,所述量化组中权重参数的权重绝对值高于所述训练组中权重参数的权重绝对值;
在量化范围内利用指数量化方法对所述量化组中权重参数进行量化;
利用给定的训练权重参数训练所述训练组的权重参数。
在量化范围内利用指数量化方法对所述量化组中权重参数进行量化,具体包括:
利用公式确定所述量化范围PL,其中n1>n2,n1表示所述量化的上界,n2表示所述量化的下界;
利用公式对所述量化组中权重参数进行量化;其中WC代表量化前量化组中的权重参数,表示量化后量化组中的权重参数,α为整数,2α为距离量化前权重参数最近的数值,sgn()函数用于取数据符号,abs函数用于取数据的绝对值。
步骤106:更新卷积层的参数。根据所述缩放层的参数更新所述卷积层的参数,具体包括:
利用公式更新所述卷积层的权重参数,其中W1表示卷积层更新前的权重参数;表示卷积层更新后的权重参数;r1′表示缩放层的缩放参数;
利用公式B1′=β1′/r1′将所述缩放层的偏置参数更新至所述卷积层,其中β1′表示更新前缩放层的偏置参数;B1′表示更新后的卷积层的偏置参数;r1′表示缩放层的缩放参数。
步骤107:移除缩放层。最大程度地简化网络结构。
图2为本发明卷积神经网络权重参数量化训练系统结构图。如图2所示,所述系统的结构与图1所示的流程图一一对应,所述系统包括:
缩放层更新模块201,用于根据所述归一化层的权重参数更新所述缩放层的权重参数;
归一化层移除模块202,用于移除所述归一化层;
指数量化模块203,用于采用指数量化方法对所述缩放层的权重参数进行量化;
调节模块204,用于根据所述缩放层的权重参数的量化过程调节卷积层的权重参数;
分组递归量化模块205,用于采用分组递归方法对所述卷积层的权重参数进行量化;
卷积层更新模块206,用于根据所述缩放层的参数更新所述卷积层的参数;
缩放层移除模块207,用于移除所述缩放层。
图3为本发明卷积神经网络权重参数量化训练方法实施例2流程图。如图3所示,所述方法包括三个阶段:微调阶段,重训练阶段和转移阶段。本实施例中涉及的参数通常是指权重参数。
微调阶段301:移除归一化层并量化缩放层。输入网络结构包括了卷积层、归一化层和缩放层,通过微调操作移除了归一化层并量化了缩放层。
微调的目的是从复杂网络中排除归一化层并保持网络精度不变。在微调阶段中将归一化层和缩放层合并为一个单独的缩放层,该缩放层参数是原归一化层和缩放层参数的叠加。而正确理解归一化层和缩放层的性质是正确整合这两层的前提。
归一化层用来归一化卷积层的输出,使其归一化到零均值和单位方差上。这样一来,归一化层的输出都被归一化到零均值和单位方差分布当中。这样做的好处在于加快网络的收敛速率并支持更深层的网络结构,该层的输出向量可表示为:
其中xi代表归一化层的输入数据,下标i表示第i层,m代表输入数据的数量,是归一化层的两大参数,其中μB代表归一化层输入数据的均值,代表归一化层输入数据的方差。公式表明了归一化层的工作是将输入参数经过归一化操作后输出归一化向量完成归一化层操作。
归一化层后通常连接一个缩放层,该缩放层提供了两个可学习参数(r,β),增加了归一化层的灵活性。r为缩放比例,β为缩放偏置。这一层的功能是改变归一化层固化的输出分布,使得网络的输出分布能够按照网络的需求来设定。缩放层可表示为β(xi),BNr,β(xi)表示对数据xi的归一化操作,yi表示缩放层的输出。
根据归一化层更新缩放层的参数为:和r′,β′为缩放层更新后的参数,r′表示缩放层的新缩放参数,β′表示缩放层的新偏置参数,此时,更新后的缩放层表示为:此公式实现了将归一化层和缩放层参数的融合。先在权重转移阶段将归一化层参数转移到为缩放层上。转移完毕后归一化层参数变为(0,1),缩放层参数(r,β)转变为(r′,β′)。显然,权重转移后的网络和转移前的网络在数学上是等价的,实验测试表明转移前后的网络精度也是完全相同的。
完成权重转移操作之后,归一化层参数变为(0,1),且在新的参数条件下归一化层的输出和输入完全相同。事实上,权重转移之后归一化层已不再工作,其归一化功能完全被缩放层所包括。既然如此,便无需保留‘无用’的归一化层和额外的归一化参数,可直接将其从网络结构和网络参数中剔除。同理,剔除归一化层后网络精度和完全不变。工作进行到这一步,成功地剔除了归一化层,部分实现了简化网络结构和削减网络参数的目的。
去除了归一化层以后,网络中仅存在卷积层和缩放层两层。为了指数量化缩放层和卷积层参数并保持精度无损,需要同时微调缩放层和卷积层两层,用卷积层的参数微调来弥补缩放量化带来的精度损失。接下来对缩放层执行指数量化操作,指数量化将该层所有参数量化到离原参数距离最近的二的指数或零来表示,量化采用下列公式:该公式的目的是为了将权重量化到数值上最近的二的指数上去。例如,公式将绝对值位于[1,0.75]间的权重量化为±1,将绝对值位于(0.75,0.5]间的权重量化为±0.5。这种量化操作可以视作指数量化上的四舍五入。其好处在于处理简单,性能高效,且在公式中可以推导得出,量化后的参数被限制在量化前参数的当中,保证了网络结构和参数分布不会有大的改变,可以最小化缩放层参数量化对整个网络参数范围的影响,使得接下的重训练方法可以正常运行。
完成对缩放层的指数量化之后,整个网络的权重分布被改写,这将导致网络精度的直接下降。为了弥补网络精度的下降,需要微调卷积层参数来弥补缩放层量化带来的不良后果。微调方法通过计算量化后缩放层参数和量化前缩放层参数之比,再用该缩放比缩放卷积层参数,使得整个卷积神经网络保持不变。这一创新使得能够在量化缩放层的同时保持整个网络精度不变。
对网络的微调如下列公式所示:
其中S代表缩放倍率,rpre代表量化前的缩放层参数,代表量化后的缩放层参数,分别代表缩放前的卷积层参数和缩放后的卷积层参数。
完成微调阶段后,卷积神经网络中归一化层被剔除,缩放层被量化,卷积层被微调,而网络精度保持不变,在剔除归一化层并量化缩放层的同时保持了网络的功能和性质,同时完成了微调后才能进一步在最后转移缩放层并最终去除,使得网络结构得到最大程度的简化。
重训练阶段302:精度恢复。量化了卷积层,同时保持网络精度因量化而降低,重训练完成后所有网络参数都被量化为二的指数。
重训练目的是量化卷积层参数并保持网络精度不下降。但该阶段量化卷积层与调整阶段量化缩放层不同,目前网络中仅剩下卷积层和缩放层,不存在其他层可供卷积层来转移参数。若再将参数转移回缩放层,会破坏缩放层量化结果,无法将权重保持在指数形式。因此,假设直接量化卷积层参数,网络无法通过权重转移的方法来弥补精度。
为此,必须提出针对单独层的量化方法来量化卷积层,并通过训练来恢复网络精度。首先固定在前阶段完成量化的缩放层参数不变,保证其量化结果不会受到重训练的影响,在该阶段我们采用了Aojun Zhou提出的增量量化方法来无损量化卷积层。
增量量化方法针对卷积神经网络的卷积层和全连接层的权重参数,通过分组递归训练方法可有效地将权重参数量化为指数。增量量化核心是引入了三个独立的量化步骤,包括权重划分,分组量化和重训练。下面将直接详细介绍三步骤流程。
首先,权重划分将全精度浮点网络模型中每一层参数分为两组,第一组中的参数将被直接量化并固定,通过重新训练另一组权重参数来弥补量化带来的精度损失。在这里,分组按照网络权重的绝对值来划分,网络权重绝对值较高的被划为量化组,绝对值较低的权重被划为训练组。这样训练组有较广泛的训练空间,能有效地弥补量化组带来的量化误差。
分组量化将量化组权重量化为指数表示,此时要考虑网络权重范围和量化精度的限制,因此限制该层量化范围为PL,n1>n2,n1表示所述量化的上界,n2表示所述量化的下界,所有被量化过的参数都不会超出在的范围。这意味着在指数量化中,所有绝对值小于的参数都将被强制置为零。显然,指数量化需要在指数量化之前确定n1和n2的值,在量化之前预先设定好了量化位宽Bits,这样一来,只需计算得到n1便能自动推导出n2的值n2=n1-2Bits。量化过程中可通过计算得到n1:
其中WL代表第L层卷积层参数,floor代表向下取整,max()代表取最大值,abs函数用于取数据的绝对值。这样计算得到的n1能够将网络绝对值最大的参数正确地量化为指数。一旦确定了量化范围PL,便能得到网络量化公式:其中WC代表量化前量化组中的参数,表示量化后量化组中的参数,α为整数,2α为距离量化前参数最近的数值,sgn()函数用于取数据符号,abs函数用于取数据的绝对值。
最后用给的训练参数重训练训练组参数,弥补网络精度。上述三步骤在增量量化流程中依次迭代执行,直到所有的权重都量化为低精度为止。通常在增量量化后,卷积神经网络被简化,而网络的精度有微量的提升。增量量化方法流程如图4所示,图4a-4c为本发明卷积神经网络权重参数量化训练方法实施例2中增量量化方法的流程图;其中4a为预训练好的全精度浮点网络,4b为经过第一轮权重划分,分组量化和重训练更新后得到的新网络,4c为量化完成后的低精度网络:图4a代表了第一轮增量量化操作,在该轮量化中需要将预训练好的全精度浮点网络分为两组,每组各拥有一半的网络权重。在经过一轮权重划分,分组量化和重训练后得到了图4b所示的网络,该网络量化了一半的网络权重,并重新训练剩下一半的网络权重。经过一轮增量量化后,得到的新网络能提升一定的精度。
图中(2)代表了在未量化的网络权重中重复增量量化操作(1)直到所有权重都被量化为止,每轮操作都将剩余的浮点权重分为两组(通常采用均分方法),故在整个流程中量化权重的比例为50%75%87.5%100%。最后一轮剩下12.5%的权重时,不将权重分组而是将所有权重直接量化得到最后的量化结果,这是因为实验表面最后剩下的权重对精度的影响极小,直接量化不会造成网络精度的损失。我们在ImageNet图像集上使用ResNet使用增量量化方法。成功将网络权重参数量化到4位指数表示,并得到了约1%~2%的精度提升。
移除缩放层阶段303:仅保留了核心的卷积层,最大程度地简化了网络结构。三阶段结束之后,网络参数被指数量化,结构被简化,网络的计算量和占用空间都被极大地降低。
完成了微调阶段和重训练阶段之后,卷积层和缩放层的参数都被量化到二的指数上,且网络精度得到一定程度的提升。可以说我们已经完成了网络的量化操作,但我们还可以进一步优化网络结构。在参数转移阶段会将缩放层的缩放参数直接转移到卷积层上,显然,任意两个同底数相乘得到的结果依然是同底指数,网络权重的依然保持指数化状态。但是,由于缩放层的参数采用的是就近量化方法,该方法目的使最小化其量化对参数范围的影响,但同时无法保持缩放层的量化范围。将缩放层参数转移到卷积层上将影响卷积层参数的量化范围,使其超出量化限定的范围PL。为此,需要再次量化卷积层参数,重新确定权重参数范围,再次量化网络参数,将所有少于的参数量化为零。这将会造成一定的精度损失,但此时去除的都是绝对值范围最小的网络权重,这将仅仅引入约0.1%的精度损失,完全可以忽略不计。
同时,缩放层的偏置也随其缩放参数一并转移,该偏置将在除去缩放层缩放参数后叠加在卷积层偏置上。因为在残差网络中卷积层不具备偏置参数,因此在参数转移阶段我们需要使能卷积层偏置功能。参数转移遵循以下公式:其中W1表示卷积层更新前的参数;表示卷积层更新后的参数;r1′表示缩放层的缩放参数,β1′表示更新前缩放层的偏置参数;B1′表示更新后的卷积层的偏置参数;r1′表示缩放层的缩放参数。在完成上述转移之后,缩放层的缩放参数变为1,偏置参数变为0,此时缩放层已不再起到缩放功能,可以直接在网络中移除缩放层而不改变网络性质和网络精度。完成了这一阶段的所有操作之后,卷积神经网络便只剩下指数化的卷积层参数,网络结构最大程度地简化。
最终,经过本发明的网络简化和量化操作之后,输出指数量化并去除归一化层和缩放层的卷积神经网络。而网络参数被指数量化之后,所需的存储空间从32位降低到了4位,降低了八倍的存储开销。而用移位器取代乘法器可使单位计算单元占用的面积和功耗减低,同样的硬件资源可放置更多的计算单元,从而提升了网络的性能和功耗开销。而网络结构简化完毕之后,再无需为归一化层和缩放层配置额外的计算单元和硬件资源,网络得以最优化地表达。
总结一下三阶段操作的特点:(1)微调阶段在通过微调上层卷积层弥补下层缩放层的量化误差;(2)重训练阶段仅有单独的卷积网络,无法微调处理,采用Aojun Zhou提出的分组量化方法,该方法可视作同层内的参数微调方法;(3)权重转移阶段将卷积神经网络简化到单独的卷积层,最大程度上简化了网络结构;(4)通过联合使用微调、重训练和权重转移方法,该项发明有能力将浮点卷积神经网络量化到指数模式并简化结构同时保持网络精度不变。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种卷积神经网络权重参数量化训练方法,所述卷积神经网络包括卷积层、归一化层、缩放层、全连接层和池化层,其特征在于,权重参数量化训练方法的具体步骤为:
(1)根据所述归一化层的权重参数,更新所述缩放层的权重参数;
(2)移除所述归一化层;
(3)采用指数量化方法,对所述缩放层的权重参数进行量化;
(4)根据所述缩放层的权重参数的量化过程,调节卷积层的权重参数;
(5)采用分组递归方法,对所述卷积层的权重参数进行量化;
(6)根据所述缩放层的参数更新所述卷积层的参数;
(7)移除所述缩放层。
2.根据权利要求1所述的方法,其特征在于,步骤(1)所述根据所述归一化层的权重参数更新所述缩放层的权重参数,具体做法为:
利用公式和更新所述缩放层的权重参数,其中,r,β为初始缩放层的权重参数,r表示缩放比例,β表示缩放偏置;μB,是归一化层的两大参数,其中,μB表示归一化层输入数据的均值,表示归一化层输入数据的方差,r′,β′为缩放层更新后的权重参数,r′表示缩放层的新缩放参数,β′表示缩放层的新偏置参数。
3.根据权利要求1所述的方法,其特征在于,步骤(3)所述采用指数量化方法对所述缩放层的权重参数进行量化,具体做法为:
利用公式对所述缩放层的权重参数进行量化,其中WZ代表量化前缩放层的权重参数,表示量化后缩放层的权重参数,α为整数,2α为距离量化前所述缩放层的权重参数最近的数值,sgn()函数用于取数据符号,abs函数用于取数据的绝对值。
4.根据权利要求1所述的方法,其特征在于,步骤(4)所述根据所述缩放层的权重参数的量化过程调节卷积层的权重参数,具体流程为:
(1)计算量化后缩放层权重参数与量化前缩放层权重参数的比值;
(2)根据该比值缩放卷积层的权重参数。
5.根据权利要求1所述的方法,其特征在于,步骤(5)所述采用分组递归方法对所述卷积层的权重参数进行量化,具体流程为:
(1)根据所述权重参数的权重绝对值将所述卷积层的每一层权重参数分为量化组和训练组,所述量化组中权重参数的权重绝对值高于所述训练组中权重参数的权重绝对值;
(2)在量化范围内利用指数量化方法对所述量化组中权重参数进行量化;
(3)利用给定的训练参数训练所述训练组的权重参数。
6.根据权利要求5所述的方法,其特征在于,所述在量化范围内利用指数量化方法对所述量化组中权重参数进行量化,具体为:
利用公式确定所述量化范围PL,其中n1>n2,n1表示所述量化的上界,n2表示所述量化的下界;
利用公式对所述量化组中权重参数进行量化;其中WC代表量化前量化组中的权重参数,表示量化后量化组中的权重参数,α为整数,2α为距离量化前权重参数最近的数值,sgn()函数用于取数据符号,abs函数用于取数据的绝对值。
7.根据权利要求1或5任一项所述的方法,其特征在于,步骤(5)所述采用分组递归方法对所述卷积层的权重参数进行量化,之前还包括:
固定量化后的所述缩放层的权重参数保持不变。
8.根据权利要求1所述的方法,其特征在于,步骤(6)所述根据所述缩放层的参数更新所述卷积层的参数,具体为:
利用公式更新所述卷积层的权重参数,其中,W1表示卷积层更新前的权重参数;表示卷积层更新后的权重参数;r1′表示缩放层的缩放参数;
利用公式B1′=β1′/r1′将所述缩放层的偏置参数更新至所述卷积层,其中,β1′表示更新前缩放层的偏置参数;B1′表示更新后的卷积层的偏置参数;r1′表示缩放层的缩放参数。
9.一种基于权利要求1-8之一所述方法的卷积神经网络权重参数量化训练系统,所述卷积神经网络包括卷积层、归一化层、缩放层、全连接层和池化层,其特征在于,所述系统包括:
(1)缩放层更新模块,用于根据所述归一化层的权重参数更新所述缩放层的权重参数;
(2)归一化层移除模块,用于移除所述归一化层;
(3)指数量化模块,用于采用指数量化方法对所述缩放层的权重参数进行量化;
(4)调节模块,用于根据所述缩放层的权重参数的量化过程调节卷积层的权重参数;
(5)分组递归量化模块,用于采用分组递归方法对所述卷积层的权重参数进行量化;
(6)卷积层更新模块,用于根据所述缩放层的参数更新所述卷积层的参数;
(7)缩放层移除模块,用于移除所述缩放层;
这7个模块的功能分别对应于卷积神经网络权重参数量化训练方法的7个步骤的操作内容。
10.根据权利要求9所述的系统,其特征在于,所述系统还包括:
固定模块,用于在采用分组递归方法对所述卷积层的权重参数进行量化之前固定量化后的所述缩放层的权重参数保持不变。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710808978.4A CN107644254A (zh) | 2017-09-09 | 2017-09-09 | 一种卷积神经网络权重参数量化训练方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710808978.4A CN107644254A (zh) | 2017-09-09 | 2017-09-09 | 一种卷积神经网络权重参数量化训练方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107644254A true CN107644254A (zh) | 2018-01-30 |
Family
ID=61110844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710808978.4A Pending CN107644254A (zh) | 2017-09-09 | 2017-09-09 | 一种卷积神经网络权重参数量化训练方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107644254A (zh) |
Cited By (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564165A (zh) * | 2018-03-13 | 2018-09-21 | 上海交通大学 | 卷积神经网络定点化优化的方法及系统 |
CN108596328A (zh) * | 2018-04-26 | 2018-09-28 | 北京市商汤科技开发有限公司 | 一种定点化方法及装置、计算机设备 |
CN108596243A (zh) * | 2018-04-20 | 2018-09-28 | 西安电子科技大学 | 基于分级注视图和条件随机场的眼动注视图预测方法 |
CN108596331A (zh) * | 2018-04-16 | 2018-09-28 | 浙江大学 | 一种细胞神经网络硬件架构的优化方法 |
CN108805265A (zh) * | 2018-05-21 | 2018-11-13 | Oppo广东移动通信有限公司 | 神经网络模型处理方法和装置、图像处理方法、移动终端 |
CN108985453A (zh) * | 2018-06-27 | 2018-12-11 | 中国科学技术大学苏州研究院 | 基于非对称三元权重量化的深度神经网络模型压缩方法 |
CN109002881A (zh) * | 2018-06-28 | 2018-12-14 | 郑州云海信息技术有限公司 | 基于fpga的深度神经网络的定点化计算方法及装置 |
CN109242092A (zh) * | 2018-09-29 | 2019-01-18 | 深圳市商汤科技有限公司 | 网络获取及图像处理方法和装置、电子设备、存储介质 |
CN109376854A (zh) * | 2018-11-02 | 2019-02-22 | 矽魅信息科技(上海)有限公司 | 用于深度神经网络的多底数对数量化方法及装置 |
CN109558819A (zh) * | 2018-11-20 | 2019-04-02 | 北京市遥感信息研究所 | 一种用于遥感图像目标检测的深度网络轻量化方法 |
CN109740737A (zh) * | 2018-12-30 | 2019-05-10 | 联想(北京)有限公司 | 卷积神经网络量化处理方法、装置及计算机设备 |
CN110223292A (zh) * | 2019-06-20 | 2019-09-10 | 厦门美图之家科技有限公司 | 图像评估方法、装置及计算机可读存储介质 |
CN110322008A (zh) * | 2019-07-10 | 2019-10-11 | 杭州嘉楠耘智信息科技有限公司 | 一种基于残差卷积神经网络的量化处理方法及装置 |
CN110334744A (zh) * | 2019-06-11 | 2019-10-15 | 福建奇点时空数字科技有限公司 | 一种基于跨通道级联卷积层的神经网络模型优化算法 |
CN110363279A (zh) * | 2018-03-26 | 2019-10-22 | 华为技术有限公司 | 基于卷积神经网络模型的图像处理方法和装置 |
CN110598838A (zh) * | 2018-06-13 | 2019-12-20 | 国际商业机器公司 | 统计感知权重量化 |
CN110874627A (zh) * | 2018-09-04 | 2020-03-10 | 华为技术有限公司 | 数据处理方法、数据处理装置及计算机可读介质 |
CN110874626A (zh) * | 2018-09-03 | 2020-03-10 | 华为技术有限公司 | 一种量化方法及装置 |
CN110895715A (zh) * | 2018-09-12 | 2020-03-20 | 辉达公司 | 存储高效的神经网络 |
CN111275184A (zh) * | 2020-01-15 | 2020-06-12 | 中山大学 | 一种实现神经网络压缩的方法、系统、装置和存储介质 |
CN111353517A (zh) * | 2018-12-24 | 2020-06-30 | 杭州海康威视数字技术股份有限公司 | 一种车牌识别方法、装置及电子设备 |
CN111523526A (zh) * | 2020-07-02 | 2020-08-11 | 杭州雄迈集成电路技术股份有限公司 | 一种目标检测方法、计算机设备及可读存储介质 |
CN111582432A (zh) * | 2019-02-19 | 2020-08-25 | 北京嘉楠捷思信息技术有限公司 | 一种网络参数处理方法及装置 |
CN111611450A (zh) * | 2020-05-12 | 2020-09-01 | 深圳力维智联技术有限公司 | 跨媒介数据融合方法、装置及存储介质 |
CN111723901A (zh) * | 2019-03-19 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 神经网络模型的训练方法及装置 |
CN111753862A (zh) * | 2019-03-29 | 2020-10-09 | 北京地平线机器人技术研发有限公司 | 训练神经网络模型的方法及装置、图像识别方法 |
CN111767984A (zh) * | 2020-06-09 | 2020-10-13 | 云知声智能科技股份有限公司 | 一种基于固定移位的8位整型全量化推理方法及装置 |
CN111931917A (zh) * | 2020-08-20 | 2020-11-13 | 浙江大华技术股份有限公司 | 前向计算的实现方法及装置、存储介质、电子装置 |
WO2020238237A1 (zh) * | 2019-05-27 | 2020-12-03 | 东南大学 | 一种基于幂指数量化的神经网络压缩方法 |
CN112085193A (zh) * | 2019-06-12 | 2020-12-15 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
WO2021036890A1 (zh) * | 2019-08-23 | 2021-03-04 | 安徽寒武纪信息科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
WO2021036908A1 (zh) * | 2019-08-23 | 2021-03-04 | 安徽寒武纪信息科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
WO2021044244A1 (en) * | 2019-09-03 | 2021-03-11 | International Business Machines Corporation | Machine learning hardware having reduced precision parameter components for efficient parameter update |
CN112861997A (zh) * | 2021-03-15 | 2021-05-28 | 北京小米移动软件有限公司 | 信息的处理方法、装置、存储介质和电子设备 |
CN112907560A (zh) * | 2021-03-16 | 2021-06-04 | 中科海拓(无锡)科技有限公司 | 一种基于深度学习的笔记本外观瑕疵分割方法 |
CN112990457A (zh) * | 2021-03-26 | 2021-06-18 | 开放智能机器(上海)有限公司 | 离线量化调优方法、装置、设备、介质及程序产品 |
WO2021164750A1 (zh) * | 2020-02-21 | 2021-08-26 | 华为技术有限公司 | 一种卷积层量化方法及其装置 |
US11397579B2 (en) | 2018-02-13 | 2022-07-26 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
US11442785B2 (en) | 2018-05-18 | 2022-09-13 | Shanghai Cambricon Information Technology Co., Ltd | Computation method and product thereof |
US11513586B2 (en) | 2018-02-14 | 2022-11-29 | Shanghai Cambricon Information Technology Co., Ltd | Control device, method and equipment for processor |
US11544059B2 (en) | 2018-12-28 | 2023-01-03 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Signal processing device, signal processing method and related products |
US11609760B2 (en) | 2018-02-13 | 2023-03-21 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
US11762690B2 (en) | 2019-04-18 | 2023-09-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11789847B2 (en) | 2018-06-27 | 2023-10-17 | Shanghai Cambricon Information Technology Co., Ltd | On-chip code breakpoint debugging method, on-chip processor, and chip breakpoint debugging system |
WO2023227077A1 (en) * | 2022-05-26 | 2023-11-30 | Liu Ren Shuo | Method for training a neural network with flexible feature compression capability, and neural network system with flexible feature compression capability |
US11847554B2 (en) | 2019-04-18 | 2023-12-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11966583B2 (en) | 2018-08-28 | 2024-04-23 | Cambricon Technologies Corporation Limited | Data pre-processing method and device, and related computer device and storage medium |
US12001955B2 (en) | 2019-08-23 | 2024-06-04 | Anhui Cambricon Information Technology Co., Ltd. | Data processing method, device, computer equipment and storage medium |
US12112257B2 (en) | 2019-08-27 | 2024-10-08 | Anhui Cambricon Information Technology Co., Ltd. | Data processing method, device, computer equipment and storage medium |
-
2017
- 2017-09-09 CN CN201710808978.4A patent/CN107644254A/zh active Pending
Cited By (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
US11620130B2 (en) | 2018-02-13 | 2023-04-04 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11720357B2 (en) | 2018-02-13 | 2023-08-08 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11709672B2 (en) | 2018-02-13 | 2023-07-25 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11397579B2 (en) | 2018-02-13 | 2022-07-26 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11507370B2 (en) | 2018-02-13 | 2022-11-22 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Method and device for dynamically adjusting decimal point positions in neural network computations |
US12073215B2 (en) | 2018-02-13 | 2024-08-27 | Shanghai Cambricon Information Technology Co., Ltd | Computing device with a conversion unit to convert data values between various sizes of fixed-point and floating-point data |
US11609760B2 (en) | 2018-02-13 | 2023-03-21 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11663002B2 (en) | 2018-02-13 | 2023-05-30 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11704125B2 (en) | 2018-02-13 | 2023-07-18 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Computing device and method |
US11740898B2 (en) | 2018-02-13 | 2023-08-29 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11513586B2 (en) | 2018-02-14 | 2022-11-29 | Shanghai Cambricon Information Technology Co., Ltd | Control device, method and equipment for processor |
CN108564165B (zh) * | 2018-03-13 | 2024-01-23 | 上海交通大学 | 卷积神经网络定点化优化的方法及系统 |
CN108564165A (zh) * | 2018-03-13 | 2018-09-21 | 上海交通大学 | 卷积神经网络定点化优化的方法及系统 |
CN110363279A (zh) * | 2018-03-26 | 2019-10-22 | 华为技术有限公司 | 基于卷积神经网络模型的图像处理方法和装置 |
CN110363279B (zh) * | 2018-03-26 | 2021-09-21 | 华为技术有限公司 | 基于卷积神经网络模型的图像处理方法和装置 |
CN108596331A (zh) * | 2018-04-16 | 2018-09-28 | 浙江大学 | 一种细胞神经网络硬件架构的优化方法 |
CN108596243B (zh) * | 2018-04-20 | 2021-09-10 | 西安电子科技大学 | 基于分级注视图和条件随机场的眼动注视图预测方法 |
CN108596243A (zh) * | 2018-04-20 | 2018-09-28 | 西安电子科技大学 | 基于分级注视图和条件随机场的眼动注视图预测方法 |
CN108596328A (zh) * | 2018-04-26 | 2018-09-28 | 北京市商汤科技开发有限公司 | 一种定点化方法及装置、计算机设备 |
US11442785B2 (en) | 2018-05-18 | 2022-09-13 | Shanghai Cambricon Information Technology Co., Ltd | Computation method and product thereof |
US11442786B2 (en) | 2018-05-18 | 2022-09-13 | Shanghai Cambricon Information Technology Co., Ltd | Computation method and product thereof |
CN108805265B (zh) * | 2018-05-21 | 2021-03-30 | Oppo广东移动通信有限公司 | 神经网络模型处理方法和装置、图像处理方法、移动终端 |
CN108805265A (zh) * | 2018-05-21 | 2018-11-13 | Oppo广东移动通信有限公司 | 神经网络模型处理方法和装置、图像处理方法、移动终端 |
CN110598838B (zh) * | 2018-06-13 | 2024-01-19 | 国际商业机器公司 | 统计感知权重量化 |
CN110598838A (zh) * | 2018-06-13 | 2019-12-20 | 国际商业机器公司 | 统计感知权重量化 |
CN108985453A (zh) * | 2018-06-27 | 2018-12-11 | 中国科学技术大学苏州研究院 | 基于非对称三元权重量化的深度神经网络模型压缩方法 |
US11789847B2 (en) | 2018-06-27 | 2023-10-17 | Shanghai Cambricon Information Technology Co., Ltd | On-chip code breakpoint debugging method, on-chip processor, and chip breakpoint debugging system |
CN109002881A (zh) * | 2018-06-28 | 2018-12-14 | 郑州云海信息技术有限公司 | 基于fpga的深度神经网络的定点化计算方法及装置 |
US11966583B2 (en) | 2018-08-28 | 2024-04-23 | Cambricon Technologies Corporation Limited | Data pre-processing method and device, and related computer device and storage medium |
CN110874626B (zh) * | 2018-09-03 | 2023-07-18 | 华为技术有限公司 | 一种量化方法及装置 |
CN110874626A (zh) * | 2018-09-03 | 2020-03-10 | 华为技术有限公司 | 一种量化方法及装置 |
CN110874627A (zh) * | 2018-09-04 | 2020-03-10 | 华为技术有限公司 | 数据处理方法、数据处理装置及计算机可读介质 |
CN110895715A (zh) * | 2018-09-12 | 2020-03-20 | 辉达公司 | 存储高效的神经网络 |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
CN109242092A (zh) * | 2018-09-29 | 2019-01-18 | 深圳市商汤科技有限公司 | 网络获取及图像处理方法和装置、电子设备、存储介质 |
CN109242092B (zh) * | 2018-09-29 | 2021-02-12 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质 |
CN109376854A (zh) * | 2018-11-02 | 2019-02-22 | 矽魅信息科技(上海)有限公司 | 用于深度神经网络的多底数对数量化方法及装置 |
CN109376854B (zh) * | 2018-11-02 | 2022-08-16 | 矽魅信息科技(上海)有限公司 | 用于深度神经网络的多底数对数量化装置 |
CN109558819A (zh) * | 2018-11-20 | 2019-04-02 | 北京市遥感信息研究所 | 一种用于遥感图像目标检测的深度网络轻量化方法 |
CN111353517A (zh) * | 2018-12-24 | 2020-06-30 | 杭州海康威视数字技术股份有限公司 | 一种车牌识别方法、装置及电子设备 |
CN111353517B (zh) * | 2018-12-24 | 2023-09-26 | 杭州海康威视数字技术股份有限公司 | 一种车牌识别方法、装置及电子设备 |
US11544059B2 (en) | 2018-12-28 | 2023-01-03 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Signal processing device, signal processing method and related products |
CN109740737B (zh) * | 2018-12-30 | 2021-02-19 | 联想(北京)有限公司 | 卷积神经网络量化处理方法、装置及计算机设备 |
CN109740737A (zh) * | 2018-12-30 | 2019-05-10 | 联想(北京)有限公司 | 卷积神经网络量化处理方法、装置及计算机设备 |
CN111582432A (zh) * | 2019-02-19 | 2020-08-25 | 北京嘉楠捷思信息技术有限公司 | 一种网络参数处理方法及装置 |
CN111582432B (zh) * | 2019-02-19 | 2023-09-12 | 嘉楠明芯(北京)科技有限公司 | 一种网络参数处理方法及装置 |
CN111723901A (zh) * | 2019-03-19 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 神经网络模型的训练方法及装置 |
CN111723901B (zh) * | 2019-03-19 | 2024-01-12 | 百度在线网络技术(北京)有限公司 | 神经网络模型的训练方法及装置 |
CN111753862A (zh) * | 2019-03-29 | 2020-10-09 | 北京地平线机器人技术研发有限公司 | 训练神经网络模型的方法及装置、图像识别方法 |
CN111753862B (zh) * | 2019-03-29 | 2024-07-05 | 北京地平线机器人技术研发有限公司 | 训练神经网络模型的方法及装置、图像识别方法 |
US11762690B2 (en) | 2019-04-18 | 2023-09-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11847554B2 (en) | 2019-04-18 | 2023-12-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11934940B2 (en) | 2019-04-18 | 2024-03-19 | Cambricon Technologies Corporation Limited | AI processor simulation |
WO2020238237A1 (zh) * | 2019-05-27 | 2020-12-03 | 东南大学 | 一种基于幂指数量化的神经网络压缩方法 |
WO2020237904A1 (zh) * | 2019-05-27 | 2020-12-03 | 东南大学 | 一种基于幂指数量化的神经网络压缩方法 |
CN110334744A (zh) * | 2019-06-11 | 2019-10-15 | 福建奇点时空数字科技有限公司 | 一种基于跨通道级联卷积层的神经网络模型优化算法 |
US11675676B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US12093148B2 (en) | 2019-06-12 | 2024-09-17 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11676029B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
CN112085193A (zh) * | 2019-06-12 | 2020-12-15 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
CN112085193B (zh) * | 2019-06-12 | 2024-03-29 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
CN110223292A (zh) * | 2019-06-20 | 2019-09-10 | 厦门美图之家科技有限公司 | 图像评估方法、装置及计算机可读存储介质 |
CN110322008A (zh) * | 2019-07-10 | 2019-10-11 | 杭州嘉楠耘智信息科技有限公司 | 一种基于残差卷积神经网络的量化处理方法及装置 |
WO2021036890A1 (zh) * | 2019-08-23 | 2021-03-04 | 安徽寒武纪信息科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
WO2021036908A1 (zh) * | 2019-08-23 | 2021-03-04 | 安徽寒武纪信息科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
US12001955B2 (en) | 2019-08-23 | 2024-06-04 | Anhui Cambricon Information Technology Co., Ltd. | Data processing method, device, computer equipment and storage medium |
EP4020329A4 (en) * | 2019-08-23 | 2023-07-05 | Anhui Cambricon Information Technology Co., Ltd. | DATA PROCESSING METHOD AND APPARATUS, COMPUTER EQUIPMENT, AND STORAGE MEDIA |
US12112257B2 (en) | 2019-08-27 | 2024-10-08 | Anhui Cambricon Information Technology Co., Ltd. | Data processing method, device, computer equipment and storage medium |
GB2600871A (en) * | 2019-09-03 | 2022-05-11 | Ibm | Machine learning hardware having reduced precision parameter components for efficient parameter update |
WO2021044244A1 (en) * | 2019-09-03 | 2021-03-11 | International Business Machines Corporation | Machine learning hardware having reduced precision parameter components for efficient parameter update |
CN111275184B (zh) * | 2020-01-15 | 2022-05-03 | 中山大学 | 一种实现神经网络压缩的方法、系统、装置和存储介质 |
CN111275184A (zh) * | 2020-01-15 | 2020-06-12 | 中山大学 | 一种实现神经网络压缩的方法、系统、装置和存储介质 |
WO2021164750A1 (zh) * | 2020-02-21 | 2021-08-26 | 华为技术有限公司 | 一种卷积层量化方法及其装置 |
CN111611450A (zh) * | 2020-05-12 | 2020-09-01 | 深圳力维智联技术有限公司 | 跨媒介数据融合方法、装置及存储介质 |
CN111611450B (zh) * | 2020-05-12 | 2023-06-13 | 深圳力维智联技术有限公司 | 跨媒介数据融合方法、装置及存储介质 |
CN111767984A (zh) * | 2020-06-09 | 2020-10-13 | 云知声智能科技股份有限公司 | 一种基于固定移位的8位整型全量化推理方法及装置 |
CN111523526A (zh) * | 2020-07-02 | 2020-08-11 | 杭州雄迈集成电路技术股份有限公司 | 一种目标检测方法、计算机设备及可读存储介质 |
CN111931917A (zh) * | 2020-08-20 | 2020-11-13 | 浙江大华技术股份有限公司 | 前向计算的实现方法及装置、存储介质、电子装置 |
CN112861997A (zh) * | 2021-03-15 | 2021-05-28 | 北京小米移动软件有限公司 | 信息的处理方法、装置、存储介质和电子设备 |
CN112907560A (zh) * | 2021-03-16 | 2021-06-04 | 中科海拓(无锡)科技有限公司 | 一种基于深度学习的笔记本外观瑕疵分割方法 |
CN112990457A (zh) * | 2021-03-26 | 2021-06-18 | 开放智能机器(上海)有限公司 | 离线量化调优方法、装置、设备、介质及程序产品 |
CN112990457B (zh) * | 2021-03-26 | 2024-05-03 | 开放智能机器(上海)有限公司 | 离线量化调优方法、装置、设备、介质及程序产品 |
WO2023227077A1 (en) * | 2022-05-26 | 2023-11-30 | Liu Ren Shuo | Method for training a neural network with flexible feature compression capability, and neural network system with flexible feature compression capability |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107644254A (zh) | 一种卷积神经网络权重参数量化训练方法及系统 | |
CN107239825B (zh) | 考虑负载均衡的深度神经网络压缩方法 | |
CN111242282B (zh) | 基于端边云协同的深度学习模型训练加速方法 | |
Köster et al. | Flexpoint: An adaptive numerical format for efficient training of deep neural networks | |
CN110222821B (zh) | 基于权重分布的卷积神经网络低位宽量化方法 | |
CN110555508B (zh) | 人工神经网络调整方法和装置 | |
CN108304928A (zh) | 基于改进聚类的深度神经网络的压缩方法 | |
CN107239829A (zh) | 一种优化人工神经网络的方法 | |
CN110097187A (zh) | 一种基于激活-熵权重剪枝的cnn模型压缩方法 | |
CN106127302A (zh) | 处理数据的电路、图像处理系统、处理数据的方法和装置 | |
CN110245753A (zh) | 一种基于幂指数量化的神经网络压缩方法 | |
CN115437795B (zh) | 一种异构gpu集群负载感知的显存重计算优化方法及系统 | |
CN110717585A (zh) | 神经网络模型的训练方法、数据处理方法和相关产品 | |
CN111696149A (zh) | 针对基于cnn的立体匹配算法的量化方法 | |
CN109635922A (zh) | 一种分布式深度学习参数量化通信优化方法及系统 | |
CN111831359B (zh) | 权重精度配置方法、装置、设备及存储介质 | |
Qi et al. | Learning low resource consumption cnn through pruning and quantization | |
CN114897155A (zh) | 一种用于卫星的集成模型无数据压缩方法 | |
CN113269312B (zh) | 一种联合量化与剪枝搜索的模型压缩方法及其系统 | |
CN114418089A (zh) | 模型压缩方法、系统、部署方法、设备及存储介质 | |
CN114970853A (zh) | 一种跨范围量化的卷积神经网络压缩方法 | |
CN112686384B (zh) | 一种自适应比特位宽的神经网络量化方法及其装置 | |
CN111091183B (zh) | 一种神经网络加速系统和方法 | |
CN117521763A (zh) | 一种融合组正则化剪枝和重要性剪枝的人工智能模型压缩方法 | |
CN110110852A (zh) | 一种深度学习网络移植到fpag平台的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180130 |
|
RJ01 | Rejection of invention patent application after publication |