[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN110991613B - 一种训练神经网络的方法及系统 - Google Patents

一种训练神经网络的方法及系统 Download PDF

Info

Publication number
CN110991613B
CN110991613B CN201911202733.2A CN201911202733A CN110991613B CN 110991613 B CN110991613 B CN 110991613B CN 201911202733 A CN201911202733 A CN 201911202733A CN 110991613 B CN110991613 B CN 110991613B
Authority
CN
China
Prior art keywords
neural network
feedback signal
probability distribution
layer neural
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911202733.2A
Other languages
English (en)
Other versions
CN110991613A (zh
Inventor
蒋亮
温祖杰
梁忠平
张家兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN201911202733.2A priority Critical patent/CN110991613B/zh
Publication of CN110991613A publication Critical patent/CN110991613A/zh
Application granted granted Critical
Publication of CN110991613B publication Critical patent/CN110991613B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本说明书实施例公开了一种训练神经网络的方法及系统。所述方法包括:将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数;根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号;根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号;根据所述第一反馈信号调节1~N层神经网络的参数,以及根据所述第二反馈信号调节1~N+K层神经网络的参数,得到训练好的N层神经网络。

Description

一种训练神经网络的方法及系统
技术领域
本说明书实施例涉及数据处理领域,特别涉及一种训练神经网络的方法及系统。
背景技术
随着人工智能领域的快速发展,神经网络得到了广泛的应用。例如,通过神经网络对数据进行实时预测。当预测数据量较大时,为了保证神经网络的运行速度,包括训练和预测速度,通常会使用层数较少的神经网络(即,浅层神经网络)处理。然而,浅层神经网络由于层数少,参数量少,其预测效果较差。
因此,如何有效提高浅层神经网络的数据预测效果成为目前亟需解决的技术问题。
发明内容
本说明书实施例的一个方面提供一种训练神经网络的方法。所述方法包括:将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数;根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号;根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号;根据所述第一反馈信号调节1~N层神经网络的参数,以及根据所述第二反馈信号调节1~N+K层神经网络的参数,得到训练好的N层神经网络。
本说明书实施例的另一个方面提供一种基于神经网络进行预测的方法。所述方法包括:采用如上所述的训练好的N层神经网络对目标数据进行预测,得到目标数据的目标预测结果。
本说明书实施例的另一个方面提供一种训练神经网络的系统。所述系统包括:概率分布输出模块,用于将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数;反馈信号确定模块,用于根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号;根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号;参数调整模块,用于根据所述第一反馈信号调节1~N层神经网络的参数,以及根据所述第二反馈信号调节1~N+K层神经网络的参数,得到训练好的N层神经网络。
本说明书实施例的另一个方面提供一种训练神经网络的装置。所述装置包括至少一个存储介质和至少一个处理器,所述至少一个存储介质用于存储计算机指令;所述至少一个处理器用于执行所述计算机指令以实现训练神经网络的方法。
本说明书实施例的另一个方面提供一种计算机可读存储介质。所述存储介质存储计算机指令,当计算机指令被计算机执行后,实现训练神经网络的方法。
附图说明
本说明书将以示例性实施例的方式进一步描述,这些示例性实施例将通过附图进行详细描述。这些实施例并非限制性的,在这些实施例中,相同的编号表示相同的结构,其中:
图1是根据本说明书的一些实施例所示的示例性训练神经网络系统的模块图;
图2是根据本说明书的一些实施例所示的训练神经网络方法的示例性流程图;
图3是根据本说明书的一些实施例所示的确定第一反馈信号的方法的示例性流程图;
图4是根据本说明书的一些实施例所示的确定第二反馈信号的方法的示例性流程图;
图5是根据本说明书的一些实施例所示的确定训练好的N层神经网络的方法的示例性流程图。
具体实施方式
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本说明书的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本说明书应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本说明书中所使用的“系统”、“装置”、“单元”和/或“模组”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
本说明书中使用了流程图用来说明根据本说明书的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
图1是根据本说明书的一些实施例所示的示例性训练神经网络系统100的模块图。
该系统可以用于互联网服务平台。在一些实施例中,该系统用于包含数据预测系统的线上服务平台。例如,银联支付平台、电商平台、通讯服务平台等。
如图1所述,该系统可以包括概率分布输出模块110、反馈信号确定模块120以及参数调整模块130。
概率分布输出模块110可以用于将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数。在一些实施例中,N为1~5的整数。例如,1、3、5等。N层神经网络即浅层神经网络,采用常规方法得到的浅层神经网络预测效果一般难以达到预期。训练数据是指用于训练神经网络的数据。在一些实施例中,训练数据可以包括图片、文本或语音等各类数据。在一些实施例中,可以根据神经网络应用场景的不同,可选取对应的训练数据。例如,若神经网络应用于图像识别,则训练数据为图像数据,此外,还可以应用到语音识别、自动驾驶、问题对匹配等任何可以应用人工智能的具体技术领域,通常情况下,这些技术领域需要识别的数据量都比较大,例如:每天需要识别的数据在1000万条以上。
在一些实施例中,N+K层神经网络可以代表深层神经网络,N层神经网络可以代表浅层神经网络。N+K层神经网络(即,深层神经网络)相较于N层神经网络(即,浅层神经网络),隐藏层更多,可以对输入的特征进行多层次的抽象,提取更加复杂的特征信息,可以更好地线性划分不同类型的数据,从而提高预测的准确性。以训练数据为图像数据,N层神经网络和N+K神经网络为分类神经网络为例,图像的类别包括猫、狗、鸟,若输入的图像为猫,N层神经网络的输出为(0.5,0.2,0.3),则N+K层神经网络的输出为(0.8,0.1,0.1),N层神经网络的输出表示该图片属于猫的概率为0.5,N+K层神经网络的输出表示该图片属于猫的概率为0.8,由此可见N+K层神经网络的预测效果更好。
N层、N+K层神经网络可以是任意类型的神经网络。例如,卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)、基于Transformer的双向编码器表征(Bidirectional Encoder Representationsfrom Transformers,BERT)等。
反馈信号确定模块120可以用于确定第一反馈信号。在一些实施例中,反馈信号确定模块120可以根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号。其中,标签可以用于表征训练数据的某种真实信息,例如,训练数据属于哪个类别等。反馈信号可以用于确定如何调节神经网络参数。关于基于反馈信号调节神经网络的参数的更多细节可以参见调整模块130的相关描述,此处不再赘述。
在一些实施例中,反馈信号确定模块120可以基于所述第一概率分布和所述标签确定第一损失函数,然后基于所述第一损失函数确定第一损失幅度,并将所述第一损失幅度确定为所述第一反馈信号。损失函数可以是用来评价正在训练的神经网络得到的预测值和训练数据的真实值之间的差距,其中,预测值是指将训练数据输入正在训练的神经网络得到的输出值,真实值可以是训练数据的标签值。在一些实施方式中,损失函数可以包括但不限于均方误差损失函数、交叉熵损失函数、指数损失函数等。损失幅度用于表示损失函数的损失程度。在一些实施例中,损失幅度可以是损失函数关于N+K层神经网络的参数的梯度。第一损失幅度可以是第一损失函数关于1~N层神经网络参数的梯度。
反馈信号确定模块120可以用于确定第二反馈信号。在一些实施例中,反馈信号确定模块120可以根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号。
在一些实施例中,反馈信号确定模块120可以基于所述第二概率分布和所述标签确定第二损失函数,然后基于所述第二损失函数确定第二损失幅度,并将所述第二损失幅度确定为所述第二反馈信号。在一些实施例中,关于损失函数和损失幅度的细节已在上述内容中进行了陈述,在此不再赘述。第二损失幅度可以是第二损失函数关于1~N+K层神经网络参数的梯度。
参数调整模块130用于调节N+K层神经网络的参数。在一些实施例中,参数调整模块130可以根据所述第一反馈信号调节1~N层神经网络的参数,以及根据所述第二反馈信号调节1~N+K层神经网络的参数,得到训练好的N层神经网络。其中,参数可以是神经网络中层与层之间的连接权重和输出层的偏置。如上所述,反馈信号可以是损失函数关于N+K层神经网络的参数的梯度。在一些实施例中,可以根据反馈信号反向调节神经网络的参数。例如,基于梯度下降算法调节神经网络的参数,其中,梯度下降算法中的梯度为反馈信号。具体的,根据第一反馈信号反向调节1~N层神经网络的参数,以及根据第二反馈信号调节1~N+K层神经网络的参数。以训练数据为图像数据、N层神经网络和N+K层神经网络为分类神经网络模型为例,图像的类别包括猫、狗、鸟,若输入某张图像的标签为(1,0,0)(代表该图像属于猫),参数调节前N层神经网络的输出为(0.4,0.5,0.1),N+K层神经网络的输出为(0.5,0.2,0.3)。通过第一反馈信号调节N层神经网络的参数后,N层神经网络的输出变化为(0.6,0.2,0.2),N+K层神经网络的输出变化为(0.7,0.12,0.18)。通过第二反馈信号调节N+K层神经网络的参数后,N+K层神经网络的输出变化为(0.9,0.05,0.05),N层神经网络的输出变化为(0.8,0.1,0.1)。由此可见,参数调节后,神经网络的输出越来越接近标签。
在一些实施例中,参数调整模块130可以在调节1~N层神经网络参数和1~N+K层神经网络参数过程中,根据调节后的1~N层神经网络的损失函数是否满足预设条件确定训练是否完成。在一些实施例中,预设条件可以是损失函数收敛或者小于预设阈值。
应当理解,图1所示的系统及其模块可以利用各种方式来实现。例如,在一些实施例中,系统及其模块可以通过硬件、软件或者软件和硬件的结合来实现。其中,硬件部分可以利用专用逻辑来实现;软件部分则可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域技术人员可以理解上述的方法和系统可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本说明书的系统及其模块不仅可以有诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用例如由各种类型的处理器所执行的软件实现,还可以由上述硬件电路和软件的结合(例如,固件)来实现。
需要注意的是,以上对于训练神经网络系统200及其模块的描述,仅为描述方便,并不能把本说明书限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该系统的原理后,可能在不背离这一原理的情况下,对各个模块进行任意组合,或者构成子系统与其他模块连接。例如,图1中披露的概率分布输出模块110、反馈信号确定模块120、以及参数调整模块130可以是一个系统中的不同模块,也可以是一个模块实现上述的两个模块的功能。又例如,训练神经网络系统100中各个模块可以共用一个存储模块,各个模块也可以分别具有各自的存储模块。诸如此类的变形,均在本说明书的保护范围之内。
图2是根据本说明书的一些实施例所示的训练神经网络方法的示例性流程图。如图2所示,该训练神经网络方法200包括:
步骤202,将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数。具体的,步骤202可以由概率分布输出模块110执行。
训练数据是指用于训练神经网络的数据。在一些实施例中,训练数据可以包括图片、文本或语音等各类数据。在一些实施例中,可以根据神经网络应用场景的不同,可选取对应的训练数据。例如,若神经网络应用于图像识别,则训练数据为图像数据。又例如,若神经网络应用于文本识别,则训练数据为文本数据。
N+K层神经网络是指层数为N+K的神经网络,其中N和K为大于0的整数,例如,1、2、3等。在一些实施例中,N为1~5的整数。例如,1、3、5等。在一些实施例中,N+K层神经网络可以是任意类型的神经网络。例如,卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)、基于Transformer的双向编码器表征(Bidirectional Encoder Representations from Transformers,BERT)等。在一些实施例中,N+K层神经网络中1~N层神经网络和N~N+K层神经网络的类型一致。例如,1~N层神经网络为卷积层时,则N~N+K层也为卷积层。又例如,若第1~N层为全连接层,则N~N+K层也为全连接层。在一些实施例中,N+K层神经网络中的第N~N+K层神经网络是在第N层神经网络上进行叠加得到的。
将训练数据输入N+K层神经网络后,N+K层神经网络的每一层均会得到一个输出值。该输出值可以用于表示每一层神经网络的预测结果。上一层神经网络的输出是下一层神经网络的输入,例如,当N为3、K为2时,5层神经网络的第一层的输出是第二层的输入,第二层的输出是第三层的输入,依次类推……。通常,经过的层数越多,预测的结果越准确。例如,第一层神经网络的输出的准确性低于第二层神经网络的输出,第二层神经网络的输出的准确性低于第三层神经网络的输出,以此类推……这是由于经过层数越多,提取的特征信息越多,从而预测的准确率也会越高,因此,第N+K层神经网络的输出比第N层神经网络的输出更准确,即,更接近标签。
在一些实施例中,输出值可以是一个概率分布,该概率分布可以为1*n的实数向量,其中,n是向量的维数,n可以是1、2、3等。例如,概率分布的形式可以为(a,b,c)、(a,b,c,d)等。对于分类神经网络,概率分布可以用于表示输入数据属于各个类别的概率。例如,类别包括猫、狗、鸟三类,N+K层神经网络每层的输出可以是形如(a,b,c)的概率分布,其中,a表示图像为猫的概率,b表示图像为狗的概率,c表示图像为鸟的概率。
在一些实施例中,输出值可以是一个0~1的数值,代表某层神经网络预测输入数据属于目标对象的概率。例如,对于用于分类的神经网络,输出值可以代表输入数据属于某一个类别的概率。若类别包括猫、狗两类,每层神经网络的输出代表数据为猫的概率。在一些实施例中,可以基于归一化函数(例如,Softmax函数)将输出的数值转化为概率分布。
第一概率分布是指N+K层神经网络中,第N层神经网络的输出。第二概率分布是指N+K层神经网络中,第N+K层神经网络的输出。例如,当N为3,K为2,则第一概率分布为第3层神经网络的输出,第二概率分布为第5层神经网络的输出。
步骤204,根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号。具体的,步骤204可以由反馈信号确定模块120执行。
标签用于表征训练数据的某种真实信息,例如,训练数据属于哪个类别等。若N+K层神经网络是分类神经网络,类别包括猫、狗、鸟三类,则每个训练数据的标签可以代表该训练数据属于猫、狗或鸟中的一种。
在一些实施方式中,标签的标注方式可以与N+K层神经网络的输出值相匹配。例如,输出值可以是一个概率分布,则标签的标注也可以为概率分布。若N+K层神经网络是分类神经网络,类别包括猫、狗、鸟三类,每层神经网络的输出形如(X,Y,Z)的概率分布,其中,X表示图像为猫的概率,Y表示图像为狗的概率,Z表示图像为鸟的概率。当输入的图像属于猫,则该图像的标签为(1,0,0);当输入的图像属于狗,则该图像的标签为(0,1,0)。
在一些实施例中,训练数据的标签可以是线下人工标注,也可以是通过自动识别、统计等方式线上标注。
反馈信号是用于确定如何调节神经网络参数的信号。在一些实施例中,可以根据第一概率分布和训练数据的标签确定第一反馈信号,并基于该信号调节N+K层神经网络中1~N层的参数。其中,第一反馈信号可以是第一损失函数关于1~N层神经网络参数的梯度(偏导数)。关于第一反馈信号的更多细节,请参见图4及其相关描述,在此不再赘述。
在一些实施例中,可以根据第一反馈信号反向调节1~N层神经网络的参数。例如,基于梯度下降算法调节1~N层神经网络的参数,其中,梯度下降算法中的梯度为第一反馈信号。
步骤206,根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号。具体的,步骤206可以由反馈信号确定模块120执行。
在一些实施例中,可以根据第二概率分布和训练数据的标签确定第二反馈信号,并基于该信号调节N+K层神经网络中1~N+K层的参数。关于第二反馈信号的更多细节,请参见图5及其相关描述,在此不再赘述。
步骤208,根据所述第一反馈信号调节1~N层神经网络的参数,以及根据所述第二反馈信号调节1~N+K层神经网络的参数,得到训练好的N层神经网络。具体的,步骤208可以由参数调整模块130执行。
在一些实施例中,可以根据第一反馈信号调节1~N层神经网络的参数,以及根据第二反馈信号调节1~N+K层神经网络的参数,直到神经网络训练完成,从而得到训练好的N层神经网络。例如,N为3,K为2,N+K层神经网络为一个5层神经网络,基于第3层神经网络的概率分布和标签得到第一反馈信号为G1(关于第一反馈信号确定的更多细节,请参见图4及其相关描述),基于第5层神经网络的概率分布和标签得到第二反馈信号为G2(关于第二反馈信号确定的更多细节,请参见图5及其相关描述),则基于G1调节第1~3层神经网络的参数,基于G2调节第1~5层神经网络的参数。关于根据第一反馈信号和第二反馈信号调节神经网络参数训练模型的更多细节可以参见图5及其相关描述,在此不再赘述。
根据上述描述可知,神经网络参数在调节过程中,1~N层神经网络的参数会被调节两次。具体地,除了根据第一反馈信号调节1~N层神经网络的参数以外,在根据第二反馈信号调节1~N+K层神经网络的参数时,1~N层神经网络的参数也会被调节,因此,第一反馈信号和第二反馈信号都会影响1~N层神经网络的参数。神经网络的参数会影响神经网络的预测结果。N层神经网络可以代表浅层神经网络,1~N+K层神经网络可以代表深层神经网络。深层神经网络的预测效果比浅层神经网络的预测效果更好。通过1~N+K层神经网络(即,深层神经网络)参数的调节信号(即,第二反馈信号)去影响1~N层神经网络(即,浅层神经网络)参数的调节,可以提升N层神经网络(即,浅层神经网络)的数据预测效果。
在一些实施例中,可以采用训练好的N层神经网络对目标数据进行预测,得到目标数据的目标预测结果。
目标数据可以是指待确定预测结果的数据。例如,对于用于分类的神经网络,目标数据是指待分类的数据,例如,待分类的图像。目标预测结果是指将目标数据输入训练好的N层神经网络中得到的预测结果。
在一些实施例中,训练好的N层神经网络可以用于规模较大的数据的预测。例如,用于数据量大于1000万条的数据的预测。
图3是根据本说明书的一些实施例所示的确定第一反馈信号的方法的示例性流程图。如图3所示,确定第一反馈信号的方法300包括:
步骤302,基于所述第一概率分布和所述标签确定第一损失函数。具体的,步骤302可以由反馈信号确定模块120执行。
损失函数可以是用来评价正在训练的神经网络得到的预测值和训练数据的真实值之间的差距,其中,预测值是指将训练数据输入正在训练的神经网络得到的输出值。真实值可以是训练数据的标签值。
损失函数可以包括但不限于均方误差损失函数、交叉熵损失函数、指数损失函数等。
第一损失函数是指根据第一概率分布和标签确定的损失函数。以交叉熵损失函数为例,单个训练数据的第一损失函数为公式(1),多个训练数据的第一损失函数是单个训练数据的损失函数的叠加:
L1=-logp1 (1)
其中,L1为第一损失函数,p1是第N层神经网络预测的训练数据属于标签的概率,该概率是第一概率分布中多个概率中的一个。
例如,某张图片的标签为(1,0,0),代表该图片真实类别为猫。将该图片输入神经网络后,第N层神经网络输出的第一概率分布为(0.3,0.4,0.3),其中,该概率分布表示该图像属于猫的概率为0.3,属于狗的概率为0.4,属于鸟的概率为0.3。因此,p1为0.3,代表第N层神经网络预测的该图片属于标签确定的类别的概率为0.3。
步骤304,基于所述第一损失函数确定第一损失幅度,将所述第一损失幅度确定为所述第一反馈信号;其中,损失幅度用于表示损失函数的损失程度。具体的,步骤304可以由反馈信号确定模块120执行。
损失幅度用于表示损失函数的损失程度。在一些实施例中,损失幅度可以为损失函数的一阶导数、二阶导数、偏导数等。在一些实施例中,损失幅度可以是损失函数关于N+K层神经网络的参数的梯度,即损失函数关于N+K层神经网络的参数的偏导数。若损失函数用L表示,N+K层神经网络中第1~i层的参数用wi表示,则损失幅度可以是
Figure BDA0002296263780000132
第一损失幅度可以是第一损失函数关于1~N层神经网络参数的梯度。即,第一损失幅度为
Figure BDA0002296263780000131
其中,i为1~N。在一些实施例中,可以将第一损失幅度确定为第一反馈信号,用于调节1~N层神经网络参数。
图4是根据本说明书的一些实施例所示的确定第二反馈信号的方法的示例性流程图。如图4所示,确定第二反馈信号的方法400包括:
步骤402,基于所述第二概率分布和所述标签确定第二损失函数。具体的,步骤402可以由反馈信号确定模块120执行。
第二损失函数是指根据第二概率分布和标签确定的损失函数。
在一些实施例中,第二损失函数和第一损失函数的类型可以相同,也可以不相同。
以交叉熵损失函数为例,单个训练数据的第二损失函数可以为公式(2),多个训练数据的第二损失函数是单个训练数据的损失函数的叠加:
L2=-logp2 (2)
其中,L2为第二损失函数,p2是第N+K层神经网络预测的训练数据属于标签的概率,该概率是第二概率分布中多个概率中的一个。
例如,若某张图片的标签为(1,0,0),代表该图片真实类别为猫,将该图片输入神经网络后,第N+K层神经网络输出的第二概率分布为(0.5,0.2,0.3),其中,该概率分布表示该图像属于猫的概率为0.5,属于狗的概率为0.2,属于鸟的概率为0.3。因此,p2为0.5,代表第N+K层神经网络预测的该图片属于标签确定的类别的概率为0.5。
步骤404,基于所述第二损失函数确定第二损失幅度,将所述第二损失幅度确定为所述第二反馈信号;其中,损失幅度用于表示损失函数的损失程度。具体的,步骤404可以由反馈信号确定模块120执行。
第二损失幅度可以是第二损失函数关于1~N+K层神经网络参数的梯度。即,第二损失幅度为
Figure BDA0002296263780000142
其中,i为1~N+K。在一些实施例中,可以将第二损失幅度确定为第二反馈信号,用于1~N+K层神经网络参数的调节。
图5是根据本说明书的一些实施例所示的确定训练好的N层神经网络的方法的示例性流程图。如图5所示,确定训练好的N层神经网络的方法500包括:
步骤502,根据所述第一反馈信号调节1~N层神经网络的所述参数,以及根据所述第二反馈信号调节1~N+K层神经网络的所述参数。具体的,步骤502可以由参数调整模块130执行。
在一些实施例中,可以根据第一反馈信号调节1~N层神经网络的参数,以及可以根据所述第二反馈信号调节1~N+K层神经网络的参数。具体的,可以通过公式(3)实现调节。
Figure BDA0002296263780000141
其中,η是代表数字参数,其含义为学习率。当L表示第一损失函数L1时,wi表示N层神经网络中第i层神经网络的参数,w′i表示调节后的1~N层神经网络中第i层神经网络的参数,i为1~N的整数。当L表示第二损失函数L2时,wi表示N+K层神经网络中第i层神经网络的参数,w′i表示调节后N+K层神经网络中的第i层神经网络的参数,i为1~N+K的整数。
以训练数据为图像数据、N+K层神经网络为分类神经网络模型为例,图像的类别包括猫、狗、鸟,若输入某张属于猫的图像后,N层神经网络的输出为(0.3,0.6,0.1),N+K层神经网络的输出为(0.5,0.2,0.3)。通过第一反馈信号调节N层神经网络的参数后,N层神经网络的输出变化为(0.4,0.3,0.3),N+K层神经网络的输出变化为(0.55,0.25,0.2)。通过第二反馈信号调节N+K层神经网络的参数后,N+K层神经网络的输出变化为(0.9,0.05,0.05),N层神经网络的输出变化为(0.8,0.1,0.1)。由此可见,经过参数调节后,第N层神经网络的预测结果越来越准确。
步骤504,判断调节后的所述1~N层神经网络的损失函数是否满足预设条件。具体的,步骤504可以由参数调整模块130执行。
在调节1~N层神经网络参数的过程中,判断1~N神经网络的损失函数是否满足预设条件。在一些实施例中,预设条件可以是损失函数收敛或者小于预设阈值。在一些实施例中,损失函数可以是交叉熵函数、均方误差损失函数等。
步骤506,将满足预设条件的N层神经网络确定为所述训练好的N层神经网络。具体的,步骤506可以由参数调整模块130执行。
响应于1~N神经网络的损失函数满足预设条件,将满足条件的神经网络的参数确定为训练好的N层神经网络的参数,从而得到训练好的N层神经网络。在一些实施例中,预设条件可以是损失函数收敛或者小于预设阈值。
本说明书实施例还提供一种装置,其至少包括处理器以及存储器。所述存储器用于存储指令。当所述指令被所述处理器执行时,导致所述装置实现前述的训练神经网络的方法。所述方法可以包括:将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数;根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号;根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号;根据所述第一反馈信号调节1~N层神经网络的参数,以及和根据所述第二反馈信号调节1~N+K层神经网络的参数所述N+K层神经网络的参数,得到训练好的N层神经网络。
本说明书实施例还提供一种计算机可读存储介质。所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机实现前述的训练神经网络的方法。所述方法可以包括:将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数;根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号;根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号;根据所述第一反馈信号调节1~N层神经网络的参数,以及和根据所述第二反馈信号调节1~N+K层神经网络的参数所述N+K层神经网络的参数,得到训练好的N层神经网络。
本说明书实施例可能带来的有益效果包括但不限于:(1)本说明书中的实施例通过用于调节N+K神经网络(即,深层神经网络)参数的第二反馈信号调节N层神经网络(即,浅层神经网络)参数,使得N层神经网络具备N+K层神经网络的预测效果,提高N层神经网络(即,浅层神经网络)的预测效果;(2)N层神经网络的层数少,参数量少,训练和运行速度快,能满足大量数据的预测需求。需要说明的是,不同实施例可能产生的有益效果不同,在不同的实施例里,可能产生的有益效果可以是以上任意一种或几种的组合,也可以是其他任何可能获得的有益效果。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本说明书的限定。虽然此处并没有明确说明,本领域技术人员可能会对本说明书进行各种修改、改进和修正。该类修改、改进和修正在本说明书中被建议,所以该类修改、改进、修正仍属于本说明书示范实施例的精神和范围。
同时,本说明书使用了特定词语来描述本说明书的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本说明书至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本说明书的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,本领域技术人员可以理解,本说明书的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或物质的组合,或对他们的任何新的和有用的改进。相应地,本说明书的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、“引擎”、“单元”、“组件”或“系统”。此外,本说明书的各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可读程序编码。
计算机存储介质可能包含一个内含有计算机程序编码的传播数据信号,例如在基带上或作为载波的一部分。该传播信号可能有多种表现形式,包括电磁形式、光形式等,或合适的组合形式。计算机存储介质可以是除计算机可读存储介质之外的任何计算机可读介质,该介质可以通过连接至一个指令执行系统、装置或设备以实现通讯、传播或传输供使用的程序。位于计算机存储介质上的程序编码可以通过任何合适的介质进行传播,包括无线电、电缆、光纤电缆、RF、或类似介质,或任何上述介质的组合。
本说明书各部分操作所需的计算机程序编码可以用任意一种或多种程序语言编写,包括面向对象编程语言如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Python等,常规程序化编程语言如C语言、Visual Basic、Fortran2003、Perl、COBOL2002、PHP、ABAP,动态编程语言如Python、Ruby和Groovy,或其他编程语言等。该程序编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或处理设备上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(LAN)或广域网(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(SaaS)。
此外,除非权利要求中明确说明,本说明书所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本说明书流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本说明书实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的处理设备或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本说明书披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本说明书实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本说明书对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本说明书一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。
针对本说明书引用的每个专利、专利申请、专利申请公开物和其他材料,如文章、书籍、说明书、出版物、文档等,特此将其全部内容并入本说明书作为参考。与本说明书内容不一致或产生冲突的申请历史文件除外,对本说明书权利要求最广范围有限制的文件(当前或之后附加于本说明书中的)也除外。需要说明的是,如果本说明书附属材料中的描述、定义、和/或术语的使用与本说明书所述内容有不一致或冲突的地方,以本说明书的描述、定义和/或术语的使用为准。
最后,应当理解的是,本说明书中所述实施例仅用以说明本说明书实施例的原则。其他的变形也可能属于本说明书的范围。因此,作为示例而非限制,本说明书实施例的替代配置可视为与本说明书的教导一致。相应地,本说明书的实施例不仅限于本说明书明确介绍和描述的实施例。

Claims (17)

1.一种训练神经网络的方法,包括:
将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数,所述训练数据为图像数据,所述N+K层神经网络为分类神经网络,所述第一概率分布和所述第二概率分布包含所述图像数据属于各个类别的概率;
根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号,所述标签为所述图像数据的真实类别;
根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号;
根据所述第一反馈信号调节1~N层神经网络的参数,以及根据所述第二反馈信号调节1~N+K层神经网络的参数,得到训练好的N层神经网络。
2.如权利要求1所述的方法,所述根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号包括:
基于所述第一概率分布和所述标签确定第一损失函数;
基于所述第一损失函数确定第一损失幅度,将所述第一损失幅度确定为所述第一反馈信号;其中,损失幅度用于表示损失函数的损失程度。
3.如权利要求1所述的方法,所述根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号包括:
基于所述第二概率分布和所述标签确定第二损失函数;
基于所述第二损失函数确定第二损失幅度,将所述第二损失幅度确定为所述第二反馈信号;其中,损失幅度用于表示损失函数的损失程度。
4.如权利要求2或3所述的方法,所述损失幅度为所述损失函数关于所述N+K层神经网络的所述参数的梯度。
5.如权利要求1所述的方法,所述根据所述第一反馈信号调节1~N层神经网络的参数,以及根据所述第二反馈信号调节1~N+K层神经网络的参数,得到训练好的N层神经网络包括:
根据所述第一反馈信号调节1~N层神经网络的所述参数,以及根据所述第二反馈信号调节1~N+K层神经网络的所述参数;
判断调节后的所述1~N层神经网络的损失函数是否满足预设条件;
将满足预设条件的N层神经网络确定为所述训练好的N层神经网络。
6.如权利要求1所述的方法,所述N的取值为1~5的整数。
7.如权利要求1所述的方法,所述N层神经网络用于数据量大于1000万条的数据的预测。
8.一种基于神经网络进行预测的方法,包括:
采用如权利要求1所述的训练好的N层神经网络对目标数据进行预测,得到目标数据的目标预测结果,所述训练好的N层神经网络为分类神经网络,所述目标数据为待分类的图像,所述目标预测结果为所述待分类的图像的类别预测结果。
9.一种训练神经网络的系统,包括:
概率分布输出模块,用于将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数,所述训练数据为图像数据,所述N+K层神经网络为分类神经网络,所述第一概率分布和所述第二概率分布包含所述图像数据属于各个类别的概率;
反馈信号确定模块,用于根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号;根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号,所述标签为所述图像数据的真实类别;
参数调整模块,用于根据所述第一反馈信号调节1~N层神经网络的参数,以及根据所述第二反馈信号调节1~N+K层神经网络的参数,得到训练好的N层神经网络。
10.如权利要求9所述的系统,所述反馈信号确定模块用于:
基于所述第一概率分布和所述标签确定第一损失函数;
基于所述第一损失函数确定第一损失幅度,将所述第一损失幅度确定为所述第一反馈信号;其中,损失幅度用于表示损失函数的损失程度。
11.如权利要求9所述的系统,所述反馈信号确定模块用于:
基于所述第二概率分布和所述标签确定第二损失函数;
基于所述第二损失函数确定第二损失幅度,将所述第二损失幅度确定为所述第二反馈信号;其中,损失幅度用于表示损失函数的损失程度。
12.如权利要求10或11所述的系统,所述损失幅度为所述损失函数关于所述N+K层神经网络的所述参数的梯度。
13.如权利要求9所述的系统,所述参数调整模块用于:
根据所述第一反馈信号调节1~N层神经网络的所述参数,以及根据所述第二反馈信号调节1~N+K层神经网络的所述参数;
判断调节后的所述1~N层神经网络的损失函数是否满足预设条件;
将满足预设条件的N层神经网络确定为所述训练好的N层神经网络。
14.如权利要求9所述的系统,所述N的取值为1~5的整数。
15.如权利要求9所述的系统,所述N层神经网络用于数据量大于1000万条的数据的预测。
16.一种训练神经网络的装置,包括至少一个存储介质和至少一个处理器,所述至少一个存储介质用于存储计算机指令;所述至少一个处理器用于执行所述计算机指令以实现如权利要求1~7任一项所述的方法。
17.一种计算机可读存储介质,所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机执行如权利要求1~7任一项所述的方法。
CN201911202733.2A 2019-11-29 2019-11-29 一种训练神经网络的方法及系统 Active CN110991613B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911202733.2A CN110991613B (zh) 2019-11-29 2019-11-29 一种训练神经网络的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911202733.2A CN110991613B (zh) 2019-11-29 2019-11-29 一种训练神经网络的方法及系统

Publications (2)

Publication Number Publication Date
CN110991613A CN110991613A (zh) 2020-04-10
CN110991613B true CN110991613B (zh) 2022-08-02

Family

ID=70088501

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911202733.2A Active CN110991613B (zh) 2019-11-29 2019-11-29 一种训练神经网络的方法及系统

Country Status (1)

Country Link
CN (1) CN110991613B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018169708A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
CN110232203A (zh) * 2019-04-22 2019-09-13 山东大学 知识蒸馏优化rnn短期停电预测方法、存储介质及设备
CN110321892A (zh) * 2019-06-04 2019-10-11 腾讯科技(深圳)有限公司 一种图片筛选方法、装置及电子设备
CN110427466A (zh) * 2019-06-12 2019-11-08 阿里巴巴集团控股有限公司 用于问答匹配的神经网络模型的训练方法和装置
CN110472730A (zh) * 2019-08-07 2019-11-19 交叉信息核心技术研究院(西安)有限公司 一种卷积神经网络的自蒸馏训练方法和可伸缩动态预测方法
CA3056098A1 (en) * 2019-06-07 2019-11-22 Tata Consultancy Services Limited Sparsity constraints and knowledge distillation based learning of sparser and compressed neural networks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018169708A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
CN110232203A (zh) * 2019-04-22 2019-09-13 山东大学 知识蒸馏优化rnn短期停电预测方法、存储介质及设备
CN110321892A (zh) * 2019-06-04 2019-10-11 腾讯科技(深圳)有限公司 一种图片筛选方法、装置及电子设备
CA3056098A1 (en) * 2019-06-07 2019-11-22 Tata Consultancy Services Limited Sparsity constraints and knowledge distillation based learning of sparser and compressed neural networks
CN110427466A (zh) * 2019-06-12 2019-11-08 阿里巴巴集团控股有限公司 用于问答匹配的神经网络模型的训练方法和装置
CN110472730A (zh) * 2019-08-07 2019-11-19 交叉信息核心技术研究院(西安)有限公司 一种卷积神经网络的自蒸馏训练方法和可伸缩动态预测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Be Your Own Teacher: Improve the Performance of Convolutional Neural Networks via Self Distillation;Linfeng Zhang等;《arXiv》;20190517;第1-10页 *
MSD: MULTI-SELF-DISTILLATION LEARNING VIA MULTI-CLASSIFIERS WITHIN DEEP NEURAL NETWORKS;Yunteng Luan等;《arXiv》;20191121;第1-7页 *
基于知识蒸馏的超分辨率卷积神经网络压缩方法;高钦泉等;《计算机应用》;20191010;第39卷(第10期);第2802-2808页 *

Also Published As

Publication number Publication date
CN110991613A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN110969006B (zh) 一种文本排序模型的训练方法和系统
CN109155002A (zh) 具有外部存储器的增强神经网络
CN114912612A (zh) 鸟类识别方法、装置、计算机设备及存储介质
Liang et al. Barzilai–Borwein-based adaptive learning rate for deep learning
CN111046394A (zh) 一种基于对抗样本增强模型抗攻击能力的方法和系统
CN111598253A (zh) 使用教师退火来训练机器学习模型
CN111027717A (zh) 一种模型训练方法和系统
CN111340143A (zh) 一种获取对抗样本生成模型的方法和系统
CN111309975A (zh) 一种增强图模型抗攻击能力的方法和系统
CN111340245B (zh) 一种模型训练方法及系统
CN111461353A (zh) 一种模型训练的方法和系统
US20220092429A1 (en) Training neural networks using learned optimizers
CN110941824B (zh) 一种基于对抗样本增强模型抗攻击能力的方法和系统
CN111046380B (zh) 一种基于对抗样本增强模型抗攻击能力的方法和系统
CN111192121A (zh) 一种基于ann的风险纳税人自动预警方法及系统
CN110991613B (zh) 一种训练神经网络的方法及系统
CN110909885B (zh) 一种平衡多个任务的方法及系统
US12093830B2 (en) Continuous parametrizations of neural network layer weights
CN111079574B (zh) 一种训练神经网络的方法及系统
Zhao et al. Towards a brain-inspired developmental neural network by adaptive synaptic pruning
CN113806754A (zh) 一种后门防御方法和系统
CN111709479A (zh) 一种图像分类方法和装置
CN111353602A (zh) 特征衍生方法、装置、设备及计算机可读存储介质
CN113283804B (zh) 一种风险预测模型的训练方法和系统
CN113254644B (zh) 模型训练方法及非投诉工单处理方法及系统及装置及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant