CN113642727B - 神经网络模型的训练方法和多媒体信息的处理方法、装置 - Google Patents
神经网络模型的训练方法和多媒体信息的处理方法、装置 Download PDFInfo
- Publication number
- CN113642727B CN113642727B CN202110905430.8A CN202110905430A CN113642727B CN 113642727 B CN113642727 B CN 113642727B CN 202110905430 A CN202110905430 A CN 202110905430A CN 113642727 B CN113642727 B CN 113642727B
- Authority
- CN
- China
- Prior art keywords
- model
- models
- training
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 177
- 238000003062 neural network model Methods 0.000 title claims abstract description 120
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000003672 processing method Methods 0.000 title abstract description 18
- 238000012360 testing method Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 30
- 238000004422 calculation algorithm Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 8
- 230000010076 replication Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 102100032202 Cornulin Human genes 0.000 description 1
- 101000920981 Homo sapiens Cornulin Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000007636 ensemble learning method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了神经网络模型的训练方法和多媒体信息的处理方法,涉及人工智能领域,具体涉及深度学习、自然语言处理、计算机视觉和云计算领域,可应用于智慧城市等场景。训练方法包括:根据目标任务确定神经网络模型组和样本数据集,该神经网络模型组包括初始参数彼此不同的m个模型,样本数据集包括训练样本子集和测试样本子集;在当前训练周期中:基于训练样本子集调整神经网络模型组中每个模型的参数,获得调整后m个模型;基于测试样本子集,从调整后m个模型中选择精度较高的n个模型;在当前训练周期不满足训练停止条件的情况下,基于n个模型对神经网络模型组进行更新,并返回执行下一训练周期;否则从n个模型中选择执行目标任务的模型。
Description
技术领域
本公开涉及人工智能技术领域,具体涉及深度学习、自然语言处理、计算机视觉和云计算领域,可应用于智慧城市等场景。
背景技术
随着计算机技术和网络技术的发展,深度学习技术在众多领域得到了广泛应用。目前,深度学习模型的主流训练方法为微调方法,具体通过优化模型的超参数来实现单个模型的训练。若优化方向不对(例如超参数选择错误),则容易出现模型过拟合的问题。若采用集成学习的方法来对由多个子模型构成的深度学习模型进行训练,则容易出现因各子模型的独立性而导致的虽各子模型均收敛,但整体模型性能无法进一步提高的问题。
发明内容
基于此,本公开提供了一种提高模型性能的神经网络模型的训练方法和多媒体信息的处理方法、装置、设备和存储介质。
根据本公开的一个方面,提供了一种神经网络模型的训练方法,包括:根据目标任务确定神经网络模型组和第一样本数据集,该神经网络模型包括初始参数彼此不同的m个模型,第一样本数据集包括训练样本子集和测试样本子集;在当前训练周期中:基于训练样本子集调整神经网络模型组中每个模型的参数,获得调整后m个模型;基于测试样本子集,从调整后m个模型中选择精度较高的n个第一模型;在当前训练周期不满足训练停止条件的情况下,基于n个第一模型对神经网络模型组进行更新,并返回执行下一训练周期;以及在当前训练周期满足训练停止条件的情况下,从n个第一模型中选择执行目标任务的模型,其中,m、n均为大于1的自然数,且m大于n。
根据本公开的另一个方面,提供了一种多媒体信息的处理方法,包括:将多媒体信息输入神经网络模型,得到输出数据;以及基于输出数据确定多媒体信息的类别,其中,神经网络模型是采用前文描述的神经网络模型的训练方法训练得到的,目标任务包括多媒体信息分类任务。
根据本公开的另一方面,提供了一种神经网络模型的训练装置,包括:数据确定模块,用于根据目标任务确定神经网络模型组和第一样本数据集,该神经网络模型组包括初始参数彼此不同的m个模型,第一样本数据集包括训练样本子集和测试样本子集;模型调整模块,用于在当前训练周期中,基于训练样本子集调整当前神经网络模型组中每个模型的参数,获得调整后m个模型;第一模型选择模块,用于基于测试样本子集,从调整后m个模型中选择精度较高的n个第一模型;第一模型组更新模块,用于在当前训练周期不满足训练停止条件的情况下,基于n个第一模型对当前神经网络模型组进行更新,并返回执行下一训练周期;以及第二模型选择模块,用于在当前训练周期满足训练停止条件的情况下,从n个第一模型中选择执行目标任务的模型,其中,m、n均为大于1的自然数,且m大于n。
根据本公开的另一方面,提供了一种多媒体信息的处理装置,包括:数据获得模块,用于将多媒体信息输入神经网络模型,得到输出数据;以及类别确定模块,用于基于输出数据,确定多媒体信息的类别,其中,神经网络模型是前文描述的神经网络模型的训练装置训练得到的,目标任务包括多媒体信息分类任务。
根据本公开的另一个方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本公开提供的神经网络模型的训练方法和/或多媒体信息的处理方法。
根据本公开的另一个方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行本公开提供的神经网络模型的训练方法和/或多媒体信息的处理方法。
根据本公开的另一个方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现本公开提供的神经网络模型的训练方法和/或多媒体信息的处理方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例的神经网络模型的训练方法和多媒体信息的处理方法、装置的应用场景示意图;
图2是根据本公开实施例的神经网络模型的训练方法的流程示意图;
图3是根据本公开实施例的更新神经网络模型组的原理示意图;
图4是根据本公开实施例的神经网络模型的训练方法的原理示意图;
图5是根据本公开实施例的多媒体信息的处理方法的流程示意图;
图6是根据本公开实施例的神经网络模型的训练装置的结构框图;
图7是根据本公开实施例的多媒体信息的处理装置的结构框图;以及
图8是用来实施本公开实施例的神经网络模型的训练方法和/或多媒体信息的处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开提供了一种神经网络模型的训练方法,包括数据确定阶段和训练阶段。在数据确定阶段中,根据目标任务确定神经网络模型组和第一样本数据集,神经网络模型组包括初始参数彼此不同的m个模型,第一样本数据集包括训练样本子集和测试样本子集。在训练阶段中包括多个训练周期,在每个训练周期中,先基于训练样本子集调整神经网络模型组中每个模型的参数,获得调整后m个模型;随后基于测试样本子集,从调整后m个模型中选择精度较高的n个第一模型;在当前训练周期不满足训练停止条件的情况下,基于n个第一模型对神经网络模型组进行更新,并返回执行下一训练周期;以及在当前训练周期满足训练停止条件的情况下,从n个第一模型中选择执行目标任务的模型。其中,m、n均为大于1的自然数,且m大于n。
以下将结合图1对本公开提供的方法和装置的应用场景进行描述。
图1是根据本公开实施例的神经网络模型的训练方法和多媒体信息的处理方法、装置的应用场景示意图。
如图1所示,该实施例的应用场景100可以包括终端设备120。
其中,终端设备120可以安装有各种客户端应用。终端设备120可以为具有显示屏并且具有处理功能的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便捷计算机和台式计算机等等。该终端设备120例如可以用于对多媒体信息进行处理,以完成目标任务。该多媒体信息可以为图像111和文本112中的任一个。
在一实施例中,该终端设备120例如可以基于文本112执行文本分类、情感分析或序列标注等任务,或者该终端设备120例如可以基于图像111执行图像分类、场景文字识别或目标检测等任务。本公开对此不做限定。
在一实施例中,如图1所示,该应用场景100还可以包括服务器130,终端设备120可以通过网络与服务器130通信连接。例如,服务器130例如可以为应用服务器,用于对终端设备120运行的客户端应用提供支持。
在一实施例中,终端设备120可以将多媒体信息140发送给服务器130,由服务器130来执行目标任务。随后服务器130可以将执行目标任务后得到的处理结果150反馈给终端设备120,由终端设备展示该处理结果150。
示例性地,终端设备120或服务器130可以采用与目标任务匹配的神经网络模型来执行目标任务。例如,在文本分类任务中,该神经网络模型可以为TextCNN模型、动态卷积神经网络模型(Dynamic Convolutional Neural Network,DCNN)等。在序列标注任务中,神经网络模型可以为Li-LSTM+CRF模型等。在场景文字识别任务中,神经网络模型可以为卷积循环神经网络模型(Convolutional Recurrent Neural Network,CRNN)等。在图像分类任务中,神经网络模型可以为VGG网络或残差网络(例如Residual Neural Network,ResNet)等。在目标检测网络中,神经网络模型可以为单次查看检测器(You Only Look Once,YOLO)等。
在一实施例中,服务器130例如可以是结合了区块链的服务器。或者,服务器130还可以为虚拟服务器或云服务器等。
需要说明的是,本公开提供的神经网络模型的训练方法可以由服务器130执行,或者与服务器130通信连接的其他服务器执行。相应地,本公开提供的神经网络模型的训练装置可以设置在服务器130中,或者设置在与服务器130通信连接的其他服务器中。本公开提供的多媒体信息的处理方法可以由终端设备120执行,或由服务器130执行。相应地,本公开提供的多媒体信息的处理装置可以设置在终端设备120中,或设置在服务器130中。
应该理解,图1中的终端设备、服务器和多媒体信息的数目和类型仅仅是示意性的。根据实现需要,可以具有任意数目和类型的终端设备、服务器和多媒体信息。
以下将结合图1,通过以下图2~图4对本公开提供的神经网络模型的训练方法进行详细描述。
如图2所示,该实施例的神经网络模型的训练方法可以包括操作S210~操作S260,其中,操作S220~操作S250被循环执行,直至当前训练周期满足训练停止条件。
在操作S210,根据目标任务确定神经网络模型组和第一样本数据集。
根据本公开的实施例,神经网络模型组包括初始参数彼此不同的m个模型。例如,可以根据目标任务选定模型架构,随后随机生成m组参数,分别作为该选定的模型架构的模型参数,得到m个初始模型。例如,对于目标检测的目标任务,模型架构可以为YOLO架构等。
根据本公开的实施例,可以基于目标任务,从预定数据库中获取多个多媒体信息,并基于目标任务为该多个多媒体信息添加标签,得到多个样本数据。随后,基于预定比例,将多个样本数据划分为训练样本子集和测试样本子集。例如,可以从图像库中获取采集的10000张道路图像,并为每张图像添加指示图像中包括的车辆的标签。随后,将10000张图像中的8000张图像作为训练样本子集中的样本数据,将其他的2000张图像作为测试样本子集的中的样本数据。
根据本公开的实施例,还可以将训练样本子集中的多个样本数据分为多个训练组,每个训练组中包括的样本数据近似均等。如此,基于多个训练组分别完成多个训练周期。以下将结合操作S220~操作S250对单个训练周期的训练进行详细描述。
在操作S220,基于训练样本子集调整神经网络模型组中每个模型的参数,获得调整后m个模型。其中,m为大于1的自然数。
示例性地,可以将多个训练组中任意一个训练组的多个样本数据依次输入m个神经网络模型中的每个模型。对于每个模型,可以经由每个模型输出与多个样本数据依次对应的多个预测结果。基于该多个预测结果与多个样本数据的标签指示的多个实际结果之间的差异,来对该每个模型的参数进行调整。
示例性地,在目标检测场景中,将多个样本数据依次输入每个模型后,可以由每个模型输出目标的预测位置和目标针对预定类别的预测概率。多个样本数据中每个样本数据的标签指示该每个样本数据中目标的实际位置和实际类别。基于该预测位置、预测概率、实际位置和实际类别,可以得到预定损失函数(例如由分类损失函数和回归损失函数的加权和来表示)的取值。随后,通过反向传播算法或梯度下降算法,基于该预定损失函数的取值调整该每个模型的参数,得到调整后模型。通过对m个模型中每个模型的参数的调整,可以得到调整后m个模型。
在操作S230,基于测试样本子集,从调整后m个模型中选择精度较高的n个第一模型。其中,n为大于1的自然数,且m大于n。
根据本公开的实施例,可以将测试样本子集中的多个样本数据分为多个测试组,基于每个测试组得到模型的一个精度指标,最终将基于多个测试组得到的多个精度指标的平均值作为模型的精度。
例如,可以将每个测试组中的多个样本数据分别输入调整后m个模型中的每个调整后模型中,由该每个调整后模型输出预测结果。该预测结果与前述m个模型中的每个模型输出的预测结果类似。随后,统计经由该每个调整后模型的预测结果和多个样本数据的标签指示的实际结果,确定基于每个测试组得到的该每个调整后模型的精度指标。该精度值例如可以由准确率(Precision)、召回率(Recall Rate)或者该准确率和召回率的加权和等来表示。其中,计算准确率和召回率的加权和时,准确率和召回率各自的权重可以根据实际需求进行设定,本公开对此不做限定。
例如,对于目标检测任务,若该每个调整后模型基于输入的某个样本数据而输出的预测概率中,最大概率所针对的是预定类别中的第一类别,且该某个样本数据的标签指示的实际类别也为第一类别,则确定该每个调整后模型对该某个样本数据的预测结果是正确的。若该某个样本数据的标签指示的实际类别为预定类别中的第二类别,则确定该每个调整后模型对该某个样本数据的预测结果是错误的。该实施例可以得到该每个调整后模型对每个测试组中样本数据的预测结果的准确率。
以目标检测任务的目的是检测泥头车为例,参考如下表1,若最大概率所针对的预定类别是泥头车(即预测为True),但标签指示的实际类别为非泥头车(即实际为False),则可以确定针对该每个调整后模型,该某个样本数据为负样本,且该每个调整后模型预测错误,该某个样本对于该每个调整后模型为假正例(False Positive,FP)。类似地,若最大概率所针对的预定类别是泥头车(即预测为True),标签指示的实际类别也为泥头车(即实际为True),则可以确定针对该每个调整后模型,该某个样本数据为正样本,且该每个调整后模型预测正确,该某个样本对于该每个调整后模型为真正例(True Positive,TP)。若最大概率所针对的预定类别是非泥头车(即预测为False),但标签指示的实际类别为泥头车(即实际为True),则可以确定针对该每个调整后模型,该某个样本数据为正样本,且该每个调整后模型预测错误,该某个样本对于该每个调整后模型为假反例(False Negative,FN)。若最大概率所针对的预定类别是非泥头车(即预测为False),标签指示的实际类别也为非泥头车(即实际为False),则可以确定针对该每个调整后模型,该某个样本数据为负样本,且该每个调整后模型预测正确,该某个样本对于该每个调整后模型为真反例(TrueNegative,TN)。通过统计每个测试组中真正例、真反例、假正例、假反例的个数,可以得到前述的准确率和召回率。
表1
实际/预测 | True | False |
True | TP | FN |
False | FP | TN |
例如,准确率P=(TP数+TN数)/(TP数+TN数+FP数+FN数),召回率R=TP数/(TP数+FN数)。
通过上述方式,可以得到调整后m个模型中每个模型的精度。随后即可从该m个模型中挑选出精度较高的n个第一模型。其中,n的取值例如可以为m的1/3、1/2等,本公开对此不做限定。
在操作S240,判断当前训练周期是否满足训练停止条件。若不满足,则执行操作S250,若满足,则执行操作S260。
根据本公开的实施例,训练停止条件例如可以为训练次数达到预定次数。则该操作S240可以判断当前训练周期下,模型的训练次数是否达到预定次数,即当前训练周期是否为预定训练次数的训练周期。若是,则确定满足训练停止条件。否则,确定不满足训练停止条件。或者,训练停止条件还可以为挑选出的n个第一模型的最低精度高于预定精度。或者,训练停止条件还可以为挑选出的n个第一模型不再发生变化。例如,若连续预定数量个训练周期所选择的n个第一模型的初始模型均相同,则可以确定满足训练停止条件。其中,预定数量例如可以为3、5等大于1的任意整数,本公开对此不做限定。
在操作S250,基于n个第一模型对神经网络模型组进行更新,并返回执行下一训练周期。
根据本公开的实施例,若未满足训练停止条件,则可以采用与操作S210类似的方法,再随机生成(m-n)组参数,得到(m-n)个初始模型。将该得到的(m-n)个初始模型和选择得到的n个第一模型构成新的神经网络模型。其中,在随机生成(m-n)组参数时,可以根据该n个第一模型的参数的数值来设定随机生成参数时的约束条件。例如,可以将n个第一模型中,每个参数的最大值和最小值设定为约束条件的上限和下限,使得随机生成的(m-n)组参数中,对应参数的数值介于该最大值和最小值之间。
根据本公开的实施例,还可以采用进化算法(Evolutionary Algorithm,EA)来对精度较高的n个第一模型进行处理,得到该n个第一模型的下一代网络模型。随后基于该下一代网络模型,更新调整后m个模型中除n个第一模型外的其他模型,从而完成对神经网络模型的更新。其中,进化算法例如可以包括粒子群算法、遗传算法和烟花算法中的至少之一。其中,进化算法是借用生物进化的规律,通过繁殖、竞争、再繁殖、再竞争,实现优胜劣汰,一步步逼近复杂工程技术问题的最优解的算法。在采用进化算法对n个第一模型进行处理时,可以将该n个第一模型作为父代模型,将得到的下一代网络模型作为该父代模型的子代模型。
其中,得到的下一代网络模型的个数可以为(m-n)个,直接由该下一代网络模型替换其他模型。或者,得到的下一代网络模型的个数可以大于(m-n)个,随后基于前述得到每个调整后模型的精度的方法,得到每个下一代网络模型的精度。最终从下一代网络模型中挑选出精度较高的(m-n)个模型来替换其他模型。
在操作S260,从n个第一模型中选择执行目标任务的模型。
根据本公开的实施例,若满足训练停止条件,例如可以从该n个第一模型中精度最高的模型作为执行目标任务的模型。或者,可以将该n个第一模型中的全部或部分的多个模型均作为执行目标任务的模型。在执行目标任务时,对该执行目标任务的多个模型的处理结果进行统计,基于统计结果确定最终的处理结果。
本公开实施例通过对神经网络模型组中的多个模型同时进行训练,基于精度从多个模型中挑选出精度较高的模型来调整神经网络模型组,并进行下一周期的模型训练,可以实现进化计算与深度学习的融合。基于此,可以将“优胜劣汰,适者生存”的思想应用到深度学习模型的训练中,使得神经网络模型在收敛到局部最优解的情况下,仍然可以通过进化计算进一步提高模型精度。
再者,若采用进化算法来得到下一代网络模型,可以充分考虑模型在参数层面的继承性,并因此提高模型的训练效率。这是由于通常最优模型可以通过对其他模型进行变异得到。通过进化算法,可以得到精度较高的n个第一模型的变异模型。
以下将结合图3对采用进化算法来更新神经网络模型组的原理进行详细描述。
图3是根据本公开实施例的更新神经网络模型组的原理示意图。
如图3所示,该实施例300在采用进化算法对n个第一模型进行处理时,可以先对n个第一模型中的任一模型311进行复制,得到复制得到的第一模型321。随后对该复制得到的第一模型321中的参数进行调整。调整的策略可以根据实际需求进行设定,本公开对此不做限定。
例如,可以基于预定值来调整复制得到的第一模型321中至少一个目标参数330的数值。或者可以将复制得到的第一模型321中至少一个目标参数331的数值调整为随机值。从而得到调整后目标参数341。采用该调整后目标参数341替换复制得到的第一模型321中的至少一个目标参数331,即可得到一个下一代网络模型351。其中,预定值例如可以为0或任意位于参数数值范围的值,参数数值范围可以根据实际需求进行设定,本公开对此不做限定。
例如,可以采用交叉变异策略来基于n个第一模型得到下一代网络模型。如图3所示,可以从n个第一模型选择除任一模型311外的一个其他模型312,随后从该其他模型312的目标参数332中随机选择至少一个目标参数342,基于该至少一个目标参数342的数值调整复制得到的第一模型321中相对应的至少一个目标参数的数值,即使用该至少一个目标参数342替代模型321中相对应的参数的数值,得到一个下一代网络模型352。
在一实施例中,神经网络模型组中的每个模型可以包括特征提取子模型和任务执行子模型。其中,特征提取子模型用于提取样本数据的特征。例如,若样本数据为文本数据,则该特征提取子模型可以为Bert模型等,提取的特征为文本特征。若样本数据为图像,则该特征提取子模型可以为VGG模型,提取的特征为图像特征。任务执行子模型可以为全连接层和归一化函数(例如softmax函数)构成的模型。可以理解的是,上述特征提取子模型和任务执行子模型的结构仅作为示例以利于理解本公开,本公开对此不做限定。
此种情况下,可以仅选择任务执行子模型的参数作为目标参数。这是由于通常任务执行子模型对预测结果的影响较大,且该任务执行子模型的参数容易陷入局部最优解。通过该目标参数的选择,可以提高神经网络模型的训练效率。
根据本公开的实施例,可以先基于离线数据对神经网络模型进行训练。在训练得到执行目标任务的模型后,可以使用该模型执行线上任务。在执行线上任务的过程中,还可以使用线上任务所产生的数据对执行线上任务的模型进行增量训练,以提高模型的稳定性,并进一步提高模型的精度。以下将结合图4对此种方式下神经网络模型的训练方法的原理进行详细描述。
图4是根据本公开实施例的神经网络模型的训练方法的原理示意图。
如图4所示,该实施例400在根据目标任务确定神经网络模型组和第一样本数据集时,可以根据目标任务,从离线数据库410中来获取第一样本数据集420。采用获得的第一样本数据集420来对神经网络模型组430中的每个模型进行训练,得到训练后的m个模型440。随后可以采用前文描述的类似方法得到执行目标任务的模型,作为线上模型441。随后,可以采用该线上模型441对线上产生的多媒体信息450进行处理,得到预测结果460。
该实施例还可以基于目标任务的线上任务所产生的第一数量的数据,来生成第二样本数据集。即收集线上产生的多媒体信息450,得到第一数量的多媒体信息,随后将用户输入的指示该多媒体信息的实际处理结果的标签470,添加至该多媒体信息,得到由第一数量的添加了标签的多媒体信息组成的第二样本数据集480。随后,可以基于该第二样本数据集480,采用前文描述的每个训练周期的训练方法对前文得到的训练后的m个模型440进行增量训练。需要说明的是,该增量训练中,无需判断当前训练周期是否满足停止条件,且在针对当前神经网络模型组中精度较高的n个第二模型来选择执行目标任务的模型的同时,需要基于该精度较高的n个第二模型来对当前神经网络模型组进行更新。该更新方法与前文描述基于n个第一模型更新神经网络模型组的方法类似。
示例性地,可以先复制n个第二模型中的任一模型,得到第三模型。然后调整该第三模型中目标参数的数值。
例如,前文描述的基于n个第一模型更新神经网络模型组的方法中,可以将复制得到的第一模型中第一预定比例的目标参数的数值调整为前文描述的预定值。或者,可以将复制得到的第一模型中所有目标参数的数值均调整为预定值。而在基于n个第二模型来对当前神经网络模型组进行更新时,可以将第三模型中第二预定比例的目标参数的数值调整为预定值,该第二预定比例小于第一预定比例。通过该第二预定比例的设置,可以避免由于模型变异导致的学习到较多信息的参数被丢弃的情况。可以理解的是,目标参数可以为学习率、正则化参数等,本公开对此不做限定。
基于本公开提供的神经网络模型的训练方法,本公开还提供了一种多媒体信息的处理方法。以下将结合图5对该方法进行详细描述。
图5是根据本公开实施例的多媒体信息的处理方法的流程示意图。
如图5所示,该实施例的方法500可以包括操作S510~操作S520。
在操作S510,将多媒体信息输入神经网络模型,得到输出数据。
根据本公开的实施例,该输出数据可以包括多媒体信息属于预定类别中每个类别的概率。神经网络模型是采用前文描述的神经网络模型的训练方法训练得到的。该输出数据与前文描述的预测结果类似,在此不再赘述。
其中,多媒体信息可以为前文描述的文本或图像,在此不再赘述。在训练神经网络模型时,目标任务为该多媒体信息的分类任务。
在操作S520,基于输出数据,确定多媒体信息的类别。
根据本公开的实施例,可以将输出数据中最大概率所对应的类别作为多媒体信息的类别。
基于本公开提供的神经网络模型的训练方法,本公开还提供了一种神经网络模型的训练装置。以下将结合图6对该装置进行详细描述。
图6是根据本公开实施例的神经网络模型的训练装置的结构框图。
如图6所示,该实施例的神经网络模型的训练装置600可以包括数据确定模块610、模型调整模块620、第一模型选择模块630、第一模型组更新模块640和第二模型选择模块650。
数据确定模块610用于根据目标任务确定神经网络模型组和第一样本数据集。该神经网络模型组包括初始参数彼此不同的m个模型,第一样本数据集包括训练样本子集和测试样本子集。在一实施例中,该数据确定模块610可以用于执行前文描述的操作S210,在此不再赘述。
模型调整模块620用于在当前训练周期中,基于训练样本子集调整当前神经网络模型组中每个模型的参数,获得调整后m个模型。其中,m为大于1的自然数。在一实施例中,该模型调整模块620可以用于执行前文描述的操作S220,在此不再赘述。
第一模型选择模块630用于基于测试样本子集,从调整后m个模型中选择精度较高的n个第一模型。其中,n为大于1的自然数,且m大于n。在一实施例中,该第一模型选择模块630可以用于执行前文描述的操作S230,在此不再赘述。
第一模型组更新模块640用于在当前训练周期不满足训练停止条件的情况下,基于n个第一模型对当前神经网络模型组进行更新,并返回执行下一训练周期。在一实施例中,该第一模型组更新模块640可以用于执行前文描述的操作S250,在此不再赘述。
第二模型选择模块650用于在当前训练周期满足训练停止条件的情况下,从n个第一模型中选择执行目标任务的模型。在一实施例中,该第二模型选择模块650可以用于执行前文描述的操作S260,在此不再赘述。
根据本公开的实施例,第一模型组更新模块包括模型处理子模块和模型更新子模块。模型处理子模块用于采用进化算法对n个第一模型进行处理,得到n个第一模型的下一代网络模型。模型更新子模块用于基于下一代网络模型,更新调整后m个模型中除n个第一模型外的其他模型。
根据本公开的实施例,模型处理子模块包括模型复制单元和数值调整单元。模型复制单元用于对n个第一模型中的任一模型进行复制。数值调整单元用于采用以下方式中的至少之一调整复制得到的第一模型中目标参数的数值:基于预定值,调整复制得到的第一模型中至少一个目标参数的数值;将复制得到的第一模型中至少一个目标参数的数值调整为随机值;基于n个第一模型中除任一模型外的其他模型的至少一个目标参数的数值,调整复制得到的第一模型中至少一个目标参数的数值。
根据本公开的实施例,神经网络模型组中的每个模型包括特征提取子模型和任务执行子模型,目标参数为任务执行子模型包括的参数。
根据本公开的实施例,上述数据确定模块610用于根据目标任务,从离线数据库中获取第一样本数据集。上述基于预定值,调整复制得到的第一模型中至少一个目标参数的数值包括以下任意一个:将复制得到的第一模型中第一预定比例的目标参数的数值调整为预定值;以及将复制得到的第一模型中所有目标参数的数值均调整为预定值。
根据本公开的实施例,上述装置600还可以包括数据集生成模块、增量训练模块和第二模型组更新模块。数据集生成模块用于在第二模型选择模块650从n个第一模型中选择执行目标任务的模型之后:基于目标任务的线上任务所产生的第一预定数量的数据,生成第二样本数据集。增量训练模块用于基于第二样本数据集对执行目标任务的模型进行增量训练。第二模型组更新模块用于基于当前神经网络模型组中精度较高的n个第二模型,更新当前神经网络模型组。
根据本公开的实施例,第二模型组更新模块包括复制子模块和调整子模块。复制子模块用于复制n个第二模型中的任一模型,得到第三模型。调整子模块用于将第三模型中第二预定比例的目标参数的数值调整为预定值。其中,第二预定比例小于第一预定比例。
根据本公开的实施例,上述装置还包括训练停止确定模块,用于通过以下方式中的任意一种确定当前训练周期满足训练停止条件:在当前训练周期为预定训练次数的训练周期的情况下,确定当前训练周期满足训练停止条件;在连续第二预定数量个训练周期选择的n个第一模型的初始模型均相同的情况下,确定当前训练周期满足所述训练停止条件。
基于本公开提供的多媒体信息的处理方法,本公开还提供了一种多媒体信息的处理装置。以下将结合图7对该装置进行详细描述。
如图7所示,该实施例的装置700可以包括数据获得模块710和类别确定模块720。
数据获得模块710用于将多媒体信息输入神经网络模型,得到输出数据。其中,神经网络模型是采用前文描述的神经网络模型的训练装置训练得到的,目标任务包括多媒体信息分类任务。在一实施例中,数据获得模块710用于执行前文描述的操作S510,在此不再赘述。
类别确定模块720用于基于输出数据,确定多媒体信息的类别。在一实施例中,类别确定模块720用于执行前文描述的操作S520,在此不再赘述。
需要说明的是,本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本公开实施例的神经网络模型的训练方法和/或多媒体信息的处理方法的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如神经网络模型的训练方法和/或多媒体信息的处理方法。例如,在一些实施例中,神经网络模型的训练方法和/或多媒体信息的处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的神经网络模型的训练方法和/或多媒体信息的处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行神经网络模型的训练方法和/或多媒体信息的处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。其中,服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(″Virtual Private Server″,或简称″VPS″)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种神经网络模型的训练方法,包括:
根据目标任务确定神经网络模型组和第一样本数据集,所述神经网络模型组包括初始参数彼此不同的m个模型,第一样本数据集包括训练样本子集和测试样本子集,所述第一样本数据集包括多个样本数据,所述样本数据包括多媒体信息以及所述多媒体信息的标签,所述标签用于指示所述多媒体信息中目标的实际类别;
在当前训练周期中:
基于所述训练样本子集调整当前神经网络模型组中每个模型的参数,获得调整后m个模型;
基于所述测试样本子集,从所述调整后m个模型中选择精度较高的n个第一模型;
在当前所述训练周期不满足训练停止条件的情况下,基于所述n个第一模型对所述当前神经网络模型组进行更新,并返回执行下一所述训练周期;以及
在当前所述训练周期满足训练停止条件的情况下,从所述n个第一模型中选择执行所述目标任务的模型,
其中,m、n均为大于1的自然数,且m大于n。
2.根据权利要求1所述的方法,其中,所述在当前所述训练周期不满足训练停止条件的情况下,基于所述n个第一模型对所述当前神经网络模型组进行更新包括:
采用进化算法对所述n个第一模型进行处理,得到所述n个第一模型的下一代网络模型;以及
基于所述下一代网络模型,更新所述调整后m个模型中除所述n个第一模型外的其他模型。
3.根据权利要求2所述的方法,其中,所述采用进化算法对所述n个第一模型进行处理,得到所述n个第一模型的下一代网络模型包括:对所述n个第一模型中的任一模型进行复制,并采用以下方式中的至少之一调整复制得到的第一模型中目标参数的数值:
基于预定值,调整所述复制得到的第一模型中至少一个目标参数的数值;
将所述复制得到的第一模型中至少一个目标参数的数值调整为随机值;
基于所述n个第一模型中除所述任一模型外的其他模型的至少一个目标参数的数值,调整所述复制得到的第一模型中所述至少一个目标参数的数值。
4.根据权利要求3所述的方法,其中,神经网络模型组中的每个模型包括特征提取子模型和任务执行子模型;所述目标参数为所述任务执行子模型包括的参数。
5.根据权利要求3或4所述的方法,其中:
根据目标任务确定第一样本数据集包括:根据目标任务,从离线数据库中获取所述第一样本数据集;
所述基于预定值,调整所述复制得到的第一模型中至少一个目标参数的数值包括以下任意一个:
将所述复制得到的第一模型中第一预定比例的目标参数的数值调整为所述预定值;以及
将所述复制得到的第一模型中所有目标参数的数值均调整为所述预定值。
6.根据权利要求5所述的方法,在从所述n个第一模型中选择执行所述目标任务的模型之后还包括:
基于所述目标任务的线上任务所产生的第一预定数量的数据,生成第二样本数据集;
基于所述第二样本数据集对执行所述目标任务的模型进行增量训练;以及
基于当前神经网络模型组中精度较高的n个第二模型,更新所述当前神经网络模型组。
7.根据权利要求6所述的方法,其中,所述基于当前神经网络模型组中精度较高的n个第二模型,更新所述当前神经网络模型组包括:
复制所述n个第二模型中的任一模型,得到第三模型;以及
将所述第三模型中第二预定比例的目标参数的数值调整为所述预定值,
其中,所述第二预定比例小于所述第一预定比例。
8.根据权利要求1所述的方法,还包括通过以下方式中的任意一种确定所述当前训练周期满足所述训练停止条件:
在所述当前训练周期为预定训练次数的训练周期的情况下,确定所述当前训练周期满足所述训练停止条件;
在连续第二预定数量个训练周期选择的n个第一模型的初始模型均相同的情况下,确定所述当前训练周期满足所述训练停止条件。
9.一种多媒体信息的处理方法,包括:
将多媒体信息输入神经网络模型,得到输出数据;以及
基于所述输出数据,确定所述多媒体信息的类别,
其中,所述神经网络模型是权利要求1~8中任一项所述的方法训练得到的,所述目标任务包括多媒体信息分类任务。
10.一种神经网络模型的训练装置,包括:
数据确定模块,用于根据目标任务确定神经网络模型组和第一样本数据集,所述神经网络模型组包括初始参数彼此不同的m个模型,第一样本数据集包括训练样本子集和测试样本子集,所述第一样本数据集包括多个样本数据,所述样本数据包括多媒体信息以及所述多媒体信息的标签,所述标签用于指示所述多媒体信息中目标的实际类别;
模型调整模块,用于在当前训练周期中,基于所述训练样本子集调整当前神经网络模型组中每个模型的参数,获得调整后m个模型;
第一模型选择模块,用于基于所述测试样本子集,从所述调整后m个模型中选择精度较高的n个第一模型;
第一模型组更新模块,用于在当前所述训练周期不满足训练停止条件的情况下,基于所述n个第一模型对所述当前神经网络模型组进行更新,并返回执行下一所述训练周期;以及
第二模型选择模块,用于在当前所述训练周期满足训练停止条件的情况下,从所述n个第一模型中选择执行所述目标任务的模型,
其中,m、n均为大于1的自然数,且m大于n。
11.根据权利要求10所述的装置,其中,所述第一模型组更新模块包括:
模型处理子模块,用于采用进化算法对所述n个第一模型进行处理,得到所述n个第一模型的下一代网络模型;以及
模型更新子模块,用于基于所述下一代网络模型,更新所述调整后m个模型中除所述n个第一模型外的其他模型。
12.根据权利要求11所述的装置,其中,所述模型处理子模块包括:
模型复制单元,用于对所述n个第一模型中的任一模型进行复制;以及
数值调整单元,用于采用以下方式中的至少之一调整复制得到的第一模型中目标参数的数值:
基于预定值,调整所述复制得到的第一模型中至少一个目标参数的数值;
将所述复制得到的第一模型中至少一个目标参数的数值调整为随机值;
基于所述n个第一模型中除所述任一模型外的其他模型的至少一个目标参数的数值,调整所述复制得到的第一模型中所述至少一个目标参数的数值。
13.根据权利要求12所述的装置,其中,神经网络模型组中的每个模型包括特征提取子模型和任务执行子模型;所述目标参数为所述任务执行子模型包括的参数。
14.根据权利要求12或13所述的装置,其中:
所述数据确定模块用于根据目标任务,从离线数据库中获取所述第一样本数据集;
基于预定值,调整所述复制得到的第一模型中至少一个目标参数的数值包括以下任意一个:
将所述复制得到的第一模型中第一预定比例的目标参数的数值调整为所述预定值;以及
将所述复制得到的第一模型中所有目标参数的数值均调整为所述预定值。
15.根据权利要求14所述的装置,还包括:
数据集生成模块,用于在所述第二模型选择模块从所述n个第一模型中选择执行所述目标任务的模型之后:基于所述目标任务的线上任务所产生的第一预定数量的数据,生成第二样本数据集;
增量训练模块,用于基于所述第二样本数据集对执行所述目标任务的模型进行增量训练;以及
第二模型组更新模块,用于基于当前神经网络模型组中精度较高的n个第二模型,更新所述当前神经网络模型组。
16.根据权利要求15所述的装置,其中,所述第二模型组更新模块包括:
复制子模块,用于复制所述n个第二模型中的任一模型,得到第三模型:以及
调整子模块,用于将所述第三模型中第二预定比例的目标参数的数值调整为所述预定值,
其中,所述第二预定比例小于所述第一预定比例。
17.根据权利要求10所述的装置,包括训练停止确定模块,用于通过以下方式中的任意一种确定当前所述训练周期满足所述训练停止条件:
在当前所述训练周期为预定训练次数的训练周期的情况下,确定当前所述训练周期满足所述训练停止条件;
在连续第二预定数量个训练周期选择的n个第一模型的初始模型均相同的情况下,确定当前所述训练周期满足所述训练停止条件。
18.一种多媒体信息的处理装置,包括:
数据获得模块,用于将多媒体信息输入神经网络模型,得到输出数据;以及
类别确定模块,用于基于所述输出数据,确定所述多媒体信息的类别,
其中,所述神经网络模型是权利要求10~17中任一项所述的装置训练得到的,所述目标任务包括多媒体信息分类任务。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1~9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1~9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1~9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110905430.8A CN113642727B (zh) | 2021-08-06 | 2021-08-06 | 神经网络模型的训练方法和多媒体信息的处理方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110905430.8A CN113642727B (zh) | 2021-08-06 | 2021-08-06 | 神经网络模型的训练方法和多媒体信息的处理方法、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113642727A CN113642727A (zh) | 2021-11-12 |
CN113642727B true CN113642727B (zh) | 2024-05-28 |
Family
ID=78420061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110905430.8A Active CN113642727B (zh) | 2021-08-06 | 2021-08-06 | 神经网络模型的训练方法和多媒体信息的处理方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113642727B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114444718B (zh) * | 2022-01-26 | 2023-03-24 | 北京百度网讯科技有限公司 | 机器学习模型的训练方法、信号控制方法和装置 |
CN116186534B (zh) * | 2022-12-23 | 2024-02-23 | 北京百度网讯科技有限公司 | 预训练模型的更新方法、装置及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805258A (zh) * | 2018-05-23 | 2018-11-13 | 北京图森未来科技有限公司 | 一种神经网络训练方法及其装置、计算机服务器 |
CN109740657A (zh) * | 2018-12-27 | 2019-05-10 | 郑州云海信息技术有限公司 | 一种用于图像数据分类的神经网络模型的训练方法与设备 |
WO2019242222A1 (zh) * | 2018-06-21 | 2019-12-26 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN111046959A (zh) * | 2019-12-12 | 2020-04-21 | 上海眼控科技股份有限公司 | 模型训练方法、装置、设备和存储介质 |
CN112446476A (zh) * | 2019-09-04 | 2021-03-05 | 华为技术有限公司 | 神经网络模型压缩的方法、装置、存储介质和芯片 |
CN112784985A (zh) * | 2021-01-29 | 2021-05-11 | 北京百度网讯科技有限公司 | 神经网络模型的训练方法及装置、图像识别方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190354850A1 (en) * | 2018-05-17 | 2019-11-21 | International Business Machines Corporation | Identifying transfer models for machine learning tasks |
CN108630190B (zh) * | 2018-05-18 | 2019-12-10 | 百度在线网络技术(北京)有限公司 | 用于生成语音合成模型的方法和装置 |
-
2021
- 2021-08-06 CN CN202110905430.8A patent/CN113642727B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805258A (zh) * | 2018-05-23 | 2018-11-13 | 北京图森未来科技有限公司 | 一种神经网络训练方法及其装置、计算机服务器 |
WO2019242222A1 (zh) * | 2018-06-21 | 2019-12-26 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109740657A (zh) * | 2018-12-27 | 2019-05-10 | 郑州云海信息技术有限公司 | 一种用于图像数据分类的神经网络模型的训练方法与设备 |
CN112446476A (zh) * | 2019-09-04 | 2021-03-05 | 华为技术有限公司 | 神经网络模型压缩的方法、装置、存储介质和芯片 |
CN111046959A (zh) * | 2019-12-12 | 2020-04-21 | 上海眼控科技股份有限公司 | 模型训练方法、装置、设备和存储介质 |
CN112784985A (zh) * | 2021-01-29 | 2021-05-11 | 北京百度网讯科技有限公司 | 神经网络模型的训练方法及装置、图像识别方法及装置 |
Non-Patent Citations (4)
Title |
---|
基于卷积神经网络的SAR图像目标检测算法;杜兰;刘彬;王燕;刘宏伟;代慧;;电子与信息学报;38(12);全文 * |
基于改进神经网络的交通标志识别;党宏社;付晶;;西安文理学院学报(自然科学版);20200715(03);全文 * |
少量样本下基于孪生CNN的SAR目标识别;王博威;潘宗序;胡玉新;马闻;;雷达科学与技术;20191215(06);全文 * |
水处理DO影响因素的神经网络建模;吴超;刘向;;计算机产品与流通;20180615(06);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113642727A (zh) | 2021-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113657465B (zh) | 预训练模型的生成方法、装置、电子设备和存储介质 | |
CN113822494A (zh) | 风险预测方法、装置、设备及存储介质 | |
JP7304384B2 (ja) | モデルを生成するための方法、装置、電子機器、記憶媒体、及びコンピュータプログラム製品 | |
CN111639516B (zh) | 基于机器学习的分析平台 | |
CN110852881B (zh) | 风险账户识别方法、装置、电子设备及介质 | |
CN113642727B (zh) | 神经网络模型的训练方法和多媒体信息的处理方法、装置 | |
CN112560985A (zh) | 神经网络的搜索方法、装置及电子设备 | |
CN113961765B (zh) | 基于神经网络模型的搜索方法、装置、设备和介质 | |
CN114037059A (zh) | 预训练模型、模型的生成方法、数据处理方法及装置 | |
CN114972877B (zh) | 一种图像分类模型训练方法、装置及电子设备 | |
CN113761379B (zh) | 商品推荐方法及装置、电子设备和介质 | |
CN115294397A (zh) | 一种分类任务的后处理方法、装置、设备及存储介质 | |
CN113392920B (zh) | 生成作弊预测模型的方法、装置、设备、介质及程序产品 | |
CN113590774A (zh) | 事件查询方法、装置以及存储介质 | |
CN117474669A (zh) | 一种贷款逾期预测方法、装置、设备及存储介质 | |
CN116703109A (zh) | 一种配电网项目选取方法、装置、设备及存储介质 | |
CN114722941A (zh) | 信贷违约识别方法、装置、设备和介质 | |
CN114818892A (zh) | 一种信用等级确定方法、装置、设备及存储介质 | |
CN113807391A (zh) | 任务模型的训练方法、装置、电子设备及存储介质 | |
CN114241243B (zh) | 图像分类模型的训练方法、装置、电子设备和存储介质 | |
CN114021650A (zh) | 数据处理方法、装置、电子设备和介质 | |
CN115757961A (zh) | 评价推荐算法模型的方法、装置、设备以及存储介质 | |
CN117235646A (zh) | 异常交易识别方法及装置 | |
CN115600129A (zh) | 信息识别方法、装置、电子设备及存储介质 | |
CN117851598A (zh) | 一种大语言模型辅助分类方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |