CN113190872B - 数据保护方法、网络结构训练方法、装置、介质及设备 - Google Patents
数据保护方法、网络结构训练方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN113190872B CN113190872B CN202110593862.XA CN202110593862A CN113190872B CN 113190872 B CN113190872 B CN 113190872B CN 202110593862 A CN202110593862 A CN 202110593862A CN 113190872 B CN113190872 B CN 113190872B
- Authority
- CN
- China
- Prior art keywords
- information
- training
- target
- network structure
- gradient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 505
- 238000000034 method Methods 0.000 title claims abstract description 110
- 238000013528 artificial neural network Methods 0.000 claims abstract description 170
- 238000012545 processing Methods 0.000 claims abstract description 110
- 230000008878 coupling Effects 0.000 claims abstract description 57
- 238000010168 coupling process Methods 0.000 claims abstract description 57
- 238000005859 coupling reaction Methods 0.000 claims abstract description 57
- 239000000523 sample Substances 0.000 claims abstract description 32
- 239000013074 reference sample Substances 0.000 claims abstract description 25
- 230000008485 antagonism Effects 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 36
- 238000012546 transfer Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 description 224
- 238000010586 diagram Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 6
- 238000011478 gradient descent method Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioethics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开涉及一种数据保护方法、网络结构训练方法、装置、介质及设备,该数据保护方法包括:获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息;通过目标特征处理网络结构对原始特征信息进行处理,得到原始特征信息对应的目标特征信息;其中,至少以最小化被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到目标特征处理网络结构,目标训练特征信息为将原始训练特征信息作为神经网络结构的输入、得到的神经网络结构输出的与原始训练特征信息对应的特征信息。通过上述方案,降低被动参与方的原始数据发生泄露的风险,实现对被动参与方的原始数据的保护,提高数据安全性。
Description
技术领域
本公开涉及计算机技术领域,具体地,涉及一种数据保护方法、网络结构训练方法、装置、介质及设备。
背景技术
随着人工智能技术的发展,机器学习取得越来越广泛的应用。近年来,为了保护数据安全和解决数据孤岛的问题,相关的方式通常采用联合训练模型来实现在不暴露原始数据的前提下完成机器学习模型的共同训练。针对有监督机器学习模型,通常将拥有样本标签数据的一方称为主动参与方(active party),将未拥有样本标签数据的一方称为被动参与方(passive party)。主动参与方与被动参与方之间互相传输的数据是需要进行保护的重要数据。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种数据保护方法,所述方法包括:获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息;通过目标特征处理网络结构对所述原始特征信息进行处理,得到所述原始特征信息对应的目标特征信息;其中,至少以最小化所述被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到所述目标特征处理网络结构,所述目标训练特征信息为将所述原始训练特征信息作为所述神经网络结构的输入、得到的所述神经网络结构输出的与所述原始训练特征信息对应的特征信息。
第二方面,本公开提供一种特征处理网络结构训练方法,所述方法包括:获取联合训练模型的被动参与方的指定批次的训练样本的原始训练特征信息,以及神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;根据所述目标梯度信息对所述神经网络结构的参数进行更新,其中,至少以最小化所述原始训练特征信息与所述目标训练特征信息之间的耦合度为目标,对所述神经网络结构进行训练;确定所述神经网络结构是否训练完成;响应于所述神经网络结构训练完成,得到目标特征处理网络结构。
第三方面,本公开提供一种数据保护装置,所述装置包括:原始特征信息获取模块,用于获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息;目标特征信息确定模块,用于通过目标特征处理网络结构对所述原始特征信息进行处理,得到所述原始特征信息对应的目标特征信息;其中,至少以最小化所述被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到所述目标特征处理网络结构,所述目标训练特征信息为将所述原始训练特征信息作为所述神经网络结构的输入、得到的所述神经网络结构输出的与所述原始训练特征信息对应的特征信息。
第四方面,本公开提供一种特征处理网络结构训练装置,所述装置包括:训练特征信息获取模块,用于获取联合训练模型的被动参与方的指定批次的训练样本的原始训练特征信息,以及神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;目标梯度信息获取模块,用于获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;参数更新模块,用于根据所述目标梯度信息对所述神经网络结构的参数进行更新,其中,至少以最小化所述原始训练特征信息与所述目标训练特征信息之间的耦合度为目标,对所述神经网络结构进行训练;判断模块,用于确定所述神经网络结构是否训练完成;网络结构获得模块,用于响应于所述神经网络结构训练完成,得到所述目标特征处理网络结构。
第五方面,本公开提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现本公开第一方面提供的所述方法的步骤。
第六方面,本公开提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现本公开第二方面提供的所述方法的步骤。
第七方面,本公开提供一种电子设备,包括:存储装置,其上存储有计算机程序;处理装置,用于执行所述存储装置中的所述计算机程序,以实现本公开第一方面提供的所述方法的步骤。
第八方面,本公开提供一种电子设备,包括:存储装置,其上存储有计算机程序;处理装置,用于执行所述存储装置中的所述计算机程序,以实现本公开第二方面提供的所述方法的步骤。
通过上述技术方案,获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息,并通过目标特征处理网络结构对原始特征信息进行处理,得到对应的目标特征信息。其中,至少以最小化被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到目标特征处理网络结构。如此,采用训练完成的目标特征处理网络对目标批次的参考样本的原始特征信息进行处理得到目标特征信息,可以使得目标特征信息与原始特征信息之间的耦合度降低,降低能够从目标特征信息反推出原始特征信息的可能性,从而降低被动参与方的原始数据发生泄露的风险,实现对被动参与方的原始数据的保护,提高数据安全性。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据一示例性实施例示出的一种实施环境示意图。
图2是根据一示例性实施例示出的一种数据保护方法的流程图。
图3是根据一示例性实施例示出的一种特征处理网络结构训练方法的流程图。
图4是根据一示例性实施例示出的一种对神经网络结构进行训练的示意图。
图5是根据一示例性实施例示出的一种数据保护装置的框图。
图6是根据一示例性实施例示出的一种特征处理网络结构训练装置的框图。
图7是根据一示例性实施例示出的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
首先对本公开的应用场景进行介绍。本公开可以应用于联邦学习或联合学习过程中,联合训练模型通常用于实现在不暴露原始数据的前提下完成机器学习模型的共同训练,针对有监督机器学习模型,通常将拥有样本标签数据的一方称为主动参与方(activeparty),将未拥有样本标签数据的一方称为被动参与方(passive party)。主动参与方和被动参与方之间可以通过网络进行交互,以接收或发送消息等,二者之间互相传输的数据是需要进行保护的重要数据。图1是根据一示例性实施例示出的一种实施环境示意图,如图1所示,该实施环境可包括被动参与方101和主动参与方102,被动参与方101和主动参与方102之间可以进行通信耦合,例如可以采用3G、4G、5G、NB-IOT、eMTC、LTE、LTE-A等任一种方式进行通信。
值得说明的是,本公开中当提及被动参与方进行发送、接收、处理数据的操作时,可理解为是被动参与方通过被动参与方的服务器设备进行这些操作,以及,当提及主动参与方进行发送、接收、处理数据的操作时,可理解为是主动参与方通过主动参与方的服务器设备进行这些操作。
以下对本公开实施例提供的技术方案进行详细说明。
图2是根据一示例性实施例示出的一种数据保护方法的流程图,该方法可应用于联合训练模型的被动参与方,如图1所示的被动参与方101,如图2所示,该方法可包括S201和S202。
在S201中,获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息。
其中,联合训练模型在训练过程中通常采用每次将一批(batch)样本输入初始模型进行训练的方式,该目标批次的参考样本即为一次训练过程中的一批样本。被动参与方可以从样本集合中选取一批样本作为该目标批次的参考样本。目标批次的参考样本的原始特征信息,可包括目标批次的所有参考样本各自的原始特征信息的集合。
在S202中,通过目标特征处理网络结构对原始特征信息进行处理,得到原始特征信息对应的目标特征信息。
目标特征处理网络结构可以是多层神经网络结构。在获取到目标批次的参考样本的原始特征信息后,可将该原始特征信息输入到目标特征处理网络结构中,得到目标特征处理网络结构输出的该原始特征信息对应的目标特征信息,该目标特征信息即对被动参与方的参考样本的原始特征信息进行处理得到的特征表示(embedding)。
被动参与方可将目标特征信息发送至主动参与方,主动参与方具有真实样本标签数据,可以根据该目标特征信息进行标签预测,从而计算标签预测损失以及梯度相关信息。因此,被动参与方向主动参与方发送的目标特征信息是需要重点保护的数据,目标特征信息是通过对原始特征信息进行处理得到的,如果主动参与方接收到目标特征信息后,能够根据目标特征信息反推出被动参与方的原始特征信息,那么则发生被动参与方的原始数据泄露的风险,从而降低了联合学习过程中的数据安全性。
本公开中,至少以最小化被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到目标特征处理网络结构,该目标训练特征信息为将原始训练特征信息作为神经网络结构的输入、得到的神经网络结构输出的与原始训练特征信息对应的特征信息。
其中,目标特征处理网络结构可以是预先训练的,被动参与方的训练样本可以是训练得到该目标特征处理网络的过程中使用的样本,上述目标批次的参考样本可以是在目标特征处理网络结构训练完成之后,训练联合训练模型的过程中使用的样本,训练样本和参考样本可以相同或不同。
原始训练特征信息与目标训练特征信息之间的耦合度越高,则二者之间的关联程度越大,能够从目标训练特征信息反推出原始训练特征信息的可能性越大,反之,原始训练特征信息与目标训练特征信息之间的耦合度越低,则二者之间的关联程度越小,能够从目标训练特征信息反推出原始训练特征信息的可能性越小。
由于至少以最小化被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,从而得到目标特征处理网络结构,因此,采用训练完成的目标特征处理网络对目标批次的参考样本的原始特征信息进行处理得到目标特征信息,可以使得目标特征信息与原始特征信息之间的耦合度降低,降低能够从目标特征信息反推出原始特征信息的可能性,从而降低被动参与方的原始数据发生泄露的风险。
通过上述技术方案,获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息,并通过目标特征处理网络结构对原始特征信息进行处理,得到对应的目标特征信息。其中,至少以最小化被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到目标特征处理网络结构。如此,采用训练完成的目标特征处理网络对目标批次的参考样本的原始特征信息进行处理得到目标特征信息,可以使得目标特征信息与原始特征信息之间的耦合度降低,降低能够从目标特征信息反推出原始特征信息的可能性,从而降低被动参与方的原始数据发生泄露的风险,实现对被动参与方的原始数据的保护,提高数据安全性。
下面介绍对神经网络结构进行训练得到目标特征处理网络结构的过程,图3是根据一示例性实施例示出的一种特征处理网络结构训练方法的流程图,如图3所示,该方法可包括S301至S305。
在S301中,获取联合训练模型的被动参与方的指定批次的训练样本的原始训练特征信息,以及神经网络结构对原始训练特征信息进行处理之后输出的目标训练特征信息。
其中,在对神经网络结构进行训练的过程中,也可采用每次将一批样本输入神经网络结构的方式,该指定批次的训练样本可以是对神经网络结构进行一次训练过程中的一批样本。
在S302中,获取神经网络结构的参数对应的目标梯度信息。
其中,该目标梯度信息可以是根据预设损失函数以及目标训练特征信息确定的,预设损失函数可包括表征原始训练特征信息与目标训练特征信息之间的耦合度的损失函数。
在S303中,根据目标梯度信息对神经网络结构的参数进行更新。
在S304中,确定神经网络结构是否训练完成。
示例地,可采用梯度下降法对神经网络结构的参数进行更新,这样,原始训练特征信息与目标训练特征信息之间的耦合度在训练的过程中可以逐渐降低。例如在预设损失函数的函数值最小时,可以确定神经网络结构训练完成,从而实现至少以最小化原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练的目的。
在S305中,响应于神经网络结构训练完成,得到目标特征处理网络结构。
如果确定神经网络结构未训练完成,可继续获取下一批次的训练样本对神经网络结构进行训练,直至神经网络结构训练完成,得到目标特征处理网络结构。
通过上述技术方案,神经网络结构的参数对应的目标梯度信息,是根据预设损失函数以及目标训练特征信息确定的,预设损失函数可包括表征原始训练特征信息与目标训练特征信息之间的耦合度的损失函数。根据目标梯度信息对神经网络结构的参数进行更新,在神经网络结构训练完成的情况下得到目标特征处理网络结构。如此,通过训练完成的目标特征处理网络结构,对被动参与方的原始特征信息进行处理得到的目标特征信息,与原始特征信息之间的耦合度降低,降低能够从目标特征信息反推出原始特征信息的可能性,实现对被动参与方的原始数据的保护,提高数据安全性。
以下结合图4介绍本公开中对神经网络结构进行训练的过程。图4是根据一示例性实施例示出的一种对神经网络结构进行训练的示意图,在图4中,实线箭头所指表示前向传播(Forward Propagation),虚线箭头所指表示反向传播(Backward Propagation)。
本公开中,目标梯度信息可包括距离相关性梯度信息、对抗重建梯度信息、噪声正则化梯度信息中的至少一者,相应地,预设损失函数可包括距离相关性损失函数、对抗重建损失函数、噪声正则化损失函数中的至少一者;
相应地,S302中获取神经网络结构的参数对应的目标梯度信息,可包括以下步骤(a)、(b)、(c)中的至少一者。
(a)根据原始训练特征信息、目标训练特征信息、距离相关性损失函数,确定距离相关性梯度信息。
距离相关性损失函数为表征原始训练特征信息与目标训练特征信息之间的距离相关性(Distance Correlation)的函数。其中,原始训练特征信息与目标训练特征信息之间的距离相关性越小,可表征二者之间的耦合度越低,原始训练特征信息与目标训练特征信息之间的距离相关性越大,可表征二者之间的耦合度越大。该距离相关性损失函数可如下表达式(1)所示:
Ld=DCOR(X,F(X)) (1)
其中,Ld表示距离相关性损失函数,X表示原始训练特征信息,F(X)表示目标训练特征信息。
如图4所示,在被动参与方,神经网络结构可将目标训练特征信息通过前向传播传输给距离相关性损失函数值计算模块,该距离相关性损失函数值计算模块可根据原始训练特征信息、目标训练特征信息、距离相关性损失函数,计算距离相关性损失函数的函数值,被动参与方可根据该函数值确定距离相关性梯度信息,并通过反向传播将距离相关性梯度信息回传给神经网络结构,其中,计算距离相关性梯度信息的方式可参照相关技术。这样,神经网络结构可根据距离相关性梯度信息、采用梯度下降法对其参数进行更新,如此,使得原始训练特征信息与目标训练特征信息之间的距离相关性逐渐变小,即使得二者之间的耦合度越来越低。
(b)根据原始训练特征信息、第一预测特征信息、对抗重建损失函数,确定神经网络结构的参数对应的第一梯度信息,并将第一梯度信息经过梯度反转层处理之后的梯度信息确定为对抗重建梯度信息。
其中,第一预测特征信息是根据目标训练特征信息进行重建得到的,如图4所示,在一示例中,神经网络结构可将目标训练特征信息传输给特征重建网络结构,特征重建网络结构可用于对目标训练特征信息进行重建,即根据目标训练特征信息预测原始训练特征信息。第一预测特征信息可以为将目标训练特征信息输入到特征重建网络结构中、得到的特征重建网络结构输出的特征信息。
特征重建网络结构可通过前向传播将第一预测特征信息传输给对抗重建损失函数值计算模块,对抗重建损失函数值计算模块可根据原始训练特征信息、第一预测特征信息、对抗重建损失函数,计算对抗重建损失函数的函数值,被动参与方可根据该函数值确定神经网络结构的参数对应的第一梯度信息。其中,对抗重建损失函数为表征第一预测特征信息与原始训练特征信息之间的距离的函数,该距离例如可以为欧式距离。第一预测特征信息与原始训练特征信息之间的距离越小,可表征二者之间的相似度越大,即特征重建网络结构预测的原始训练特征信息与实际的原始训练特征信息越相似,目标训练特征信息与原始训练特征信息之间的耦合度越大;反之,第一预测特征信息与原始训练特征信息之间的距离越大,可表征二者之间的相似度越小,即特征重建网络结构预测的原始训练特征信息与实际的原始训练特征信息差别越大,目标训练特征信息与原始训练特征信息之间的耦合度越低。该对抗重建损失函数可如下表达式(2)所示:
Lr=P(X,R1(F(X))) (2)
其中,Lr表示对抗重建损失函数,X表示原始训练特征信息,R1(F(X))表示第一预测特征信息,P表示计算第一预测特征信息与原始训练特征信息之间的距离的函数,例如可以为欧式距离计算函数。
如图4所示,神经网络结构与特征重建网络结构之间可设置有梯度反转层(GRL,Gradient Reversal Layer),在反向传播过程中,被动参与方可将第一梯度信息经过梯度反转层处理之后的梯度信息确定为对抗重建梯度信息,并将对抗重建梯度信息回传给神经网络结构。示例地,梯度反转层可将第一梯度信息乘以-λ,被动参与方可将第一梯度信息乘以-λ之后的梯度信息确定为对抗重建梯度信息,其中,λ为大于0的数,其取值可预先设置。
其中,对抗重建损失函数表征第一预测特征信息与原始训练特征信息之间的距离,使得该对抗重建损失函数越小,即使得第一预测特征信息与原始训练特征信息之间的相似度越大,说明特征重建网络结构预测的原始训练特征信息与实际的原始训练特征信息越相似,如此便表征可以较为容易地根据目标训练特征信息反推出实际的原始训练特征信息,那么目标训练特征信息与原始训练特征信息之间的耦合度越大。而训练神经网络结构的目的是降低目标训练特征信息与原始训练特征信息之间的耦合度,因此,在将梯度信息回传给神经网络结构时,经过梯度反转层的处理,这样神经网络结构可根据对抗重建梯度信息、采用梯度下降法对其参数进行更新,对于神经网络结构的训练的目标实际是在逐渐增大对抗重建损失函数的函数值,达到尽可能增大根据目标训练特征信息反推出实际的原始训练特征信息的难度的目的,从而逐渐降低目标训练特征信息与原始训练特征信息之间的耦合度。
另外需要说明的是,在正向传播过程中,如果目标特征信息经过梯度反转层之后再传输给特征重建网络结构,此时梯度反转层不对目标特征信息做任何处理,直接将目标特征信息传输给特征重建网络结构。
(c)根据第二预测特征信息、噪声信息、噪声正则化损失函数,确定噪声正则化梯度信息。
其中,第二预测特征信息是根据目标训练特征信息进行重建得到的,第一预测特征信息与第二预测特征信息相同或不同。在一示例中,如图4所示,特征重建网络结构可将输出的第一预测特征信息传输给噪声正则化损失函数值计算模块,该第一预测特征信息可作为确定噪声正则化梯度信息的第二预测梯度信息,即第一预测特征信息与第二预测特征信息相同。在另一示例中,该第二预测特征信息也可是由被动参与方中其他的重建模块根据目标训练特征信息进行重建得到的,并与第一预测特征信息不同。图4所示的传输方式仅为示例性的,不构成对本公开实施方式的限制。
噪声信息可以为随机噪声信息,例如随机高斯噪声信息。噪声正则化损失函数可以为表征第二预测特征信息与噪声信息之间误差的函数,第二预测特征信息与噪声信息之间误差越小,表征根据目标训练特征信息重建出的原始训练特征信息越像噪声信息,即目标训练特征信息与原始训练特征信息之间的耦合度越低。示例地,该噪声正则化损失函数可如下表达式(3)所示:
其中,Ln表示噪声正则化损失函数,R2(F(X))表示第二预测特征信息,Xnoise表示噪声信息。
噪声正则化损失函数值计算模块可根据第二预测特征信息、噪声信息、噪声正则化损失函数,确定噪声正则化损失函数的函数值,被动参与方可根据该函数值计算噪声正则化梯度信息,并通过反向传播将该噪声正则化梯度信息回传给神经网络结构,神经网络结构可采用梯度下降法对其参数进行更新。这样,使得第二预测特征信息与噪声信息越接近,即根据目标训练特征信息重建出的原始训练特征信息越来越像噪声信息,使得目标训练特征信息与原始训练特征信息之间的耦合度逐渐降低。
需要说明的是,可采用(a)、(b)、(c)这三种方式中的至少一者确定神经网络结构的参数对应的目标梯度信息,若采用这三种方式中的多者,即目标梯度信息包括距离相关性梯度信息、对抗重建梯度信息、噪声正则化梯度信息中的多者的情况下,神经网络结构分别根据这多个梯度信息更新自身的参数。另外,图4所示的特征重建网络结构、梯度反转层、距离相关性损失函数值计算模块、对抗重建损失函数值计算模块、噪声正则化损失函数值计算模块仅在训练神经网络结构时使用,在神经网络结构训练完成得到目标特征处理网络结构后,在实际训练联合训练模型的过程中,这些模块是不参与的。
通过上述方案,距离相关性损失函数、对抗重建损失函数、噪声正则化损失函数均可表征原始训练特征信息与目标训练特征信息之间的耦合度,神经网络结构根据距离相关性梯度信息、对抗重建梯度信息、噪声正则化梯度信息中的至少一者更新自身参数,可以实现以最小化被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练的目的。
可选地,在目标梯度信息包括对抗重建梯度信息,预设损失函数包括对抗重建损失函数的情况下,目标特征处理网络结构的训练过程还可包括:
根据原始训练特征信息、第一预测特征信息、对抗重建损失函数,确定特征重建网络结构的参数对应的第二梯度信息;
将第二梯度信息回传至特征重建网络结构,以由特征重建网络结构根据第二梯度信息对特征重建网络结构的参数进行更新。
其中,第一预测特征信息、对抗重建损失函数已在上文介绍,对抗重建损失函数为表征第一预测特征信息与原始训练特征信息之间的距离的函数,该第二梯度信息用于更新图4所示的特征重建网络结构的参数,特征重建网络结构可采用梯度下降法对自身的参数进行更新。
这样,根据对抗重建损失函数的函数值可确定出两个梯度信息,一个是用于更新特征重建网络结构的参数的第二梯度信息,即使得特征重建网络重建出的第一预测特征信息与实际的原始训练特征信息越接近,另一个是用于更新神经网络结构的参数的对抗重建梯度信息,即尽可能增大根据目标训练特征信息反推出实际的原始训练特征信息的难度,如此达到对抗训练的目的。
并且,对特征重建网络结构进行训练,使得特征重建网络结构的重建效果越来越好,则对神经网络结构进行训练的目的,还包括使得目标训练特征信息经过重建效果较好的特征重建网络结构之后,预测出的原始训练特征信息与实际的原始训练特征信息之间的相似度降低。
本公开中,除了以最小化被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练之外,还可以最小化标签数据预测差异为目标,对神经网络结构进行训练。
目标梯度信息还可包括交叉熵梯度信息,预设损失函数还可包括交叉熵损失函数;
S302中获取神经网络结构的参数对应的目标梯度信息,还可包括:
将目标训练特征信息发送至联合训练模型的主动参与方,以使主动参与方根据目标训练特征信息进行标签数据预测,并根据标签数据预测结果和交叉熵损失函数确定交叉熵梯度信息,其中,交叉熵损失函数为表征标签数据预测结果与真实标签数据之间的交叉熵的函数;
接收主动参与方发送的交叉熵梯度信息。
如图4所示,被动参与方可将目标训练特征信息发送至主动参与方,主动参与方可将目标训练特征信息输入到标签数据预测网络结构中,得到标签数据预测网络结构输出的标签数据预测结果,交叉熵损失函数值计算模块可根据标签数据预测结果和交叉熵损失函数(Cross Entropy Loss)确定交叉熵损失函数的函数值,主动参与方可根据该函数值计算交叉熵梯度信息。该交叉熵损失函数为表征标签数据预测结果与真实标签数据之间的交叉熵的函数,主动参与方可将交叉熵梯度信息发送至被动参与方,被动参与方的神经网络结构可采用梯度下降法、根据交叉熵梯度信息更新神经网络结构的参数。
这样,不仅考虑到保护被动参与方的原始数据的需求,还考虑到联合训练模型的精度的问题,神经网络结构也可根据交叉熵梯度信息更新自身的参数,以保证主动参与方根据神经网络结构输出的目标训练特征信息进行标签预测的准确度,从而保证联合训练模型的精度。
本公开中,S304中确定神经网络结构是否训练完成,可包括:
在交叉熵损失函数的函数值以及目标函数值与对应权重的乘积之和最小的情况下,确定神经网络结构训练完成,其中,目标函数值包括距离相关性损失函数的函数值、对抗重建损失函数的函数值、噪声正则化损失函数的函数值中的至少一者。
示例地,以预设损失函数同时包括距离相关性损失函数、对抗重建损失函数、噪声正则化损失函数三者为例,在确定L最小的情况下,可确定神经网络结构训练完成,其中,L=Lc+αdLd+αnLn+αrLr,Lc表示交叉熵损失函数的函数值,αd表示距离相关性损失函数的函数值对应的权重,αn表示噪声正则化损失函数的函数值对应的权重,αr表示对抗重建损失函数的函数值对应的权重,各个权重的取值均可预先设置。需要说明的是,该示例仅为解释说明,不构成对本公开实施方式的限制。
其中,使得交叉熵损失函数的函数值最小的目的,为最小化标签数据预测结果与真实标签数据之间的差异,保证联合训练模型的精度,使得目标函数值与对应权重的乘积最小的目的,为最小化被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度。由此,既能保护被动参与方的原始数据,又能保证联合训练模型的精度。
本公开提供的数据保护方法还可包括:
将目标特征信息发送至联合训练模型的主动参与方,以使主动参与方根据目标特征信息确定联合训练模型的参数的梯度传递信息;
接收主动参与方发送的梯度传递信息,并根据梯度传递信息更新联合训练模型的参数。
该梯度传递信息可用于表征联合训练模型的主动参与方向被动参与方传递的、用于调整联合训练模型的参数的依据,作为示例,该梯度传递信息可以包括被动参与方的目标批次的参考样本对应的、利用交叉熵损失函数对联合训练模型的被动参与方所训练的模型的输出层中各神经元对应的梯度。
由此,通过目标特征处理网络结构对目标批次的参考样本的原始特征信息进行处理,得到对应的目标特征信息,使得目标特征信息与原始特征信息之间的耦合度降低,降低主动参与方能够从目标特征信息反推出被动参与方的原始特征信息的可能性,从而降低被动参与方的原始数据发生泄露的风险,实现对被动参与方的原始数据的保护。
本公开还提供一种特征处理网络结构训练方法,该训练方法的具体过程已在上文说明,该训练方法主要解决的技术问题在于如何提高数据安全性。通过该训练方法训练得到的目标特征处理网络结构,可以对被动参与方的原始数据进行处理,使得处理后得到的数据与原始数据之间的耦合度降低,降低被动参与方的原始数据发生泄漏的风险,实现对被动参与方的原始数据的保护,提高数据安全性。
基于同一发明构思,本公开还提供一种数据保护装置,图5是根据一示例性实施例示出的一种数据保护装置的框图,如图5所示,该装置500可包括:
原始特征信息获取模块501,用于获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息;
目标特征信息确定模块502,用于通过目标特征处理网络结构对所述原始特征信息进行处理,得到所述原始特征信息对应的目标特征信息;
其中,至少以最小化所述被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到所述目标特征处理网络结构,所述目标训练特征信息为将所述原始训练特征信息作为所述神经网络结构的输入、得到的所述神经网络结构输出的与所述原始训练特征信息对应的特征信息。
可选地,所述目标特征处理网络结构是通过特征处理网络结构训练装置训练得到的,图6是根据一示例性实施例示出的一种特征处理网络结构训练装置的框图,如图6所示,该装置600可包括:
训练特征信息获取模块601,用于获取联合训练模型的被动参与方的指定批次的训练样本的原始训练特征信息,以及神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;
目标梯度信息获取模块602,用于获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;
参数更新模块603,用于根据所述目标梯度信息对所述神经网络结构的参数进行更新,其中,至少以最小化所述原始训练特征信息与所述目标训练特征信息之间的耦合度为目标,对所述神经网络结构进行训练;
判断模块604,用于确定所述神经网络结构是否训练完成;
网络结构获得模块605,用于响应于所述神经网络结构训练完成,得到所述目标特征处理网络结构。
可选地,所述目标梯度信息包括距离相关性梯度信息、对抗重建梯度信息、噪声正则化梯度信息中的至少一者,相应地,所述预设损失函数包括距离相关性损失函数、对抗重建损失函数、噪声正则化损失函数中的至少一者;
相应地,所述目标梯度信息获取模块602,包括以下中的至少一者:
距离相关性梯度信息确定模块,用于根据所述原始训练特征信息、所述目标训练特征信息、所述距离相关性损失函数,确定所述距离相关性梯度信息,其中,所述距离相关性损失函数为表征所述原始训练特征信息与所述目标训练特征信息之间的距离相关性的函数;
对抗重建梯度信息确定模块,用于根据所述原始训练特征信息、第一预测特征信息、所述对抗重建损失函数,确定所述神经网络结构的参数对应的第一梯度信息,并将所述第一梯度信息经过梯度反转层处理之后的梯度信息确定为所述对抗重建梯度信息,其中,所述第一预测特征信息是根据所述目标训练特征信息进行重建得到的,所述对抗重建损失函数为表征所述第一预测特征信息与所述原始训练特征信息之间的距离的函数;
噪声正则化梯度信息确定模块,用于根据第二预测特征信息、噪声信息、所述噪声正则化损失函数,确定所述噪声正则化梯度信息,其中,所述第二预测特征信息是根据所述目标训练特征信息进行重建得到的,所述第一预测特征信息与所述第二预测特征信息相同或不同,所述噪声正则化损失函数为表征所述第二预测特征信息与所述噪声信息之间误差的函数。
可选地,所述第一预测特征信息为将所述目标训练特征信息输入到特征重建网络结构中、得到的所述特征重建网络结构输出的特征信息;
在所述目标梯度信息包括所述对抗重建梯度信息,所述预设损失函数包括所述对抗重建损失函数的情况下,所述装置600还包括:
梯度确定模块,用于根据所述原始训练特征信息、第一预测特征信息、所述对抗重建损失函数,确定所述特征重建网络结构的参数对应的第二梯度信息;
梯度回传模块,用于将所述第二梯度信息回传至所述特征重建网络结构,以由所述特征重建网络结构根据所述第二梯度信息对所述特征重建网络结构的参数进行更新。
可选地,所述目标梯度信息还包括交叉熵梯度信息,所述预设损失函数还包括交叉熵损失函数;
所述目标梯度信息获取模块602,还包括:
第一发送模块,用于将所述目标训练特征信息发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标训练特征信息进行标签数据预测,并根据标签数据预测结果和所述交叉熵损失函数确定所述交叉熵梯度信息,其中,所述交叉熵损失函数为表征所述标签数据预测结果与真实标签数据之间的交叉熵的函数;
第一接收模块,用于接收所述主动参与方发送的所述交叉熵梯度信息。
可选地,所述判断模块604用于:
在所述交叉熵损失函数的函数值以及目标函数值与对应权重的乘积之和最小的情况下,确定所述神经网络结构训练完成,其中,所述目标函数值包括所述距离相关性损失函数的函数值、所述对抗重建损失函数的函数值、所述噪声正则化损失函数的函数值中的至少一者。
可选地,所述装置500还包括:
第二发送模块,用于将所述目标特征信息发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标特征信息确定所述联合训练模型的参数的梯度传递信息;
第二接收模块,用于接收所述主动参与方发送的所述梯度传递信息,并根据所述梯度传递信息更新所述联合训练模型的参数。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
下面参考图7,其示出了适于用来实现本公开实施例的电子设备700的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息;通过目标特征处理网络结构对所述原始特征信息进行处理,得到所述原始特征信息对应的目标特征信息;其中,至少以最小化所述被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到所述目标特征处理网络结构,所述目标训练特征信息为将所述原始训练特征信息作为所述神经网络结构的输入、得到的所述神经网络结构输出的与所述原始训练特征信息对应的特征信息。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取联合训练模型的被动参与方的指定批次的训练样本的原始训练特征信息,以及神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;根据所述目标梯度信息对所述神经网络结构的参数进行更新,其中,至少以最小化所述原始训练特征信息与所述目标训练特征信息之间的耦合度为目标,对所述神经网络结构进行训练;确定所述神经网络结构是否训练完成;响应于所述神经网络结构训练完成,得到目标特征处理网络结构。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,原始特征信息获取模块还可以被描述为“信息获取模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种数据保护方法,所述方法包括:获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息;通过目标特征处理网络结构对所述原始特征信息进行处理,得到所述原始特征信息对应的目标特征信息;其中,至少以最小化所述被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到所述目标特征处理网络结构,所述目标训练特征信息为将所述原始训练特征信息作为所述神经网络结构的输入、得到的所述神经网络结构输出的与所述原始训练特征信息对应的特征信息。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,所述目标特征处理网络结构是通过如下方式训练得到的:获取所述被动参与方的指定批次的训练样本的原始训练特征信息,以及所述神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;根据所述目标梯度信息对所述神经网络结构的参数进行更新;确定所述神经网络结构是否训练完成;响应于所述神经网络结构训练完成,得到所述目标特征处理网络结构。
根据本公开的一个或多个实施例,示例3提供了示例2的方法,所述目标梯度信息包括距离相关性梯度信息、对抗重建梯度信息、噪声正则化梯度信息中的至少一者,相应地,所述预设损失函数包括距离相关性损失函数、对抗重建损失函数、噪声正则化损失函数中的至少一者;相应地,所述获取所述神经网络结构的参数对应的目标梯度信息,包括以下中的至少一者:根据所述原始训练特征信息、所述目标训练特征信息、所述距离相关性损失函数,确定所述距离相关性梯度信息,其中,所述距离相关性损失函数为表征所述原始训练特征信息与所述目标训练特征信息之间的距离相关性的函数;根据所述原始训练特征信息、第一预测特征信息、所述对抗重建损失函数,确定所述神经网络结构的参数对应的第一梯度信息,并将所述第一梯度信息经过梯度反转层处理之后的梯度信息确定为所述对抗重建梯度信息,其中,所述第一预测特征信息是根据所述目标训练特征信息进行重建得到的,所述对抗重建损失函数为表征所述第一预测特征信息与所述原始训练特征信息之间的距离的函数;根据第二预测特征信息、噪声信息、所述噪声正则化损失函数,确定所述噪声正则化梯度信息,其中,所述第二预测特征信息是根据所述目标训练特征信息进行重建得到的,所述第一预测特征信息与所述第二预测特征信息相同或不同,所述噪声正则化损失函数为表征所述第二预测特征信息与所述噪声信息之间误差的函数。
根据本公开的一个或多个实施例,示例4提供了示例3的方法,所述第一预测特征信息为将所述目标训练特征信息输入到特征重建网络结构中、得到的所述特征重建网络结构输出的特征信息;在所述目标梯度信息包括所述对抗重建梯度信息,所述预设损失函数包括所述对抗重建损失函数的情况下,所述目标特征处理网络结构的训练过程还包括:根据所述原始训练特征信息、第一预测特征信息、所述对抗重建损失函数,确定所述特征重建网络结构的参数对应的第二梯度信息;将所述第二梯度信息回传至所述特征重建网络结构,以由所述特征重建网络结构根据所述第二梯度信息对所述特征重建网络结构的参数进行更新。
根据本公开的一个或多个实施例,示例5提供了示例3的方法,所述目标梯度信息还包括交叉熵梯度信息,所述预设损失函数还包括交叉熵损失函数;所述获取所述神经网络结构的参数对应的目标梯度信息,还包括:将所述目标训练特征信息发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标训练特征信息进行标签数据预测,并根据标签数据预测结果和所述交叉熵损失函数确定所述交叉熵梯度信息,其中,所述交叉熵损失函数为表征所述标签数据预测结果与真实标签数据之间的交叉熵的函数;接收所述主动参与方发送的所述交叉熵梯度信息。
根据本公开的一个或多个实施例,示例6提供了示例5的方法,所述确定所述神经网络结构是否训练完成,包括:在所述交叉熵损失函数的函数值以及目标函数值与对应权重的乘积之和最小的情况下,确定所述神经网络结构训练完成,其中,所述目标函数值包括所述距离相关性损失函数的函数值、所述对抗重建损失函数的函数值、所述噪声正则化损失函数的函数值中的至少一者。
根据本公开的一个或多个实施例,示例7提供了示例1的方法,所述方法还包括:将所述目标特征信息发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标特征信息确定所述联合训练模型的参数的梯度传递信息;接收所述主动参与方发送的所述梯度传递信息,并根据所述梯度传递信息更新所述联合训练模型的参数。
根据本公开的一个或多个实施例,示例8提供了一种特征处理网络结构训练方法,所述方法包括:获取联合训练模型的被动参与方的指定批次的训练样本的原始训练特征信息,以及神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;根据所述目标梯度信息对所述神经网络结构的参数进行更新,其中,至少以最小化所述原始训练特征信息与所述目标训练特征信息之间的耦合度为目标,对所述神经网络结构进行训练;确定所述神经网络结构是否训练完成;响应于所述神经网络结构训练完成,得到目标特征处理网络结构。
根据本公开的一个或多个实施例,示例9提供了示例8的方法,所述目标梯度信息包括距离相关性梯度信息、对抗重建梯度信息、噪声正则化梯度信息中的至少一者,相应地,所述预设损失函数包括距离相关性损失函数、对抗重建损失函数、噪声正则化损失函数中的至少一者;相应地,所述获取所述神经网络结构的参数对应的目标梯度信息,包括以下中的至少一者:根据所述原始训练特征信息、所述目标训练特征信息、所述距离相关性损失函数,确定所述距离相关性梯度信息,其中,所述距离相关性损失函数为表征所述原始训练特征信息与所述目标训练特征信息之间的距离相关性的函数;根据所述原始训练特征信息、第一预测特征信息、所述对抗重建损失函数,确定所述神经网络结构的参数对应的第一梯度信息,并将所述第一梯度信息经过梯度反转层处理之后的梯度信息确定为所述对抗重建梯度信息,其中,所述第一预测特征信息是根据所述目标训练特征信息进行重建得到的,所述对抗重建损失函数为表征所述第一预测特征信息与所述原始训练特征信息之间的距离的函数;根据第二预测特征信息、噪声信息、所述噪声正则化损失函数,确定所述噪声正则化梯度信息,其中,所述第二预测特征信息是根据所述目标训练特征信息进行重建得到的,所述第一预测特征信息与所述第二预测特征信息相同或不同,所述噪声正则化损失函数为表征所述第二预测特征信息与所述噪声信息之间误差的函数。
根据本公开的一个或多个实施例,示例10提供了示例9的方法,所述第一预测特征信息为将所述目标训练特征信息输入到特征重建网络结构中、得到的所述特征重建网络结构输出的特征信息;在所述目标梯度信息包括所述对抗重建梯度信息,所述预设损失函数包括所述对抗重建损失函数的情况下,所述方法还包括:根据所述原始训练特征信息、第一预测特征信息、所述距离相关性损失函数,确定所述特征重建网络结构的参数对应的第二梯度信息;将所述第二梯度信息回传至所述特征重建网络结构,以由所述特征重建网络结构根据所述第二梯度信息对所述特征重建网络结构的参数进行更新。
根据本公开的一个或多个实施例,示例11提供了示例9的方法,所述目标梯度信息还包括交叉熵梯度信息,所述预设损失函数还包括交叉熵损失函数;所述获取所述神经网络结构的参数对应的目标梯度信息,还包括:将所述目标训练特征信息发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标训练特征信息进行标签数据预测,并根据标签数据预测结果和所述交叉熵损失函数确定所述交叉熵梯度信息,其中,所述交叉熵损失函数为表征所述标签数据预测结果与真实标签数据之间的交叉熵的函数;接收所述主动参与方发送的所述交叉熵梯度信息。
根据本公开的一个或多个实施例,示例12提供了示例11的方法,所述确定所述神经网络结构是否训练完成,包括:在所述交叉熵损失函数的函数值以及目标函数值与对应权重的乘积之和最小的情况下,确定所述神经网络结构训练完成,其中,所述目标函数值包括所述距离相关性损失函数的函数值、所述对抗重建损失函数的函数值、所述噪声正则化损失函数的函数值中至少一者。
根据本公开的一个或多个实施例,示例13提供了一种数据保护装置,所述装置包括:原始特征信息获取模块,用于获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息;目标特征信息确定模块,用于通过目标特征处理网络结构对所述原始特征信息进行处理,得到所述原始特征信息对应的目标特征信息;其中,至少以最小化所述被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到所述目标特征处理网络结构,所述目标训练特征信息为将所述原始训练特征信息作为所述神经网络结构的输入、得到的所述神经网络结构输出的与所述原始训练特征信息对应的特征信息。
根据本公开的一个或多个实施例,示例14提供了一种特征处理网络结构训练装置,所述装置包括:训练特征信息获取模块,用于获取联合训练模型的被动参与方的指定批次的训练样本的原始训练特征信息,以及神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;目标梯度信息获取模块,用于获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;参数更新模块,用于根据所述目标梯度信息对所述神经网络结构的参数进行更新,其中,至少以最小化所述原始训练特征信息与所述目标训练特征信息之间的耦合度为目标,对所述神经网络结构进行训练;判断模块,用于确定所述神经网络结构是否训练完成;网络结构获得模块,用于响应于所述神经网络结构训练完成,得到所述目标特征处理网络结构。
根据本公开的一个或多个实施例,示例15提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时示例1-7中任一项所述方法的步骤,或者,该程序被处理装置执行时实现示例8-12中任一项所述方法的步骤。
根据本公开的一个或多个实施例,示例16提供了一种电子设备,包括:存储装置,其上存储有计算机程序;处理装置,用于执行所述存储装置中的所述计算机程序,以实现示例1-7中任一项所述方法的步骤,或者实现示例8-12中任一项所述方法的步骤。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
Claims (15)
1.一种数据保护方法,其特征在于,所述方法包括:
获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息;
通过训练完成的目标特征处理网络结构对所述原始特征信息进行处理,得到所述原始特征信息对应的目标特征信息;
将所述目标特征信息发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标特征信息确定所述联合训练模型的参数的梯度传递信息;
接收所述主动参与方发送的所述梯度传递信息,并根据所述梯度传递信息更新所述联合训练模型的参数;
其中,至少以最小化所述被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到所述目标特征处理网络结构,所述目标训练特征信息为将所述原始训练特征信息作为所述神经网络结构的输入、得到的所述神经网络结构输出的与所述原始训练特征信息对应的特征信息;所述目标批次的参考样本是在目标特征处理网络结构训练完成之后,训练联合训练模型的过程中使用的样本。
2.根据权利要求1所述的方法,其特征在于,所述目标特征处理网络结构是通过如下方式训练得到的:
获取所述被动参与方的指定批次的训练样本的原始训练特征信息,以及所述神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;
获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;
根据所述目标梯度信息对所述神经网络结构的参数进行更新;
确定所述神经网络结构是否训练完成;
响应于所述神经网络结构训练完成,得到所述目标特征处理网络结构。
3.根据权利要求2所述的方法,其特征在于,所述目标梯度信息包括距离相关性梯度信息、对抗重建梯度信息、噪声正则化梯度信息中的至少一者,相应地,所述预设损失函数包括距离相关性损失函数、对抗重建损失函数、噪声正则化损失函数中的至少一者;
相应地,所述获取所述神经网络结构的参数对应的目标梯度信息,包括以下中的至少一者:
根据所述原始训练特征信息、所述目标训练特征信息、所述距离相关性损失函数,确定所述距离相关性梯度信息,其中,所述距离相关性损失函数为表征所述原始训练特征信息与所述目标训练特征信息之间的距离相关性的函数;
根据所述原始训练特征信息、第一预测特征信息、所述对抗重建损失函数,确定所述神经网络结构的参数对应的第一梯度信息,并将所述第一梯度信息经过梯度反转层处理之后的梯度信息确定为所述对抗重建梯度信息,其中,所述第一预测特征信息是根据所述目标训练特征信息进行重建得到的,所述对抗重建损失函数为表征所述第一预测特征信息与所述原始训练特征信息之间的距离的函数;
根据第二预测特征信息、噪声信息、所述噪声正则化损失函数,确定所述噪声正则化梯度信息,其中,所述第二预测特征信息是根据所述目标训练特征信息进行重建得到的,所述第一预测特征信息与所述第二预测特征信息相同或不同,所述噪声正则化损失函数为表征所述第二预测特征信息与所述噪声信息之间误差的函数。
4.根据权利要求3所述的方法,其特征在于,所述第一预测特征信息为将所述目标训练特征信息输入到特征重建网络结构中、得到的所述特征重建网络结构输出的特征信息;
在所述目标梯度信息包括所述对抗重建梯度信息,所述预设损失函数包括所述对抗重建损失函数的情况下,所述目标特征处理网络结构的训练过程还包括:
根据所述原始训练特征信息、第一预测特征信息、所述对抗重建损失函数,确定所述特征重建网络结构的参数对应的第二梯度信息;
将所述第二梯度信息回传至所述特征重建网络结构,以由所述特征重建网络结构根据所述第二梯度信息对所述特征重建网络结构的参数进行更新。
5.根据权利要求3所述的方法,其特征在于,所述目标梯度信息还包括交叉熵梯度信息,所述预设损失函数还包括交叉熵损失函数;
所述获取所述神经网络结构的参数对应的目标梯度信息,还包括:
将所述目标训练特征信息发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标训练特征信息进行标签数据预测,并根据标签数据预测结果和所述交叉熵损失函数确定所述交叉熵梯度信息,其中,所述交叉熵损失函数为表征所述标签数据预测结果与真实标签数据之间的交叉熵的函数;
接收所述主动参与方发送的所述交叉熵梯度信息。
6.根据权利要求5所述的方法,其特征在于,所述确定所述神经网络结构是否训练完成,包括:
在所述交叉熵损失函数的函数值以及目标函数值与对应权重的乘积之和最小的情况下,确定所述神经网络结构训练完成,其中,所述目标函数值包括所述距离相关性损失函数的函数值、所述对抗重建损失函数的函数值、所述噪声正则化损失函数的函数值中的至少一者。
7.一种特征处理网络结构训练方法,其特征在于,所述方法包括:
获取联合训练模型的被动参与方的指定批次的训练样本的原始训练特征信息,以及神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;
获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;
根据所述目标梯度信息对所述神经网络结构的参数进行更新,其中,至少以最小化所述原始训练特征信息与所述目标训练特征信息之间的耦合度为目标,对所述神经网络结构进行训练;
确定所述神经网络结构是否训练完成;
响应于所述神经网络结构训练完成,得到目标特征处理网络结构;
训练完成的所述目标特征处理网络结构用于对所述被动参与方的目标批次的参考样本的原始特征信息进行处理,得到目标特征信息,所述目标特征信息用于被发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标特征信息确定所述联合训练模型的参数的梯度传递信息,所述梯度传递信息用于被所述主动参与方发送至所述被动参与方,以由所述被动参与方根据所述梯度传递信息更新所述联合训练模型的参数;所述目标批次的参考样本是在目标特征处理网络结构训练完成之后,训练联合训练模型的过程中使用的样本。
8.根据权利要求7所述的方法,其特征在于,所述目标梯度信息包括距离相关性梯度信息、对抗重建梯度信息、噪声正则化梯度信息中的至少一者,相应地,所述预设损失函数包括距离相关性损失函数、对抗重建损失函数、噪声正则化损失函数中的至少一者;
相应地,所述获取所述神经网络结构的参数对应的目标梯度信息,包括以下中的至少一者:
根据所述原始训练特征信息、所述目标训练特征信息、所述距离相关性损失函数,确定所述距离相关性梯度信息,其中,所述距离相关性损失函数为表征所述原始训练特征信息与所述目标训练特征信息之间的距离相关性的函数;
根据所述原始训练特征信息、第一预测特征信息、所述对抗重建损失函数,确定所述神经网络结构的参数对应的第一梯度信息,并将所述第一梯度信息经过梯度反转层处理之后的梯度信息确定为所述对抗重建梯度信息,其中,所述第一预测特征信息是根据所述目标训练特征信息进行重建得到的,所述对抗重建损失函数为表征所述第一预测特征信息与所述原始训练特征信息之间的距离的函数;
根据第二预测特征信息、噪声信息、所述噪声正则化损失函数,确定所述噪声正则化梯度信息,其中,所述第二预测特征信息是根据所述目标训练特征信息进行重建得到的,所述第一预测特征信息与所述第二预测特征信息相同或不同,所述噪声正则化损失函数为表征所述第二预测特征信息与所述噪声信息之间误差的函数。
9.根据权利要求8所述的方法,其特征在于,所述第一预测特征信息为将所述目标训练特征信息输入到特征重建网络结构中、得到的所述特征重建网络结构输出的特征信息;
在所述目标梯度信息包括所述对抗重建梯度信息,所述预设损失函数包括所述对抗重建损失函数的情况下,所述方法还包括:
根据所述原始训练特征信息、第一预测特征信息、所述距离相关性损失函数,确定所述特征重建网络结构的参数对应的第二梯度信息;
将所述第二梯度信息回传至所述特征重建网络结构,以由所述特征重建网络结构根据所述第二梯度信息对所述特征重建网络结构的参数进行更新。
10.根据权利要求8所述的方法,其特征在于,所述目标梯度信息还包括交叉熵梯度信息,所述预设损失函数还包括交叉熵损失函数;
所述获取所述神经网络结构的参数对应的目标梯度信息,还包括:
将所述目标训练特征信息发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标训练特征信息进行标签数据预测,并根据标签数据预测结果和所述交叉熵损失函数确定所述交叉熵梯度信息,其中,所述交叉熵损失函数为表征所述标签数据预测结果与真实标签数据之间的交叉熵的函数;
接收所述主动参与方发送的所述交叉熵梯度信息。
11.根据权利要求10所述的方法,其特征在于,所述确定所述神经网络结构是否训练完成,包括:
在所述交叉熵损失函数的函数值以及目标函数值与对应权重的乘积之和最小的情况下,确定所述神经网络结构训练完成,其中,所述目标函数值包括所述距离相关性损失函数的函数值、所述对抗重建损失函数的函数值、所述噪声正则化损失函数的函数值中至少一者。
12.一种数据保护装置,其特征在于,所述装置包括:
原始特征信息获取模块,用于获取联合训练模型的被动参与方的目标批次的参考样本的原始特征信息;
目标特征信息确定模块,用于通过训练完成的目标特征处理网络结构对所述原始特征信息进行处理,得到所述原始特征信息对应的目标特征信息;
第二发送模块,用于将所述目标特征信息发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标特征信息确定所述联合训练模型的参数的梯度传递信息;
第二接收模块,用于接收所述主动参与方发送的所述梯度传递信息,并根据所述梯度传递信息更新所述联合训练模型的参数;
其中,至少以最小化所述被动参与方的训练样本的原始训练特征信息与目标训练特征信息之间的耦合度为目标,对神经网络结构进行训练,以得到所述目标特征处理网络结构,所述目标训练特征信息为将所述原始训练特征信息作为所述神经网络结构的输入、得到的所述神经网络结构输出的与所述原始训练特征信息对应的特征信息;所述目标批次的参考样本是在目标特征处理网络结构训练完成之后,训练联合训练模型的过程中使用的样本。
13.一种特征处理网络结构训练装置,其特征在于,所述装置包括:
训练特征信息获取模块,用于获取联合训练模型的被动参与方的指定批次的训练样本的原始训练特征信息,以及神经网络结构对所述原始训练特征信息进行处理之后输出的目标训练特征信息;
目标梯度信息获取模块,用于获取所述神经网络结构的参数对应的目标梯度信息,其中,所述目标梯度信息是根据预设损失函数以及所述目标训练特征信息确定的,所述预设损失函数包括表征所述原始训练特征信息与所述目标训练特征信息之间的耦合度的损失函数;
参数更新模块,用于根据所述目标梯度信息对所述神经网络结构的参数进行更新,其中,至少以最小化所述原始训练特征信息与所述目标训练特征信息之间的耦合度为目标,对所述神经网络结构进行训练;
判断模块,用于确定所述神经网络结构是否训练完成;
网络结构获得模块,用于响应于所述神经网络结构训练完成,得到所述目标特征处理网络结构;
训练完成的所述目标特征处理网络结构用于对所述被动参与方的目标批次的参考样本的原始特征信息进行处理,得到目标特征信息,所述目标特征信息用于被发送至所述联合训练模型的主动参与方,以使所述主动参与方根据所述目标特征信息确定所述联合训练模型的参数的梯度传递信息,所述梯度传递信息用于被所述主动参与方发送至所述被动参与方,以由所述被动参与方根据所述梯度传递信息更新所述联合训练模型的参数;所述目标批次的参考样本是在目标特征处理网络结构训练完成之后,训练联合训练模型的过程中使用的样本。
14.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-6中任一项所述方法的步骤,或者,该程序被处理装置执行时实现权利要求7-11中任一项所述方法的步骤。
15.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-6中任一项所述方法的步骤,或者实现权利要求7-11中任一项所述方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110593862.XA CN113190872B (zh) | 2021-05-28 | 2021-05-28 | 数据保护方法、网络结构训练方法、装置、介质及设备 |
US18/565,015 US20240242089A1 (en) | 2021-05-28 | 2022-04-28 | Data protection method, training method and apparatus for network structure, medium, and device |
PCT/SG2022/050261 WO2022250609A1 (zh) | 2021-05-28 | 2022-04-28 | 数据保护方法、网络结构训练方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110593862.XA CN113190872B (zh) | 2021-05-28 | 2021-05-28 | 数据保护方法、网络结构训练方法、装置、介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113190872A CN113190872A (zh) | 2021-07-30 |
CN113190872B true CN113190872B (zh) | 2024-08-13 |
Family
ID=76986229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110593862.XA Active CN113190872B (zh) | 2021-05-28 | 2021-05-28 | 数据保护方法、网络结构训练方法、装置、介质及设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240242089A1 (zh) |
CN (1) | CN113190872B (zh) |
WO (1) | WO2022250609A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113722738B (zh) * | 2021-09-02 | 2023-08-08 | 脸萌有限公司 | 数据保护方法、装置、介质及电子设备 |
CN116739038B (zh) * | 2023-03-24 | 2024-04-05 | 中国科学技术大学 | 数据处理方法及装置、电子设备、计算机可读存储介质 |
CN118035389B (zh) * | 2024-04-11 | 2024-06-07 | 电子科技大学 | 一种联邦学习系统中的大语言模型训练数据恢复方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112347476A (zh) * | 2020-11-13 | 2021-02-09 | 脸萌有限公司 | 数据保护方法、装置、介质及设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256646A (zh) * | 2018-01-22 | 2018-07-06 | 百度在线网络技术(北京)有限公司 | 模型生成方法和装置 |
US11562244B2 (en) * | 2018-02-07 | 2023-01-24 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
EP3794516A4 (en) * | 2018-05-17 | 2022-03-16 | Magic Leap, Inc. | GRADIENT ADVERSARIAL TRAINING OF NEURAL NETWORKS |
CN109886417B (zh) * | 2019-03-01 | 2024-05-03 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、装置、设备及介质 |
CN110766142A (zh) * | 2019-10-30 | 2020-02-07 | 北京百度网讯科技有限公司 | 模型生成方法和装置 |
CN111310897A (zh) * | 2020-02-13 | 2020-06-19 | 杭州国芯科技股份有限公司 | 一种神经网络终端部署微调训练方法 |
CN111488995B (zh) * | 2020-04-08 | 2021-12-24 | 北京字节跳动网络技术有限公司 | 用于评估联合训练模型的方法、装置和系统 |
CN111797976B (zh) * | 2020-06-30 | 2024-04-12 | 北京灵汐科技有限公司 | 神经网络的训练方法、图像识别方法、装置、设备及介质 |
CN111783142B (zh) * | 2020-07-06 | 2021-10-08 | 北京字节跳动网络技术有限公司 | 数据保护方法、装置、服务器和介质 |
CN112307677A (zh) * | 2020-11-05 | 2021-02-02 | 浙江大学 | 基于深度学习的电网振荡模态评估与安全主动预警方法 |
CN112465786B (zh) * | 2020-12-01 | 2024-09-10 | 平安科技(深圳)有限公司 | 模型训练方法、数据处理方法、装置、客户端及存储介质 |
CN112446544B (zh) * | 2020-12-01 | 2024-09-24 | 平安科技(深圳)有限公司 | 交通流预测模型训练方法、装置、电子设备及存储介质 |
CN112818374A (zh) * | 2021-03-02 | 2021-05-18 | 深圳前海微众银行股份有限公司 | 一种模型的联合训练方法、设备、存储介质及程序产品 |
-
2021
- 2021-05-28 CN CN202110593862.XA patent/CN113190872B/zh active Active
-
2022
- 2022-04-28 US US18/565,015 patent/US20240242089A1/en active Pending
- 2022-04-28 WO PCT/SG2022/050261 patent/WO2022250609A1/zh active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112347476A (zh) * | 2020-11-13 | 2021-02-09 | 脸萌有限公司 | 数据保护方法、装置、介质及设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2022250609A1 (zh) | 2022-12-01 |
CN113190872A (zh) | 2021-07-30 |
US20240242089A1 (en) | 2024-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113190872B (zh) | 数据保护方法、网络结构训练方法、装置、介质及设备 | |
CN112347476B (zh) | 数据保护方法、装置、介质及设备 | |
CN112418446B (zh) | 模型处理方法、系统、装置、介质及电子设备 | |
CN115830001B (zh) | 肠道图像处理方法、装置、存储介质及电子设备 | |
CN113722738B (zh) | 数据保护方法、装置、介质及电子设备 | |
WO2022012178A1 (zh) | 用于生成目标函数的方法、装置、电子设备和计算机可读介质 | |
CN110555861A (zh) | 光流计算方法、装置及电子设备 | |
CN112926628B (zh) | 动作价值的确定方法、装置、学习框架、介质及设备 | |
CN111539524B (zh) | 轻量级自注意力模块和神经网络构架的搜索方法 | |
CN111967584A (zh) | 生成对抗样本的方法、装置、电子设备及计算机存储介质 | |
CN116340632A (zh) | 对象推荐方法、装置、介质及电子设备 | |
CN116306981A (zh) | 策略确定方法、装置、介质及电子设备 | |
CN111680754B (zh) | 图像分类方法、装置、电子设备及计算机可读存储介质 | |
CN112766190B (zh) | 对抗样本生成方法、装置、存储介质及电子设备 | |
CN112487931B (zh) | 对抗攻击的方法、装置、可读介质和电子设备 | |
CN112926629B (zh) | 超参数确定方法、装置、深度强化学习框架、介质及设备 | |
CN111814807B (zh) | 用于处理图像的方法、装置、电子设备和计算机可读介质 | |
CN115099323B (zh) | 内容小组确定方法、装置、介质及电子设备 | |
CN115565607B (zh) | 确定蛋白质信息的方法、装置、可读介质及电子设备 | |
CN118245341B (zh) | 业务模型的切换方法、装置、电子设备和计算机可读介质 | |
CN116071224A (zh) | 图像转换模型训练方法、图像转换方法和装置 | |
CN113435528B (zh) | 对象分类的方法、装置、可读介质和电子设备 | |
CN111933122B (zh) | 语音识别方法、装置、电子设备和计算机可读介质 | |
CN111709583B (zh) | 用户留存时间生成方法、装置、电子设备和介质 | |
CN118838605A (zh) | 模型部署方法、装置、可读介质、电子设备及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |