CN111966998B - 基于变分自动编码器的口令生成方法、系统、介质和设备 - Google Patents
基于变分自动编码器的口令生成方法、系统、介质和设备 Download PDFInfo
- Publication number
- CN111966998B CN111966998B CN202010716110.3A CN202010716110A CN111966998B CN 111966998 B CN111966998 B CN 111966998B CN 202010716110 A CN202010716110 A CN 202010716110A CN 111966998 B CN111966998 B CN 111966998B
- Authority
- CN
- China
- Prior art keywords
- password
- distribution
- data
- encoder
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000009826 distribution Methods 0.000 claims abstract description 82
- 239000013598 vector Substances 0.000 claims abstract description 67
- 238000007781 pre-processing Methods 0.000 claims abstract description 17
- 238000004140 cleaning Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 27
- 238000013528 artificial neural network Methods 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000005457 optimization Methods 0.000 claims description 17
- 230000000306 recurrent effect Effects 0.000 claims description 11
- 125000004122 cyclic group Chemical group 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000005336 cracking Methods 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005422 blasting Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/45—Structures or tools for the administration of authentication
- G06F21/46—Structures or tools for the administration of authentication by designing passwords or checking the strength of passwords
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于变分自动编码器的口令生成方法、系统、介质和设备,该方法包括步骤:对收集的泄漏口令集进行清洗、转换;对清洗后的数据集进行预处理,转换成数字编码的向量;构建基于变分自动编码器的口令生成模型,包括编码器和解码器,其中编码器负责学习输入数据集的分布,而解码器根据学习得到的输入口令集分布产生与其相近的分布,并用于口令生成。本发明可以通过学习指定口令集的分布,模拟该口令集的口令设定习惯,进而生成具有相近分布的口令,可用于提高对某一类口令集猜测的效率和口令暴力破解的效率。
Description
技术领域
本发明属于安全验证技术领域,具体涉及一种基于变分自动编码器的口令生成方法、系统、介质和设备。
背景技术
在现代互联网技术的发展过程中,出现了很多用户安全验证手段,在这么多验证手段中,最常用的仍然是文本密码,也称口令。如何构建一个强大的口令安全检测机制是网络安全中的一个重点问题,利用口令生成算法生成大量的口令,能够有效的检测现有口令检验机制的漏洞、评估密码强度等,因为同一类网站的用户的背景相似,密码设定都有其相近的分布,从该分布中采样出的密码会在更大程度上符合该网站的用户密码设定习惯。现今主流的口令方法可以分为传统方法和基于深度学习的方法,传统的方法偏向于人为设定规则,而基于深度学习的方法偏向于使用神经网络的方法来拟合口令集进行口令生成。而本文提出了一种基于变分自动编码器的口令生成算法,结合深度学习的模型和概率图的知识,能够使用无监督的学习方式,来学习口令集的分布,从而能够更好的生成接近训练数据分布的口令。
发明内容
为了克服现有技术存在的缺陷与不足,本发明提供了一种基于变分自动编码器的口令生成方法,该方法利用变分自动编码器的特征,通过学习某一个类口令集的分布特征进而生成与该分布相近的口令集,提升对该口令集的猜测准确率,实现对口令集的爆破。
本发明的第二目的在提供一种基于变分自动编码器的口令生成系统。
本发明的第三目的在于提供一种存储介质。
本发明的第四目的在于提供一种计算设备。
为了达到上述目的,本发明采用以下技术方案:
一种基于变分自动编码器的口令生成方法,包括下述步骤:
口令集预处理;
构建初始的变分自动编码器结构,所述变分自动编码器结构包括编码器和解码器,所述编码器的结构采用循环神经网络后接两个线性层,所述解码器的结构采用循环神经网络构建;
训练模型:所述编码器学习口令集的分布,编码后得到低维的隐藏向量,所述隐藏向量分别通过两个线性层计算得到参数均值和标准差,通过重参数计算得到潜在向量,所述解码器通过潜在向量重建数据,得到重建数据计算重建的数据集/>与输入的原始口令集的误差,然后通过训练减少误差;
模型优化:模型的优化器计算损失函数,将结果反馈给变分自动编码器模型的编码器和解码器,通过梯度下降算法调整循环神经网络和线性层的参数;
模型训练优化后得到最优的分布参数均值和标准差,得到对应口令集的近似分布;
将参数均值和标准差通过正态分布计算得到潜在空间的分布情况,将潜在向量和首字母向量输入解码器,输出口令数据。
作为优选的技术方案,所述口令集预处理的具体包括:数据清理、构建字典和文本矢量化表示;
所述数据清理具体步骤包括:清除口令集中长度超过预设值的口令,对无法编码的内容进行清洗;
所述构建字典具体步骤包括:对数据清理后的数据进行提取所用的字符,组成一个字典;
所述文本矢量化表示步骤包括:基于字典将使用的密码转换成one-hot向量表示。
作为优选的技术方案,还包括序列数据处理步骤,所述循环神经网络接收序列输入,通过输入初始隐藏向量h,在每一个时刻t,更新隐藏向量h和生成数据o;
所述隐藏向量h更新公式为:
ht=f(Uxt+Wht-1)
其中,f表示一个非线性的激活函数,U表示输入到隐含层的权重矩阵,W表示状态到隐含层的权重矩阵;
所述生成数据o的计算公式为:
ot=g(Vht)
其中,g表示非线性的激活函数。
作为优选的技术方案,所述通过重参数计算得到潜在向量,具体计算步骤为:
从标准正态分布N(0,1)中采样一个向量ε,使得z=mu+exp(logvar)*ε;
其中,z表示潜在向量。
作为优选的技术方案,所述模型的优化器计算损失函数,所述损失函数包括交叉熵损失函数与KL散度,分别用于衡量原始口令数据和重建后的口令数据的相似度,以及隐藏空间的分布与正态分布的相似度。
作为优选的技术方案,所述标准差的分布与正态分布之间的KL散度,具体计算公式为:
其中,N(μ,σ)表示标准差的分布,N(0,1)表示正态分布,μ表示参数均值,σ表示标准差。
作为优选的技术方案,所述梯度下降算法采用Adam算法。
为了到达上述第二目的,本发明采用以下技术方案:
一种基于变分自动编码器的口令生成系统,其特征在于,包括:预处理模块、变分自动编码器构建模块、模型训练模块、模型优化模块、最优参数提取模块和口令数据输出模块;
所述预处理模块用于口令集预处理;
所述变分自动编码器构建模块用于构建初始的变分自动编码器结构,所述变分自动编码器结构包括编码器和解码器,所述编码器的结构采用循环神经网络后接两个线性层,所述解码器的结构采用循环神经网络构建;
所述模型训练模块用于训练模型:所述编码器学习口令集的分布,编码后得到低维的隐藏向量,所述隐藏向量分别通过两个线性层计算得到参数均值和标准差,通过重参数计算得到潜在向量,所述解码器通过潜在向量重建数据,得到重建数据计算重建的数据集/>与输入的原始口令集的误差,然后通过训练减少误差;
所述模型优化模块用于模型优化:模型的优化器计算损失函数,将结果反馈给变分自动编码器模型的编码器和解码器,通过梯度下降算法调整循环神经网络和线性层的参数;
所述最优参数提取模块用于模型训练优化后得到最优的分布参数均值和标准差,得到对应口令集的近似分布;
所述口令数据输出模块用于将参数均值和标准差通过正态分布计算得到潜在空间的分布情况,将潜在向量和首字母向量输入解码器,输出口令数据。
为了达到上述第三目的,本发明采用以下技术方案:
一种存储介质,存储有程序,所述程序被处理器执行时实现上述基于变分自动编码器的口令生成方法。
为了达到上述第四目的,本发明采用以下技术方案:
一种计算设备,包括处理器和用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现上述基于变分自动编码器的口令生成方法。
本发明与现有技术相比,具有如下优点和有益效果:
(1)本发明采用了变分自动编码器的结构,能够有效的拟合输入口令集的分布情况,生成相似的口令,提高新生成的口令的匹配度。
(2)本发明引入了深度学习与变分自动编码器相结合的技术方案,能够利用深度学习的特点来更好的学习输入口令集的分布参数。
附图说明
图1为本实施例基于变分自动编码器的口令生成方法的流程示意图;
图2为本实施例变分自动编码器结构图;
图3为本实施例循环神经网络结构图;
图4为本实施例口令生成流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例
如图1所示,本实施例提供一种基于变分自动编码器的口令生成方法,包括下述步骤:
S1:对口令集进行预处理,具体包括数据清理,构建字典,文本矢量化表示步骤;
数据清理步骤中,首先统计数据集中的长度分布情况,本实施例选取了长度在6到18之间的口令作为实验数据,为多数网站规定的口令长度范围,清除数据集中长度过短或过长的口令,对数据集中的口令长度进行限制,同时对口令数据中的一些无用的、无法编码的内容进行清洗;
构建字典步骤中,对数据清理后的数据进行提取所用的字符,组成一个字典;
文本矢量化表示步骤中,通过使用构建字典步骤中得到的字典,将使用的密码转换成one-hot向量表示,这种表示能够很好的被模型所学习;
数据预处理,主要是清除数据集中长度过短或过长的口令,对数据集中的口令长度进行限制,同时对口令数据中的一些无用的、无法编码的内容进行清洗,对数据集进行清洗之后,用数据集中出现的字符构成字典,将数据集中的所有口令数据都转为数字向量表示,转化为数字向量才能够输入神经网络中训练;
S2:构建初始的变分自动编码器结构;
如图2所示,变分自动编码器结构包括编码器和解码器,其中编码器采用的结构是循环神经网络后接两个线性层,线性层的作用是用来学习构建分布所需要的参数:均值μ和标准差σ;解码器直接采用循环神经网络构建。
如图3所示,本实施例的循环神经网络是一种用于处理序列数据的神经网络结构,可以通过神经元之间的关联学习到序列前后的关系信息。RNN接收序列输入x=(x1,x2,...,xn),通过输入初始的隐含状态h,在每一个时刻t,能够得到新的隐藏向量h和一个生成数据o;隐藏向量h更新的数学公式为:ht=f(Uxt+Wht-1),其中f是一个非线性的激活函数,U为输入到隐含层的权重矩阵,W为状态到隐含层的权重矩阵;生成数据o的公式为:ot=g(Vht),其中g为非线性的激活函数,一般为softmax函数;图中的L代表损失函数,通过将真实数据y和生成数据o传入损失函数中可以计算出两者的差距,进而使用梯度下降算法来降低两者间的差距,使得生成的数据o更接近于y。
S3:训练模型:将预处理后的口令输入编码器中,学习相关参数,然后通过解码器生成对应的口令;
本实施例的变分自动编码器结构是一种生成式深度学习模型,变分自动编码器是自动编码器的一种改进版本,使得隐藏空间满足正态分布,本实施例通过编码器来学习输入口令集X的分布,将其编码后得到一个低维的隐藏向量h,这个隐藏向量h中包含了数据集的分布信息,然后隐藏向量h分别通过两个线性层计算得到参数均值μ和标准差σ,通过重参数计算得到潜在向量z,解码器通过潜在向量z重建数据,得到重建数据记为计算重建的数据集/>与输入的原始口令集X的误差,然后通过训练来减少误差,当误差小到一定程度的时候,说明变分自动编码器已经学习到了输入数据集的特征分布,能够重建输入数据;
训练模型的流程,具体包括:
S31:编码器处理数据:假设输入的口令数据为“Password12”,通过数据预处理之后转换为独热编码的向量,然后通过以RNN为基础结构的编码器之后,取最后一个隐藏向量h作为包含口令数据信息的向量;
S32:分布参数计算:将步骤S31取得的隐藏状态h分别传入两个线性层,得到正态分布所需要的参数均值μ和标准差σ;
S33:重参数:得到线性层计算出的参数均值μ和标准差σ进行重参数计算,在正态分布中随机采样一个向量ε,通过重参数计算得到潜在向量z;
重参数计算步骤如下:从标准正态分布N(0,1)中采样一个ε,然后使得z=mu+exp(logvar)*ε,得到的潜在向量z就是相当于从潜在空间中随机采样的一个向量;
S34:解码器重建数据:将采样向量z作为解码器的隐藏状态输入,并且输入一个首字符向量,经过解码器运算,生成重建后的口令数据;
S4:模型优化:模型的优化器计算损失函数,将结果反馈给变分自动编码器模型的编码器和解码器,通过梯度下降算法例如Adam等调整循环神经网络和线性层的参数,减少误差;
S41:计算损失函数,本实施例采用的损失函数包括交叉熵损失函数与KL散度,分别用来衡量原始口令数据和重建后的口令数据的相似度以及隐藏空间的分布与正态分布的相似度,这两个损失函数的值相加得到整个模型的损失函数;
本实施例采用的KL散度来度量两个分布之间的相似度,一个均值为μ,标准差为σ的分布与正态分布之间的KL散度数学公式具体为:
S42:通过优化算法例如Adam算法进行模型的优化;
S5:重复步骤S3和步骤S4,训练出最优的参数,得到对应于该数据集的近似分布;
训练过程中当模型训练次数达到设定好的次数,并且损失函数小到一定程度之后,停止训练,此时得到一个最优的分布参数均值μ和标准差σ,通过此参数可以来构建密码生成器,此时得到的模型即为最佳的变分自动编码器模型;
S6:如图4所示,通过步骤S5中得到的参数均值μ和标准差σ通过正态分布计算公式(其中x表示随机向量)能够得到潜在空间的分布情况,结合步骤S5中训练出的解码器,能够构建一个最大程度拟合输入数据集分布的口令生成模块,通过输入在正态分布中随机采样的向量ε能够在潜在空间进行得到潜在向量z,将潜在向量z和任意指定的首字母向量x0输入解码器,使得解码器能够输出相应的口令数据,通过该口令生成模块生成的口令数据在分布上与原始数据的分布能够最大程度上的接近。
完成上述步骤之后,即可学习到对应口令集的分布情况,并且生成相近的口令集。
本实施例还提供一种基于变分自动编码器的口令生成系统,包括:预处理模块、变分自动编码器构建模块、模型训练模块、模型优化模块、最优参数提取模块和口令数据输出模块;
所述预处理模块用于口令集预处理;
所述变分自动编码器构建模块用于构建初始的变分自动编码器结构,所述变分自动编码器结构包括编码器和解码器,所述编码器的结构采用循环神经网络后接两个线性层,所述解码器的结构采用循环神经网络构建;
所述模型训练模块用于训练模型:所述编码器学习口令集的分布,编码后得到低维的隐藏向量,所述隐藏向量分别通过两个线性层计算得到参数均值和标准差,通过重参数计算得到潜在向量,所述解码器通过潜在向量重建数据,得到重建数据计算重建的数据集/>与输入的原始口令集的误差,然后通过训练减少误差;
所述模型优化模块用于模型优化:模型的优化器计算损失函数,将结果反馈给变分自动编码器模型的编码器和解码器,通过梯度下降算法调整循环神经网络和线性层的参数;
所述最优参数提取模块用于模型训练优化后得到最优的分布参数均值和标准差,得到对应口令集的近似分布;
所述口令数据输出模块用于将参数均值和标准差通过正态分布计算得到潜在空间的分布情况,将潜在向量和首字母向量输入解码器,输出口令数据。
本实施例还提供一种存储介质,存储有程序,程序被处理器执行时实现上述基于变分自动编码器的口令生成方法。
本实施例还提供一种计算设备,包括处理器和用于存储处理器可执行程序的存储器,处理器执行存储器存储的程序时,实现本实施例的基于变分自动编码器的口令生成方法。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (8)
1.一种基于变分自动编码器的口令生成方法,其特征在于,包括下述步骤:
口令集预处理;
构建初始的变分自动编码器结构,所述变分自动编码器结构包括编码器和解码器,所述编码器的结构采用循环神经网络后接两个线性层,所述解码器的结构采用循环神经网络构建;
训练模型:所述编码器学习口令集的分布,编码后得到低维的隐藏向量,所述隐藏向量分别通过两个线性层计算得到参数均值和标准差,通过重参数计算得到潜在向量,所述解码器通过潜在向量重建数据,得到重建数据计算重建数据/>与输入的原始口令集的误差,然后通过训练减少误差;
模型优化:模型的优化器计算损失函数,将结果反馈给变分自动编码器模型的编码器和解码器,通过梯度下降算法调整循环神经网络和线性层的参数;
所述模型的优化器计算损失函数,所述损失函数包括交叉熵损失函数与KL散度,分别用于衡量原始口令数据和重建后的口令数据的相似度,以及隐藏空间的分布与正态分布的相似度;
所述标准差的分布与正态分布之间的KL散度,具体计算公式为:
其中,N(μ,σ)表示标准差的分布,N(0,1)表示正态分布,μ表示参数均值,σ表示标准差;
模型训练优化后得到最优的分布参数均值和标准差,得到对应口令集的近似分布;
将参数均值和标准差通过正态分布计算得到潜在空间的分布情况,将潜在向量和首字母向量输入解码器,输出口令数据。
2.根据权利要求1所述的基于变分自动编码器的口令生成方法,其特征在于,所述口令集预处理的具体包括:数据清理、构建字典和文本矢量化表示;
所述数据清理具体步骤包括:清除口令集中长度超过预设值的口令,对无法编码的内容进行清洗;
所述构建字典具体步骤包括:对数据清理后的数据进行提取所用的字符,组成一个字典;
所述文本矢量化表示步骤包括:基于字典将使用的密码转换成one-hot向量表示。
3.根据权利要求1所述的基于变分自动编码器的口令生成方法,其特征在于,还包括序列数据处理步骤,所述循环神经网络接收序列输入,通过输入初始隐藏向量h,在每一个时刻t,更新隐藏向量h和生成数据o;
所述隐藏向量h更新公式为:
ht=f(Uxt+Wht-1)
其中,f表示一个非线性的激活函数,U表示输入到隐含层的权重矩阵,W表示状态到隐含层的权重矩阵;
所述生成数据o的计算公式为:
Ot=g(Vht)
其中,g表示非线性的激活函数。
4.根据权利要求1所述的基于变分自动编码器的口令生成方法,其特征在于,所述通过重参数计算得到潜在向量,具体计算步骤为:
从标准正态分布N(0,1)中采样一个向量ε,使得z=mu+exp(log(var))*ε;
其中,z表示潜在向量。
5.根据权利要求1所述的基于变分自动编码器的口令生成方法,其特征在于,所述梯度下降算法采用Adam算法。
6.一种基于变分自动编码器的口令生成系统,其特征在于,包括:预处理模块、变分自动编码器构建模块、模型训练模块、模型优化模块、最优参数提取模块和口令数据输出模块;
所述预处理模块用于口令集预处理;
所述变分自动编码器构建模块用于构建初始的变分自动编码器结构,所述变分自动编码器结构包括编码器和解码器,所述编码器的结构采用循环神经网络后接两个线性层,所述解码器的结构采用循环神经网络构建;
所述模型训练模块用于训练模型:所述编码器学习口令集的分布,编码后得到低维的隐藏向量,所述隐藏向量分别通过两个线性层计算得到参数均值和标准差,通过重参数计算得到潜在向量,所述解码器通过潜在向量重建数据,得到重建数据计算重建的数据集与输入的原始口令集的误差,然后通过训练减少误差;
所述模型优化模块用于模型优化:模型的优化器计算损失函数,将结果反馈给变分自动编码器模型的编码器和解码器,通过梯度下降算法调整循环神经网络和线性层的参数;
所述模型的优化器计算损失函数,所述损失函数包括交叉熵损失函数与KL散度,分别用于衡量原始口令数据和重建后的口令数据的相似度,以及隐藏空间的分布与正态分布的相似度;
所述标准差的分布与正态分布之间的KL散度,具体计算公式为:
其中,N(μ,σ)表示标准差的分布,N(0,1)表示正态分布,μ表示参数均值,σ表示标准差;
所述最优参数提取模块用于模型训练优化后得到最优的分布参数均值和标准差,得到对应口令集的近似分布;
所述口令数据输出模块用于将参数均值和标准差通过正态分布计算得到潜在空间的分布情况,将潜在向量和首字母向量输入解码器,输出口令数据。
7.一种存储介质,存储有程序,其特征在于,所述程序被处理器执行时实现如权利要求1-5任一项所述的基于变分自动编码器的口令生成方法。
8.一种计算设备,包括处理器和用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器存储的程序时,实现权利要求1-5任一项所述的基于变分自动编码器的口令生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010716110.3A CN111966998B (zh) | 2020-07-23 | 2020-07-23 | 基于变分自动编码器的口令生成方法、系统、介质和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010716110.3A CN111966998B (zh) | 2020-07-23 | 2020-07-23 | 基于变分自动编码器的口令生成方法、系统、介质和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111966998A CN111966998A (zh) | 2020-11-20 |
CN111966998B true CN111966998B (zh) | 2023-07-18 |
Family
ID=73362638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010716110.3A Active CN111966998B (zh) | 2020-07-23 | 2020-07-23 | 基于变分自动编码器的口令生成方法、系统、介质和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111966998B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613027B (zh) * | 2020-12-16 | 2022-06-17 | 广州岸边网络科技有限公司 | 一种基于机器学习的多密码管理方法、设备及存储介质 |
US20220253681A1 (en) * | 2021-02-11 | 2022-08-11 | SK Hynix Inc. | Compact workload representation of memory system |
CN113012702A (zh) * | 2021-02-22 | 2021-06-22 | 鹏城实验室 | 语音盲水印注入方法、装置、设备及存储介质 |
CN113051873A (zh) * | 2021-03-22 | 2021-06-29 | 中国人民解放军战略支援部队信息工程大学 | 基于变分自编码器的轻量级口令猜测字典生成方法及装置 |
CN113505829B (zh) * | 2021-07-09 | 2024-04-26 | 南京大学 | 一种基于变分自编码器的表情序列自动生成方法 |
CN113467881B (zh) * | 2021-09-01 | 2021-11-16 | 南方电网数字电网研究院有限公司 | 图表样式自动化调整方法、装置、计算机设备和存储介质 |
CN114648048B (zh) * | 2022-04-01 | 2022-10-25 | 山东省人工智能研究院 | 基于变分自编码和PixelCNN模型的心电信号降噪方法 |
CN117116350B (zh) * | 2023-10-25 | 2024-02-27 | 中国农业科学院深圳农业基因组研究所(岭南现代农业科学与技术广东省实验室深圳分中心) | Rna测序数据的校正方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111241287A (zh) * | 2020-01-16 | 2020-06-05 | 支付宝(杭州)信息技术有限公司 | 用于生成对抗文本的生成模型的训练方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108959551B (zh) * | 2018-06-29 | 2021-07-13 | 北京百度网讯科技有限公司 | 近邻语义的挖掘方法、装置、存储介质和终端设备 |
CN109670303B (zh) * | 2018-12-26 | 2021-05-25 | 网智天元科技集团股份有限公司 | 基于条件变分自编码的密码攻击评估方法 |
CN109918477B (zh) * | 2019-02-18 | 2021-02-12 | 华南理工大学 | 一种基于变分自编码器的分布式检索资源库选择方法 |
CN110083710B (zh) * | 2019-04-30 | 2021-04-02 | 北京工业大学 | 一种基于循环神经网络与潜变量结构的词语定义生成方法 |
CN110874410A (zh) * | 2019-11-01 | 2020-03-10 | 河南理工大学 | 一种基于长短时记忆网络和卷积神经网络的文本分类方法 |
-
2020
- 2020-07-23 CN CN202010716110.3A patent/CN111966998B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111241287A (zh) * | 2020-01-16 | 2020-06-05 | 支付宝(杭州)信息技术有限公司 | 用于生成对抗文本的生成模型的训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111966998A (zh) | 2020-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111966998B (zh) | 基于变分自动编码器的口令生成方法、系统、介质和设备 | |
CN109829299B (zh) | 一种基于深度自编码器的未知攻击识别方法 | |
CN111160467B (zh) | 一种基于条件随机场和内部语义注意力的图像描述方法 | |
CN109003678B (zh) | 一种仿真文本病历的生成方法及系统 | |
CN114169330B (zh) | 融合时序卷积与Transformer编码器的中文命名实体识别方法 | |
CN113127931B (zh) | 基于瑞丽散度进行噪声添加的联邦学习差分隐私保护方法 | |
CN105938485B (zh) | 一种基于卷积循环混合模型的图像描述方法 | |
CN104850837B (zh) | 手写文字的识别方法 | |
CN109918671A (zh) | 基于卷积循环神经网络的电子病历实体关系抽取方法 | |
CN108536754A (zh) | 基于blstm和注意力机制的电子病历实体关系抽取方法 | |
CN109919864A (zh) | 一种基于稀疏去噪自编码网络的图像压缩感知方法 | |
CN107579816B (zh) | 基于递归神经网络的密码字典生成方法 | |
CN111127146A (zh) | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 | |
CN109857871A (zh) | 一种基于社交网络海量情景数据的用户关系发现方法 | |
CN113592007B (zh) | 一种基于知识蒸馏的不良图片识别系统、方法、计算机及存储介质 | |
CN116680343A (zh) | 基于融合多模态信息的实体和关系表示的链接预测方法 | |
CN107220180A (zh) | 一种基于神经网络语言模型的代码分类方法 | |
CN109994201B (zh) | 一种基于深度学习的糖尿病与高血压概率计算系统 | |
CN108171324A (zh) | 一种变分自编码混合模型 | |
CN113408430B (zh) | 基于多级策略和深度强化学习框架的图像中文描述系统及方法 | |
CN112149355B (zh) | 基于半监督动态反馈堆栈降噪自编码器模型的软测量方法 | |
CN112270344A (zh) | 一种基于cbam的图像描述生成模型方法 | |
CN112016097A (zh) | 一种预测网络安全漏洞被利用时间的方法 | |
CN115438753B (zh) | 一种基于生成的衡量联邦学习协议数据安全性的方法 | |
CN117392686A (zh) | 一种基于改进的动态图神经网络的不实信息检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |