CN113066034B - 人脸图像的修复方法与装置、修复模型、介质和设备 - Google Patents
人脸图像的修复方法与装置、修复模型、介质和设备 Download PDFInfo
- Publication number
- CN113066034B CN113066034B CN202110432456.5A CN202110432456A CN113066034B CN 113066034 B CN113066034 B CN 113066034B CN 202110432456 A CN202110432456 A CN 202110432456A CN 113066034 B CN113066034 B CN 113066034B
- Authority
- CN
- China
- Prior art keywords
- face
- image
- feature
- processing
- repaired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 128
- 238000012545 processing Methods 0.000 claims abstract description 126
- 238000006243 chemical reaction Methods 0.000 claims abstract description 102
- 230000008439 repair process Effects 0.000 claims abstract description 76
- 238000011282 treatment Methods 0.000 claims abstract description 14
- 230000008569 process Effects 0.000 claims description 54
- 239000003550 marker Substances 0.000 claims description 47
- 230000004927 fusion Effects 0.000 claims description 43
- 238000003860 storage Methods 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 16
- 238000006731 degradation reaction Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 12
- 230000015556 catabolic process Effects 0.000 claims description 9
- 238000007906 compression Methods 0.000 claims description 7
- 230000006835 compression Effects 0.000 claims description 6
- 230000003321 amplification Effects 0.000 claims description 5
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 13
- 230000006870 function Effects 0.000 description 52
- 238000010586 diagram Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Image Processing (AREA)
Abstract
本公开涉及人工智能技术领域,提供了一种人脸图像的修复方法与装置、人脸图像的修复模型、介质和设备。该方法包括:获取待修复图像,并获取待修复图像对应的人脸标记点图像;将待修复图像和人脸标记点图像输入至人脸图像的修复模型;基于人脸图像的修复模型对待修复图像和人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;将融合人脸特征进行卷积处理,并将人脸图像的修复模型的输出确定为待修复图像对应的修复后图像。本技术方案能够提升人脸修复准确度。
Description
技术领域
本公开涉及人工智能技术领域,具体而言,涉及一种人脸图像的修复方法与装置、一种人脸图像的修复模型,以及实现上述方法的计算机可读存储介质和电子设备。
背景技术
图像修复(image restoration)用于恢复图像的原来画面,具体是将降质图像重建成接近于或完全无退化的原始理想图像的过程。
相关技术中提供了一种超分辨率重建方法,利用常用的公开人脸数据集制作低分辨率和对应高分辨率的图像数据集,以训练机器学习模型来确定人脸超分模型。但是,图像超分处理过程造成的图像细节损失且无法恢复,导致人脸修复准确度较低。
可见,相关技术提供的方案的人脸修复准确度有待提高。
需要说明的是,上述背景技术部分公开的信息仅用于加强对本公开的背景的理解。
发明内容
本公开的目的在于提供一种人脸图像的修复方法与装置、一种人脸图像的修复模型,以及实现上述方法的计算机可读存储介质和电子设备,通过该方案提供的人脸修复方案,能够在一定程度上提升人脸修复的准确度。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种人脸图像的修复方法,包括:获取待修复图像,并获取上述待修复图像对应的人脸标记点图像;将上述待修复图像和上述人脸标记点图像输入至人脸图像的修复模型;基于上述人脸图像的修复模型对上述待修复图像和上述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;将上述融合人脸特征进行卷积处理,并将上述人脸图像的修复模型的输出确定为上述待修复图像对应的修复后图像。
根据本公开的一个方面,提供了一种人脸图像的修复模型,包括:第一卷积模块,被配置为:对待修复图像进行至少两次卷积处理,以得到人脸原始特征;第二卷积模块,被配置为:对人脸标记点图像进行至少两次卷积处理,以得到人脸标记特征;空间特征转换模块,被配置为:对上述待修复图像和上述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;第三卷积模块,被配置为:将上述融合人脸特征进行卷积处理,以得到上述待修复图像对应的修复后图像。
根据本公开的一个方面,提供了一种人脸图像的修复装置,包括:图像获取模块、图像输入模块、特征转换模块以及图像输出模块。
其中,上述图像获取模块,被配置为:获取待修复图像,并获取上述待修复图像对应的人脸标记点图像;上述图像输入模块,被配置为:将上述待修复图像和上述人脸标记点图像输入至人脸图像的修复模型;上述特征转换模块,被配置为:基于上述人脸图像的修复模型对上述待修复图像和上述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;以及,上述图像输出模块,被配置为:将上述融合人脸特征进行卷积处理,并将上述人脸图像的修复模型的输出确定为上述待修复图像对应的修复后图像。
在本公开的一些实施例中,基于前述方案,上述特征转换模块,包括:卷积子模块和融合子模块。
其中,上述卷积子模块被配置为:基于上述人脸图像的修复模型对上述待修复图像进行至少两次卷积处理,得到上述人脸原始特征;基于上述人脸图像的修复模型对上述人脸标记点图像进行至少两次卷积处理,得到上述人脸标记特征;上述融合子模块被配置为:基于上述人脸图像的修复模型对上述人脸原始特征和上述人脸标记特征进行N次空间特征转换处理,得到上述融合人脸特征,N为不小于2的正整数。
在本公开的一些实施例中,基于前述方案,上述融合子模块,包括:第一转换单元、第二转换单元和第三转换单元。
其中,上述第一转换单元被配置为:对上述人脸原始特征和上述人脸标记特征进行第i空间特征转换处理,得到第i融合人脸特征,i取值为小于N的正整数;上述第二转换单元被配置为:将上述第i融合人脸特征和上述人脸标记特征进行第i+1空间特征转换处理,得到第i+1融合人脸特征;上述第三转换单元被配置为:对上述第N融合人脸特征和上述人脸原始特征进行特征合并处理,并将合并处理后的特征与上述人脸标记特征进行第N空间特征转换处理,得到上述融合人脸特征。
在本公开的一些实施例中,基于前述方案,上述第一转换单元被具体配置为:将上述人脸原始特征和上述人脸标记特征进行第i组合处理,得到第i人脸组合特征;将上述第i人脸组合特征与上述人脸标记特征进行特征合并处理,得到上述第i融合人脸特征。
在本公开的一些实施例中,基于前述方案,上述第二转换单元被具体配置为:将上述第i融合人脸特征和上述人脸标记特征进行第i+1组合处理,得到第i+1人脸组合特征;将上述第i+1人脸组合特征与上述人脸标记特征进行特征合并处理,得到上述第i+1融合人脸特征。
在本公开的一些实施例中,基于前述方案,上述第二转换单元还被具体配置为:对上述第i融合人脸特征进行第i卷积处理,将卷积处理之后的第i融合人脸特征和上述人脸标记特征进行第i+1空间特征转换处理,得到上述第i+1融合人脸特征。
在本公开的一些实施例中,基于前述方案,上述第三转换单元被具体配置为:对上述第N融合人脸特征和上述人脸原始特征进行特征求和处理。
在本公开的一些实施例中,基于前述方案,上述图像获取模块被具体配置为:对上述待修复图像进行人脸检测以确定人脸区域;对上述待修复图像中的上述人脸区域进行人脸特征点检测,得到特征点数据;对上述特征点数据进行人脸对齐处理,将人脸对齐处理后图像中进行二值化处理,得到人脸标记点图像。
在本公开的一些实施例中,基于前述方案,上述装置还包括:样本确定模块和模型训练模块。
其中,上述样本确定模块被配置为:获取M组样本数据,第j组样本数据包括第j样本图像和上述第j样本图像对应的第j样本人脸标记点图像,M为正整数,j为不大于M的正整数;上述模型训练模块被配置为:将上述第j样本图像和上述第j样本人脸标记点图像输入至生成对抗网络的生成器网络,得到第j修复图像;根据上述第j样本图像和上述第j样本图像对应的目标图像确定第一损失函数;将上述第j修复图像和上述第j样本图像对应的目标图像输入至上述生成对抗网络的判别器网络,并根据上述判别器网络的输出确定第二损失函数;根据上述第一损失函数和上述第二损失函数训练上述生成对抗网络,得到上述人脸图像的修复模型。
在本公开的一些实施例中,基于前述方案,上述样本确定模块被具体配置为:获取分辨率满足预设值的图像作为第j组样本数据对应的目标图像;对上述第j组样本数据对应的目标图像进行降质处理,得到上述第j样本图像;对上述第j样本图像进行人脸检测以确定人脸区域;对上述第j样本图像中的上述人脸区域进行人脸特征点检测,得到特征点数据;对上述特征点数据进行人脸对齐处理,将人脸对齐处理后图像中进行二值化处理,得到上述第j样本人脸标记点图像;将上述第j样本图像和上述第j样本人脸标记点图像确定为上述第j组样本数据,得到M组样本数据。
在本公开的一些实施例中,基于前述方案,上述样本确定模块还被具体配置为:对上述第j组样本数据对应的目标图像进行以下降质处理中的一种或几种:图像模糊处理、下采样后再插值放大处理、噪声添加处理和压缩处理,得到上述第j样本图像。
根据本公开的一个方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的人脸图像的修复方法。
根据本公开的一个方面,提供一种电子设备,包括:一个或多个处理器;以及存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现上述第一方面所述的人脸图像的修复方法。
根据本公开的一个方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质中读取该计算机指令,处理器执行该计算机指令,使得该电子设备执行上述各个实施例中提供的人脸图像的修复方法。
由上述技术方案可知,本公开示例性实施例中的人脸图像的修复方法、人脸图像的修复装置、人脸图像的修改模型、计算机可读存储介质及电子设备至少具备以下优点和积极效果:
在本公开的一些实施例所提供的技术方案中,先获取待修复图像对应的人脸标记点图像,并将待修复图像和应的人脸标记点图像均输入至人脸图像的修复模型,进一步地,基于人脸图像的修复模型对上述两方面信息(待修复图像及其对应的人脸标记点图像)进行至少两次空间特征转换处理,得到融合人脸特征。可见,在基于人脸图像的修复模型对待修复图像进行图像修复的过程中多次考虑了人脸标记点信息,从而在基于人脸标记点的基础上进行人脸修复,进而提供了人脸修复过程的人脸标记点特征支持,有利于提升人脸修复准确度。
本公开应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
在附图中:
图1示出了可以应用本公开实施例的技术方案的示例性系统架构的示意图。
图2示出本公开一示例性实施例中人脸图像的修复方法的流程示意图。
图3示出本公开一示例性实施例中人脸图像的修复模型的训练方法的流程示意图。
图4示出本公开一示例性实施例中样本数据的确定方法的流程示意图。
图5示出本公开一示例性实施例中人脸标记点图像的确定方法的流程示意图。
图6示出本公开一示例性实施例中人脸图像的修复模型的训练场景示意图。
图7示出本公开一示例性实施例中人脸图像的修复模型的使用场景示意图。
图8示出本公开一示例性实施例中空间转换处理方法的流程示意图。
图9示出本公开另一示例性实施例中人脸图像的修复模型的使用场景示意图。
图10示出另一示例性实施例中空间转换处理方法的流程示意图。
图11示出再一示例性实施例中空间转换处理方法的流程示意图。
图12示出一示例性实施例中空间转换处理场景示意图。
图13示出本公开一示例性实施例中人脸图像的修复模型的结构示意图。
图14示出本公开一示例性实施例中人脸图像的修复装置的结构示意图。
图15示出本公开示例性实施例中电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、迁移学习、归纳学习、式教学习等技术。
本公开实施例提供的方案涉及人工智能的机器学习等技术,具体通过如下实施例进行说明:
在示例性的实施例中,本技术方案的使用场景可以是:对于在由于光线不足(也称作“暗光环境”、“弱光环境”)的情况下拍摄出来的缺乏暗部细节的模糊图像的修复。还可以是对于年代较久的影片,由于当时的拍摄技术欠佳导致影片中画面清晰度较差的图像修复,等。
一种相关技术中,根据训练图像样本数据的低秩与稀疏特性,确定训练图像样本数据的联合低秩与稀疏主成分特征以及错误矩阵,实现对原始可能包含错误图像进行修复与去噪处理得到修复图像。但是该技术的作用对象仅限于图像而不包含视频,因此对人脸图像的修复针对性差。同时,该方案对于图像中人脸的修复效果较差,原因在于若对图像/视频中人脸进行修复,则需补充、添加一些纹理和线条比如:头发丝,睫毛,皮肤的纹路等等,而该方法无法实现。
另一种相关技术中,如前所述,通过超分辨率处理使得图像(包括人脸)轮廓相对更清晰,但图像超分辨率必然损失图像的内容和细节且无法恢复,同时该方案无法对由于噪声、模糊或压缩造成的图像/视频进行修复,可见适用范围较小。另外,目前只针对人脸进行的超分辨率的模型,需要对人脸进行检测、裁剪、校正、旋转等一系列前处理和后处理工作,且一个模型每次只能处理一张人脸,当同一张图像中出现多个人脸时,人脸修复效率低下。
针对上述技术问题,本技术方案提供一种人脸图像的修复方法与装置、一种人脸图像的修复模型,以及实现上述方法的计算机可读存储介质和电子设备。示例性的,图1示出了可以应用本公开实施例的技术方案的示例性系统架构的示意图。
如图1所示,系统架构100可以包括终端110、网络120、服务器130。其中,终端110和服务器130通过网络120连接。
终端110可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。网络120可以是能够在终端110和服务器130之间提供通信链路的各种连接类型的通信介质,例如可以是有线通信链路、无线通信链路或者光纤电缆等等,本申请在此不做限制。服务器130可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。其中,本方案对于上述服务器和上述终端的数量不作限制。
具体地,服务器130可以提供本方案中生成对抗网络的训练以得到人脸图像的修复模型,进而实现对待修复图像的修复。示例性的,通过服务器130获取待修复图像以及该待修复图像对应的人脸标记点图像。进一步地,将将上述待修复图像和上述人脸标记点图像输入至存储在服务器130的人脸图像的修复模型。进一步地,基于所述人脸图像的修复模型。服务器130执行以下步骤:对待修复图像和人脸标记点图像进行至少两次空间特征转换处理得到融合人脸特征;以及,将融合人脸特征进行卷积处理。最终,将人脸图像的修复模型的输出确定为上述待修复图像对应的修复后图像。
示例性的,服务器130还可以修复后图像发送至客户端110,进而便于用户通过客户端查看修复后的图像或视频。同时,还可以将修复后图像存储至服务器130,以便后期查阅。
示例性的,服务器130还可以基于样本数据实现对生成对抗网络模型的训练,进而确定上述人脸图像的修复模型。可以训练后得到的人脸图像的修复模型存储于服务器130,还可以将训练后得到的人脸图像的修复模型果存储至服务端110,以便于无需与服务端进行数据交互便可以通过客户端自身完成人脸图像的修复。
可见,本公开实施例中的人脸图像的修复方法也可以应用于终端。本公开对此不做特殊限定。本公开实施例主要以人脸图像的修复方法应用于服务器130来举例说明。
接下来介绍本技术方案提供的人脸图像的修复方法。其中,图2示出本公开一示例性实施例中人脸图像的修复方法的流程示意图。参考图2,该实施例提供的人脸图像的修复方法,包括:
步骤S210,获取待修复图像,并获取所述待修复图像对应的人脸标记点图像;
步骤S220,将所述待修复图像和所述人脸标记点图像输入至人脸图像的修复模型;
步骤S230,基于所述人脸图像的修复模型对所述待修复图像和所述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;以及,
步骤S240,将所述融合人脸特征进行卷积处理,并将所述人脸图像的修复模型的输出确定为所述待修复图像对应的修复后图像。
在本公开的一些实施例所提供的技术方案中,先获取待修复图像对应的人脸标记点图像,并将待修复图像和应的人脸标记点图像均输入至人脸图像的修复模型,进一步地,基于人脸图像的修复模型对上述两方面信息(待修复图像及其对应的人脸标记点图像)进行至少两次空间特征转换处理,得到融合人脸特征。可见,在基于人脸图像的修复模型对待修复图像进行图像修复的过程中多次考虑了人脸标记点信息,从而在基于人脸标记点的基础上进行人脸修复,进而提供了人脸修复过程的人脸标记点特征支持,有利于提升人脸修复准确度。
同时,本方案针对人脸进行图像修复,从而具有较高的修复针对性。另外,本方案不需要对图像中的人脸进行裁剪校正等一系列操作,且能够同时对图像中的多个人脸同时进行修复,有效提升修复效率。
在示例性的实施例中,本技术方案基于人脸图像的修复模型实现,因此本实施例中先介绍人脸图像的修复模型的确定方案。示例性的,图3示出本公开一示例性实施例中人脸图像的修复模型的训练方法的流程示意图。参考图3,该实施例提供的人脸图像的修复模型的训练方法,包括:
步骤S310,获取M组样本数据,第j组样本数据包括第j样本图像和所述第j样本图像对应的第j样本人脸标记点图像,M为正整数,j为不大于M的正整数。
作为步骤S310的一种具体实施方式,图4示意性示出了样本数据的确定方法的流程示意图。参考图4,包括:
步骤S410,获取分辨率满足预设值的图像作为第j组样本数据对应的目标图像。步骤S420,对所述第j组样本数据对应的目标图像进行降质处理,得到所述第j样本图像。
在示例性的实施例中,鉴于人脸图像的修复模型用于将低质量的图像修复为较高质量(如,将分辨率较低的图像修复为分辨率较高的图像),因此,该模型的样本为分辨率较低的图像。进一步地,为了在训练该模型的过程中计算损失,每个低分辨率的图像应对应一高分辨率的目标图像,以通过计算修复后图像与目标图像之间的差距来衡量当前模型修复能力。因此,本实施例中,获取分辨率满足预设值的图像(超高清的人脸图像),并进一步地对其进行降质处理,从而将降质处理后的图像作为样本图像,将对应的降质处理之前的人脸图像作为目标图像。
在示例性的实施例中,上述分辨率满足预设值的图像(目标图像)可以之间从高清视频中获取。示例性的,获取样本视频,对该样本视频的视频帧进行抽帧处理以在样本视频中分离出视频帧,然后间隔一定帧抽取出若干帧的方式得到上述目标图像。
需要说明的是,获取上述目标图像时可以直接过去包含人脸的图像。在通过从视频中通过抽帧获取上述目标图像时,为了增加数据处理效率,可以暂不考虑目标图像中是否包含人脸,可以在步骤S430通过人脸检测算法来确定目标图像对应的样本图像中是否包含人脸。若不包含则筛除该样本图像以及对应的目标图像。
在示例性的实施例中,通过目标图像进行以下降质处理中的一种或几种:图像模糊处理、下采样后再插值放大处理、噪声添加处理和压缩处理,得到对应的样本图像。以下分别对每一种处理进行详细介绍:
(1)图像模糊处理
对图像随机进行高斯模糊或运动模糊;高斯模糊本质上是一种数据平滑处理,运动模糊是静态场景或一系列的图片像电影或是动画中快速移动的物体造成明显的模糊拖动痕迹。这两种模糊都是普遍应用的模糊方法。
高斯模糊是一种图像模糊滤波器,它用正态分布计算图像中每个像素的变换。N维空间正态分布方程为公式(1)。
在二维空间定义为公式(2)。
其中r是模糊半径,σ是正态分布的标准偏差。在二维空间中,这个公式生成的曲面的等高线是从中心开始呈正态分布的同心圆。分布不为零的像素组成的卷积矩阵与原始图像做变换。每个像素的值都是周围相邻像素值的加权平均。原始像素的值有最大的高斯分布值,所以有最大的权重,相邻像素随着距离原始像素越来越远,其权重也越来越小。
高斯模糊中,高斯核大小的选取,影响模糊程度,高斯核越大,模糊越大。经过实验,每张图在进行高斯模糊时,高斯核大小在3-15中的奇数中随机取值。关于运动模糊原理:
假设有一清晰平面图片y(x),能够观察到其模糊后的图片(y*psf)(x)为已知的点扩散函数PSF(Point Spread Function),*表示卷积(convolution)。假设此卷积为离散且有噪声,观察到的图片可表示成:z(x)=(y*psf)(x)+ε(x),其中,ε(x)表示噪声。x为分布在整齐的n1*n2格子X中,X={k1,k2:k1=1,2,…,n1,k2=1,2,…,n2}。
其中,最简单的动态模糊模型可用直线型点扩散函数以离散卷积形式表示为:
psf(x1,x2)=0,otherwise.
L为核kernel的长度,由运动速率决定,斜率则由运动方向决定。此模型假设图片中的所有像素的移动皆相同。经过实验,每张图在进行运动模糊时,L在1-20中随机选取,运动方向为0-90度随机选取。
(2)下采样后再插值放大处理
对图像进行下采样,下采样的程度在2-4中随机选取,下采样后再对图像进行放大到原来的尺寸,放大的方法随机选取以下以下任一种:双线性插值,双三次插值和最近邻插值。
(3)噪声添加处理
将处理后的图像加入高斯噪声,噪声均值为1-20中随机选取。
(4)压缩处理
示例性的,将图像保存为jpeg格式,需要注意的是,需要设定jpeg压缩质量参数为45-90。
鉴于本技术方案在对低质量的图像进行修复时,输入模型的不仅包括待修复图像还包括该图像对应的人脸标记点图像。因此,在通过上述降质处理之后,还需获取样本图像对应的人脸标记点图像(记作“样本人脸标记点图像”),并将该样本图像和对应的人脸标记点图像作为一组样本数据。
示例性的,继续参考图4,在降质处理之后,执行:步骤S430-步骤S460。
在步骤S430中,对所述第j样本图像进行人脸检测以确定人脸区域。
在示例性的实施例中,对于样本图像,可以通过人脸检测算法在上述样本图像中框出人脸区域。示例性的,为了提升图像处理效率可以采用MTCNN(Multi-taskconvolutional neural network,多任务卷积神经网络)处理上述样本数据。其中,MTCNN是通过CNN模型级联实现了多任务学习网络,示例性的,通过一个浅层的CNN网络快速产生一系列的候选窗口,进一步地通过一个能力更强的CNN网络过滤掉绝大部分非人脸候选窗口,则可以得到样本图像中的人脸区域。同时,还可以对多个样本图像并行处理多个样本图像,进而快速地确定出多个样本图像中的人脸区域。
在步骤S440中,对所述第j样本图像中的所述人脸区域进行人脸特征点检测,得到特征点数据。以及,在步骤S450中,对所述特征点数据进行人脸对齐处理,将人脸对齐处理后图像中进行二值化处理,得到所述第j样本人脸标记点图像。
本实施例中通过对人脸的特征点定位(landmark localization),也被称为人脸对齐(face alignment),以通过人脸对齐处理之后图像的人脸特征数据来提升人脸图像的修复模型的修复准确度。示例性的,可以通过人脸对齐网络(Face Alignment Network,FAN)实现人脸特征点的检测。如图5络采用4个级别的处理层次,第一级别作用是通过边界框bounding box 52获得样本图像51面部的边界,分别为面内部边界521和轮廓边界框522。第二级别层次确定边界的标记点53的预测位置,具备包括属于面内部边界521的内部标记点(如图5中531)的预测位置,以及属于轮廓边界框522的轮廓标记点(如图5中532)的预测位置,从而实现人脸标记点的粗定位。并可以作为第三级别层次的初始化,进一步地,第三级别会根据不同的器官对内部标记点(如图5中54)进行从粗到细的定位(如图5中55)。第四级别层次是将第三级别处理后的定位点进行旋转,最终将标准化的内部标记点和轮廓标记点的坐标输出(如图5中56)。其中,可将内部标记点和轮廓标记点统称为“人脸标记点”。
进一步地,人脸对齐处理后图像中进行二值化处理,得到该样本图像对应的样本人脸标记点图像。示例性的,对于人脸标记点的坐标,构建一二维的图像,该二维图像的宽和高则为输入图像的宽和高,将人脸标记点坐标的相应位置标记为1,其余位置标记为0,形成最终的人脸标记点二值图像。
然后执行步骤S460:将所述第j样本图像和所述第j样本人脸标记点图像确定为所述第j组样本数据,得到M组样本数据。
在示例性的实施例中,继续参考图3,在确定上述M组样本数据之后,在步骤S320中,将所述第j样本图像和所述第j样本人脸标记点图像输入至生成对抗网络的生成器网络,得到第j修复图像。
示例性的,本技术方案中采用生成对抗网络来确定上述人脸图像的修复模型。参考图6,对于任一组样本数据(如记作第j样本图像)包括样本图像A以及样本图像A对应的样本人脸标记点图像a,将样本图像A和样本人脸标记点图像a输入生成对抗网络的生成器网络610,经过生成器网络610基于样本人脸标记点图像a对样本图像A进行修复之后,生成器网络610输出样本图像A对应的修复图像A’。
进一步地,在步骤S330中,根据所述第j样本图像和所述第j样本图像对应的目标图像确定第一损失函数。
参考图6,其中,上述样本图像对应的目标图像为图像B。本实施例中,为了衡量当前模型的模型修复能力,通过修复图像与目标图像之间对影像素的像素差来确定第一损失函数。具体地,根据样本图像A和样本图像A对应的目标图像B确定第一损失函数,具体可以根据公式(3)确定上述第一损失函数。
L1=||It-G(Is)|| (3)
其中,It表示目标图像(如图6中的目标图像B),Is表示样本图像(如图6中的样本图像A)。其中,It经过降质处理之后得到图像Is。G()表示生成器网络,G(Is)表示网络的输出(如图6中的修复图像A’)。上述第一损失函函数的优化目标为:minL1。
本技术方案中,除了通过修复图像与目标图像之间对影像素的像素差来确定的第一损失函数之外,还考虑生成对抗网络的模型损失。示例性的,参考图3,在步骤S340中,将所述第j修复图像和所述第j样本图像对应的目标图像输入至所述生成对抗网络的判别器网络,并根据所述判别器网络的输出确定第二损失函数。具体地参考图6,将修复图像A’和样本图像A对应的目标图像B输入至生成对抗网络的判别器网络620,并根据判别器网络620的输出确定第二损失函数。
第二损失函数LGAN表示生成对抗网络损失,具体如公式(4):
LGAN=-∑logD(It,G(Is)) (4)
其中,D()表示为生成对抗网络中的判别器网络,判别器网络用于判决生成器网络输出的修复图像是否真实。上述第二损失函函数的优化目标为:minGmaxDLGAN。
在示例性的实施例中,在确定上述两种损失之后,执行步骤S350:根据所述第一损失函数和所述第二损失函数训练所述生成对抗网络,得到所述人脸图像的修复模型。示例性的,通过公式(5)确定模型的整体损失函数。
L=L1╳w1+LGAN╳w2 (5)
可见,本实施例中,可以通过对上述第一损失函数和上述第二损失函数进行加权计算的方式来确定该模型的整体损失函数。具体的,确定第一损失函数L1的第一权重w1和第二损失函数LGAN的第二权重w2,其中第一权重和第二权重为归一化权重。示例性的,在第一损失函数对模型总损失的影响与第二损失函数对模型总损失的影响相同时,上述第一权重和上述第二权重均可以取值为0.5,进一步地,计算第一权重和第一损失函数的乘积,以及第二权重和第二损失函数的乘积,并根据两乘积之和确定该模型损失函数。其中,该模型损失函数中涵盖了两方面损失,且能够通过权重灵活调整不同损失对总损失的影响。
示例性的,上述归一化后的权重取值可以为:w1=2/3,w2=1/3。
示例性的,还可以直接将上述第一模型损失和上述第二模型损失相加求和的方式来确定上述模型损失函数。
需要说明的是,根据上述第一损失函数和上述第二损失函数确定模型损失函数的具体实施方式不限于上述几种,即本方案中模型损失函数中需涵盖上述两方面损失,且对上述第一损失函数和第二损失函数进行结合的方式不作限定。
在示例性的实施例中,可以采用梯度下降法或Adam优化算法来优化上述模型损失函数,以使得人脸图像的修复模型具有较高的修复准确率。
在训练后的模型收敛之后,则可以将上述生成器网络610作为人脸图像的修复模型(参考图7中的人脸图像的修复模型700),以进行低质量人脸图像的修复。
以下实施例中对图2所示实施例的各个步骤的具体实施方式进行详细阐述:
步骤S210中,获取待修复图像,并获取所述待修复图像对应的人脸标记点图像。
示例性的,上述待修复图像为分辨率较低的包含人脸的图像。例如可以是:由于光线不足(也称作“暗光环境”、“弱光环境”)的情况下拍摄出来的缺乏暗部细节的模糊图像,也可以是:由于当时的拍摄技术欠佳导致影片中画面清晰度较差的图像。本技术方案对此不作限定。
示例性的,鉴于本技术方案在对低质量的待修复图像进行修复时,输入模型的不仅包括待修复图像还包括该图像对应的人脸标记点图像。因此,在将上述待修复图像输入人脸图像的修复模型之前,还需获取待修复图像对应的人脸标记点图像。由于获取人脸编辑点图像的具体实施方式在步骤S430、步骤S440以及步骤S450中进行了介绍,因此在此不再赘述。
示例性的,在得到待修复图像以及其对应的人脸标记点图像之后,执行步骤S220:参考图7,将待修复图像X以及其对应的人脸标记点图像x输入至人脸图像的修复模型700,以通过人脸图像的修复模型700对待修复图像X和所述人脸标记点图像x进行至少两次空间特征转换处理,得到融合人脸特征(步骤S230)。
作为步骤S230的一种具体实施方式,图8和图9分别示意性示出了一实施例中融合人脸特征的确定方法的流程示意图。其中,图9所示内容可以作为图7所示内容的具体化。以下结合图9介绍图8中各个步骤的具体实施方式。
为了获取图像特征以基于提取到的图像特征进行修复过程的计算,本方案通过卷积处理的方式分别获取待修复图像和人脸标记点图像的特征。具体的:在步骤S810中,基于所述人脸图像的修复模型对所述待修复图像进行至少两次卷积处理,得到所述人脸原始特征。以及,在步骤S820中,基于所述人脸图像的修复模型对所述人脸标记点图像进行至少两次卷积处理,得到所述人脸标记特征。
在示例性的实施例中,参考图9,对于输入人脸图像的修复模型700的待修复图像X,经过卷积层conv(3,64,3,1)71(需要说明的是图9中示出了一层,此处可以是至少两层卷积层conv(3,64,3,1))之后可以得到人脸原始特征。其中,conv(3,64,3,1)表示该卷积层的输入为3个通道,输出为64个通道,卷积核的大小为3,步长为1。对于输入人脸图像的修复模型700的待修复图像X对应的人脸标记点图像x’,经过卷积层conv(1,128,1,1)77、卷积层conv(128,128,1,1)78、卷积层conv(128,128,1,1)78’、卷积层conv(128,128,1,1)78”以及卷积层conv(128,128,1,1)79之后可以得到人脸标记特征x’。其中,为了提取人脸标记点图像中的深层次特征,以为修复过程提供较深层次标记特征作为参考,因此本方案设置多个卷积层对人脸标记点图像进行特征提取。
进一步地,为了将深层次标记特征(如图9中人脸标记点图像x’)融入至待修复图像中,本技术方案通过人脸图像的修复模型的空间特征转换模块执行至少两次空间特征转换处理。参考图8,在步骤S830中,基于所述人脸图像的修复模型对所述人脸原始特征和所述人脸标记特征进行N次空间特征转换处理,得到所述融合人脸特征,N为不小于2的正整数。
作为步骤S830的一种具体实施方式,图10示意性示出了再一实施例中融合人脸特征的确定方法的流程示意图。参考图10,包括:
步骤S1010,对所述人脸原始特征和所述人脸标记特征进行第i空间特征转换处理,得到第i融合人脸特征,i取值为小于N的正整数。步骤S1020,将所述第i融合人脸特征和所述人脸标记特征进行第i+1空间特征转换处理,得到第i+1融合人脸特征。步骤S1030,对所述第N融合人脸特征和所述人脸原始特征进行特征合并处理,并将合并处理后的特征与所述人脸标记特征进行第N空间特征转换处理,得到所述融合人脸特征。
示例性的,参考图9,本实施例分别通过空间特征转换模块710、空间特征转换模块720以及空间特征转换模块730进行了三次空间特征转换处理。具体的:
对于上述人脸原始特征和上述人脸标记特征x’,通过人脸图像的修复模型700的空间特征转换模块710进行第一次空间特征转换处理。为了将深层次标记特征(如图9中人脸标记点图像x’)融入至待修复图像中,示例性的,对于空间特征转换模块710输出的特征再经过卷积层conv(64,64,3,1)72之后,再次与人脸标记特征x’,通过空间特征转换模块720进行第二次空间特征转换处理。更进一步地,考虑到多次卷积有可能造成人脸原始特征的丢失,因此在通过空间特征转换模块730进行第三次空间特征转换处理的过程中,将人脸原始特征与融合人脸特征合并(例如,将人脸原始特征与卷积层conv(64,64,3,1)73输出的融合人脸特征进行求和)之后,再与人脸标记特征x’进行空间特征转换处理。通过多次考虑人脸标记特征,可以有效提升图像修复准确度,同时,在最后一次进行空间特征转换处理时,重新引入了人脸原始特征,以避免特征丢失,有利于进一步提升修复准确度,起到更逼真的修复效果。
需要说明的是,为了尽量避免下采样导致的原始特征丢失,在上述实施例中在最后一次进行空间特征转换处理时引入人脸原始特征。但是本方案不限于最后一次进行空间特征转换处理时引入人脸原始特征,也可以是在倒数第二次进行空间特征转换时引入人脸原始特征,本方案对此不做限定。
其中,关于步骤S1010的具体实施方式可以如图11所示,包括:步骤S1110,将所述人脸原始特征和所述人脸标记特征进行第i组合处理,得到第i人脸组合特征。以及,步骤S1120,将所述第i人脸组合特征与所述人脸标记特征进行特征合并处理,得到所述第i融合人脸特征。
示例性的,图12示出了任一个空间特征转换模块对应的数据处理过程。结合图12对步骤S1110和步骤S1120的实施方式解释说明,以发生在空间特征转换模块710进行第一次空间特征转换处理为例:本实施例中,先对人脸标记特征122进行卷积处理得到深度人脸标记特征123,进一步地,将人脸原始特征121和深度人脸标记特征123进行组合处理(如图12所示的特征点乘),得到人脸组合特征124,从而实现人脸标记特征与人脸原始特征的组合。进一步地,为了避免人脸标记特征的丢失,将深度人脸标记特征123与上述人脸组合特征124进行特征合并处理(如图12所示的特征相加),得到融合人脸特征125。
参考图9,以发生在空间特征转换模块720进行第二次空间特征转换处理为例:本实施例中,先对人脸标记特征122进行卷积处理得到深度人脸标记特征123,进一步地,将卷积层conv(64,64,3,1)72输出的融合人脸特征121和深度人脸标记特征123进行组合处理(如图12所示的特征点乘),得到人脸组合特征124,从而实现人脸标记特征与人脸原始特征的组合。进一步地,为了避免人脸标记特征的丢失,将深度人脸标记特征123与上述人脸组合特征124进行特征合并处理(如图12所示的特征相加),得到融合人脸特征125。
参考图9,再以发生在空间特征转换模块730进行第三次空间特征转换处理为例:本实施例中,先对人脸标记特征122进行卷积处理得到深度人脸标记特征123,进一步地,将卷积层conv(64,64,3,1)73输出的融合人脸特征和人脸原始特征进行合并处理之后的特征121和深度人脸标记特征123进行组合处理(如图12所示的特征点乘),得到人脸组合特征124,从而实现人脸标记特征与人脸原始特征的组合。进一步地,为了避免人脸标记特征的丢失,将深度人脸标记特征123与上述人脸组合特征124进行特征合并处理(如图12所示的特征相加),得到融合人脸特征125。
再次参考图9,对于空间特征转换模块730输出的融合人脸特征,在经过卷积层conv(64,64,3,1)74、卷积层conv(64,64,3,1)75以及卷积层conv(64,64,3,1)76依次进行卷积处理之后,人脸图像的修复模型700输出上述待修复图像X对应的修复后图像X’。
本技术方案中,先获取待修复图像对应的人脸标记点图像,并将待修复图像和应的人脸标记点图像均输入至人脸图像的修复模型,进一步地,基于人脸图像的修复模型对上述两方面信息(待修复图像及其对应的人脸标记点图像)进行至少两次空间特征转换处理,得到融合人脸特征。可见,在基于人脸图像的修复模型对待修复图像进行图像修复的过程中多次考虑了人脸标记点信息,从而在基于人脸标记点的基础上进行人脸修复,进而提供了人脸修复过程的人脸标记点特征支持,有利于提升人脸修复准确度。同时,本方案针对人脸进行图像修复,从而具有较高的修复针对性。另外,本方案不需要对图像中的人脸进行裁剪校正等一系列操作,且能够同时对图像中的多个人脸同时进行修复,有效提升修复效率。
本领域技术人员可以理解实现上述实施方式的全部或部分步骤被实现为由处理器,(包括GPU/CPU)执行的计算机程序。在该计算机程序被GPU/CPU执行时,执行本公开提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
以下通过图13介绍本公开的人脸图像的修复模型的实施例,可以用于执行本公开上述的人脸图像的修复方法。
图13示出本公开示例性实施例中人脸图像的修复模型的结构示意图。如图13所示,上述人脸图像的修复模型1300包括:第一卷积模块1301、第二卷积模块1302、空间特征转换模块1303以及第三卷积模块1304。
其中,上述第一卷积模块1301,被配置为:对待修复图像进行至少两次卷积处理,以得到人脸原始特征;示例性的,参考图9中的卷积层conv(3,64,3,1)71。上述第二卷积模块1302,被配置为:对人脸标记点图像进行至少两次卷积处理,以得到人脸标记特征;示例性的,参考图9中的卷积层conv(1,128,1,1)77、卷积层conv(128,128,1,1)78、卷积层conv(128,128,1,1)78’、卷积层conv(128,128,1,1)78”以及卷积层conv(128,128,1,1)79。上述空间特征转换模块1303,被配置为:对上述待修复图像和上述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;示例性的,参考图9中的空间特征转换模块710、空间特征转换模块720以及空间特征转换模块730。上述第三卷积模块1304,被配置为:将上述融合人脸特征进行卷积处理,以得到上述待修复图像对应的修复后图像。示例性的,参考图9中的卷积层conv(64,64,3,1)74、卷积层conv(64,64,3,1)75以及卷积层conv(64,64,3,1)76。
上述人脸图像的修复模型中各模块的具体细节已经在人脸图像的修复方法中进行了详细的描述,因此此处不再赘述。
以下通过图14介绍本公开的人脸图像的修复装置实施例,可以用于执行本公开上述的人脸图像的修复方法。
图14示出本公开示例性实施例中人脸图像的修复装置的结构示意图。如图14所示,上述人脸图像的修复装置1400包括:图像获取模块1401、图像输入模块1402、特征转换模块1403以及图像输出模块1404。
其中,上述图像获取模块1401,被配置为:获取待修复图像,并获取上述待修复图像对应的人脸标记点图像;上述图像输入模块1402,被配置为:将上述待修复图像和上述人脸标记点图像输入至人脸图像的修复模型;上述特征转换模块1403,被配置为:基于上述人脸图像的修复模型对上述待修复图像和上述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;以及,上述图像输出模块1404,被配置为:将上述融合人脸特征进行卷积处理,并将上述人脸图像的修复模型的输出确定为上述待修复图像对应的修复后图像。
在本公开的一些实施例中,基于前述方案,上述特征转换模块1403,包括:卷积子模块和融合子模块。
其中,上述卷积子模块被配置为:基于上述人脸图像的修复模型对上述待修复图像进行至少两次卷积处理,得到上述人脸原始特征;基于上述人脸图像的修复模型对上述人脸标记点图像进行至少两次卷积处理,得到上述人脸标记特征;上述融合子模块被配置为:基于上述人脸图像的修复模型对上述人脸原始特征和上述人脸标记特征进行N次空间特征转换处理,得到上述融合人脸特征,N为不小于2的正整数。
在本公开的一些实施例中,基于前述方案,上述融合子模块,包括:第一转换单元、第二转换单元和第三转换单元。
其中,上述第一转换单元被配置为:对上述人脸原始特征和上述人脸标记特征进行第i空间特征转换处理,得到第i融合人脸特征,i取值为小于N的正整数;上述第二转换单元被配置为:将上述第i融合人脸特征和上述人脸标记特征进行第i+1空间特征转换处理,得到第i+1融合人脸特征;上述第三转换单元被配置为:对上述第N融合人脸特征和上述人脸原始特征进行特征合并处理,并将合并处理后的特征与上述人脸标记特征进行第N空间特征转换处理,得到上述融合人脸特征。
在本公开的一些实施例中,基于前述方案,上述第一转换单元被具体配置为:将上述人脸原始特征和上述人脸标记特征进行第i组合处理,得到第i人脸组合特征;将上述第i人脸组合特征与上述人脸标记特征进行特征合并处理,得到上述第i融合人脸特征。
在本公开的一些实施例中,基于前述方案,上述第二转换单元被具体配置为:将上述第i融合人脸特征和上述人脸标记特征进行第i+1组合处理,得到第i+1人脸组合特征;将上述第i+1人脸组合特征与上述人脸标记特征进行特征合并处理,得到上述第i+1融合人脸特征。
在本公开的一些实施例中,基于前述方案,上述第二转换单元还被具体配置为:对上述第i融合人脸特征进行第i卷积处理,将卷积处理之后的第i融合人脸特征和上述人脸标记特征进行第i+1空间特征转换处理,得到上述第i+1融合人脸特征。
在本公开的一些实施例中,基于前述方案,上述第三转换单元被具体配置为:对上述第N融合人脸特征和上述人脸原始特征进行特征求和处理。
在本公开的一些实施例中,基于前述方案,上述图像获取模块1401被具体配置为:对上述待修复图像进行人脸检测以确定人脸区域;对上述待修复图像中的上述人脸区域进行人脸特征点检测,得到特征点数据;对上述特征点数据进行人脸对齐处理,将人脸对齐处理后图像中进行二值化处理,得到人脸标记点图像。
在本公开的一些实施例中,基于前述方案,上述装置还包括:样本确定模块和模型训练模块。
其中,上述样本确定模块被配置为:获取M组样本数据,第j组样本数据包括第j样本图像和上述第j样本图像对应的第j样本人脸标记点图像,M为正整数,j为不大于M的正整数;上述模型训练模块被配置为:将上述第j样本图像和上述第j样本人脸标记点图像输入至生成对抗网络的生成器网络,得到第j修复图像;根据上述第j样本图像和上述第j样本图像对应的目标图像确定第一损失函数;将上述第j修复图像和上述第j样本图像对应的目标图像输入至上述生成对抗网络的判别器网络,并根据上述判别器网络的输出确定第二损失函数;根据上述第一损失函数和上述第二损失函数训练上述生成对抗网络,得到上述人脸图像的修复模型。
在本公开的一些实施例中,基于前述方案,上述样本确定模块被具体配置为:获取分辨率满足预设值的图像作为第j组样本数据对应的目标图像;对上述第j组样本数据对应的目标图像进行降质处理,得到上述第j样本图像;对上述第j样本图像进行人脸检测以确定人脸区域;对上述第j样本图像中的上述人脸区域进行人脸特征点检测,得到特征点数据;对上述特征点数据进行人脸对齐处理,将人脸对齐处理后图像中进行二值化处理,得到上述第j样本人脸标记点图像;将上述第j样本图像和上述第j样本人脸标记点图像确定为上述第j组样本数据,得到M组样本数据。
在本公开的一些实施例中,基于前述方案,上述样本确定模块还被具体配置为:对上述第j组样本数据对应的目标图像进行以下降质处理中的一种或几种:图像模糊处理、下采样后再插值放大处理、噪声添加处理和压缩处理,得到上述第j样本图像。
上述人脸图像的修复装置中各模块或单元的具体细节已经在人脸图像的修复方法中进行了详细的描述,因此此处不再赘述。
图15示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。其中,该电子设备可以为图1中的终端或服务器。
需要说明的是,图15示出的电子设备的计算机系统1500仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图15所示,计算机系统1500包括处理器1501,其中处理器1501又具体可以包括:图像处理单元(Graphics Processing Unit,简称:GPU)和中央处理单元(CentralProcessing Unit,简称:CPU),其可以根据存储在只读存储器(Read-Only Memory,简称:ROM)1502中的程序或者从存储部分1508加载到随机访问存储器(Random Access Memory,简称:RAM)1503中的程序而执行各种适当的动作和处理。在RAM 1503中,还存储有系统操作所需的各种程序和数据。处理器1501、ROM 1502以及RAM 1503通过总线1504彼此相连。输入/输出(Input/Output,简称:I/O)接口1505也连接至总线1504。
在一些实施例中,以下部件连接至I/O接口1505:包括键盘、鼠标等的输入部分1506;包括诸如阴极射线管(Cathode Ray Tube,简称:CRT)、液晶显示器(Liquid CrystalDisplay,简称:LCD)等以及扬声器等的输出部分1507;包括硬盘等的存储部分1508;以及包括诸如局域网(Local Area Network,简称:LAN)卡、调制解调器等的网络接口卡的通信部分1509。通信部分1509经由诸如因特网的网络执行通信处理。驱动器1510也根据需要连接至I/O接口1505。可拆卸介质1511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1510上,以便于从其上读出的计算机程序根据需要被安装入存储部分1508。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1509从网络上被下载和安装,和/或从可拆卸介质1511被安装。在该计算机程序被处理器1501执行时,执行本申请的系统中限定的各种功能。
需要说明的是,本公开实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
例如,所述的电子设备可以实现如图2中所示的:步骤S210,获取待修复图像,并获取所述待修复图像对应的人脸标记点图像;步骤S220,将所述待修复图像和所述人脸标记点图像输入至人脸图像的修复模型;步骤S230,基于所述人脸图像的修复模型对所述待修复图像和所述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;以及,步骤S240,将所述融合人脸特征进行卷积处理,并将所述人脸图像的修复模型的输出确定为所述待修复图像对应的修复后图像。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。
Claims (16)
1.一种人脸图像的修复方法,其特征在于,所述方法包括:
获取待修复图像,并获取所述待修复图像对应的人脸标记点图像;
将所述待修复图像和所述人脸标记点图像输入至人脸图像的修复模型;
基于所述人脸图像的修复模型对所述待修复图像和所述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;
基于所述人脸图像的修复模型将所述融合人脸特征进行卷积处理,并将所述人脸图像的修复模型的输出确定为所述待修复图像对应的修复后图像。
2.根据权利要求1所述的方法,其特征在于,基于所述人脸图像的修复模型对所述待修复图像和所述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征,包括:
基于所述人脸图像的修复模型对所述待修复图像进行至少两次卷积处理,得到人脸原始特征;
基于所述人脸图像的修复模型对所述人脸标记点图像进行至少两次卷积处理,得到人脸标记特征;
基于所述人脸图像的修复模型对所述人脸原始特征和所述人脸标记特征进行N次空间特征转换处理,得到所述融合人脸特征,N为不小于2的正整数。
3.根据权利要求2所述的方法,其特征在于,基于所述人脸图像的修复模型对所述人脸原始特征和所述人脸标记特征进行N次空间特征转换处理,包括:
对所述人脸原始特征和所述人脸标记特征进行第i空间特征转换处理,得到第i融合人脸特征,i取值为小于N的正整数;
将所述第i融合人脸特征和所述人脸标记特征进行第i+1空间特征转换处理,得到第i+1融合人脸特征;
对第N融合人脸特征和所述人脸原始特征进行特征合并处理,并将合并处理后的特征与所述人脸标记特征进行第N空间特征转换处理,得到所述融合人脸特征。
4.根据权利要求3所述的方法,其特征在于,对所述人脸原始特征和所述人脸标记特征进行第i空间特征转换处理,得到第i融合人脸特征,包括:
将所述人脸原始特征和所述人脸标记特征进行第i组合处理,得到第i人脸组合特征;
将所述第i人脸组合特征与所述人脸标记特征进行特征合并处理,得到所述第i融合人脸特征。
5.根据权利要求3所述的方法,其特征在于,将所述第i融合人脸特征和所述人脸标记特征进行第i+1空间特征转换处理,得到第i+1融合人脸特征,包括:
将所述第i融合人脸特征和所述人脸标记特征进行第i+1组合处理,得到第i+1人脸组合特征;
将所述第i+1人脸组合特征与所述人脸标记特征进行特征合并处理,得到所述第i+1融合人脸特征。
6.根据权利要求3所述的方法,其特征在于,将所述第i融合人脸特征和所述人脸标记特征进行第i+1空间特征转换处理,得到第i+1融合人脸特征,包括:
对所述第i融合人脸特征进行第i卷积处理,将卷积处理之后的第i融合人脸特征和所述人脸标记特征进行第i+1空间特征转换处理,得到所述第i+1融合人脸特征。
7.根据权利要求3所述的方法,其特征在于,对所述第N融合人脸特征和所述人脸原始特征进行特征合并处理,包括:
对所述第N融合人脸特征和所述人脸原始特征进行特征求和处理。
8.根据权利要求1至7中任意一项所述的方法,其特征在于,获取所述待修复图像对应的人脸标记点图像,包括:
对所述待修复图像进行人脸检测以确定人脸区域;
对所述待修复图像中的所述人脸区域进行人脸特征点检测,得到特征点数据;
对所述特征点数据进行人脸对齐处理,将人脸对齐处理后图像中进行二值化处理,得到人脸标记点图像。
9.根据权利要求1至7中任意一项所述的方法,其特征在于,所述方法还包括:
获取M组样本数据,第j组样本数据包括第j样本图像和所述第j样本图像对应的第j样本人脸标记点图像,M为正整数,j为不大于M的正整数;
将所述第j样本图像和所述第j样本人脸标记点图像输入至生成对抗网络的生成器网络,得到第j修复图像;
根据所述第j样本图像和所述第j样本图像对应的目标图像确定第一损失函数;
将所述第j修复图像和所述第j样本图像对应的目标图像输入至所述生成对抗网络的判别器网络,并根据所述判别器网络的输出确定第二损失函数;
根据所述第一损失函数和所述第二损失函数训练所述生成对抗网络,得到所述人脸图像的修复模型。
10.根据权利要求9所述的方法,其特征在于,获取M组样本数据,包括:
获取分辨率满足预设值的图像作为第j组样本数据对应的目标图像;
对所述第j组样本数据对应的目标图像进行降质处理,得到所述第j样本图像;
对所述第j样本图像进行人脸检测以确定人脸区域;
对所述第j样本图像中的所述人脸区域进行人脸特征点检测,得到特征点数据;
对所述特征点数据进行人脸对齐处理,将人脸对齐处理后图像中进行二值化处理,得到所述第j样本人脸标记点图像;
将所述第j样本图像和所述第j样本人脸标记点图像确定为所述第j组样本数据,得到M组样本数据。
11.根据权利要求10所述的方法,其特征在于,对所述第j组样本数据对应的目标图像进行降质处理,得到所述第j样本图像,包括:
对所述第j组样本数据对应的目标图像进行以下降质处理中的一种或几种:图像模糊处理、下采样后再插值放大处理、噪声添加处理和压缩处理,得到所述第j样本图像。
12.一种人脸图像的修复模型,其特征在于,所述模型包括:
第一卷积模块,被配置为:对待修复图像进行至少两次卷积处理,以得到人脸原始特征;
第二卷积模块,被配置为:对人脸标记点图像进行至少两次卷积处理,以得到人脸标记特征;
空间特征转换模块,被配置为:对所述待修复图像和所述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;
第三卷积模块,被配置为:将所述融合人脸特征进行卷积处理,以得到所述待修复图像对应的修复后图像。
13.一种人脸图像的修复装置,其特征在于,所述装置包括:
图像获取模块,被配置为:获取待修复图像,并获取所述待修复图像对应的人脸标记点图像;
图像输入模块,被配置为:将所述待修复图像和所述人脸标记点图像输入至人脸图像的修复模型;
特征转换模块,被配置为:基于所述人脸图像的修复模型对所述待修复图像和所述人脸标记点图像进行至少两次空间特征转换处理,得到融合人脸特征;
图像输出模块,被配置为:基于所述人脸图像的修复模型将所述融合人脸特征进行卷积处理,并将所述人脸图像的修复模型的输出确定为所述待修复图像对应的修复后图像。
14.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至11中任意一项所述的人脸图像的修复方法。
15.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至11中任意一项所述的人脸图像的修复方法。
16.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机指令,所述计算机指令适于被处理器加载并执行如权利要求1至11中任意一项所述的人脸图像的修复方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110432456.5A CN113066034B (zh) | 2021-04-21 | 2021-04-21 | 人脸图像的修复方法与装置、修复模型、介质和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110432456.5A CN113066034B (zh) | 2021-04-21 | 2021-04-21 | 人脸图像的修复方法与装置、修复模型、介质和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113066034A CN113066034A (zh) | 2021-07-02 |
CN113066034B true CN113066034B (zh) | 2024-08-09 |
Family
ID=76567360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110432456.5A Active CN113066034B (zh) | 2021-04-21 | 2021-04-21 | 人脸图像的修复方法与装置、修复模型、介质和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113066034B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284073B (zh) * | 2021-07-08 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 一种图像修复方法、装置及存储介质 |
CN113763268B (zh) * | 2021-08-26 | 2023-03-28 | 中国科学院自动化研究所 | 人脸图像盲修复方法及系统 |
CN114862699B (zh) * | 2022-04-14 | 2022-12-30 | 中国科学院自动化研究所 | 基于生成对抗网络的人脸修复方法、装置及存储介质 |
CN114782763B (zh) * | 2022-05-19 | 2022-11-11 | 哈尔滨工业大学 | 多视角高分遥感图像稀疏主成分对齐方法 |
CN114913468A (zh) * | 2022-06-16 | 2022-08-16 | 阿里巴巴(中国)有限公司 | 对象修复方法、修复评估方法、电子设备和存储介质 |
CN115689946B (zh) * | 2022-12-29 | 2023-04-07 | 北京集度科技有限公司 | 图像修复方法、电子设备及计算机程序产品 |
CN118864315A (zh) * | 2023-04-28 | 2024-10-29 | 北京字跳网络技术有限公司 | 图像修复方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288705A (zh) * | 2019-07-02 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 生成三维模型的方法和装置 |
CN111275649A (zh) * | 2020-02-03 | 2020-06-12 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043914A (ja) * | 2019-09-13 | 2021-03-18 | 富士通株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
CN111476749B (zh) * | 2020-04-03 | 2023-02-28 | 陕西师范大学 | 基于人脸关键点引导式生成对抗网络的人脸修复方法 |
CN111507914B (zh) * | 2020-04-10 | 2023-08-08 | 北京百度网讯科技有限公司 | 人脸修复模型的训练方法、修复方法、装置、设备和介质 |
-
2021
- 2021-04-21 CN CN202110432456.5A patent/CN113066034B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288705A (zh) * | 2019-07-02 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 生成三维模型的方法和装置 |
CN111275649A (zh) * | 2020-02-03 | 2020-06-12 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113066034A (zh) | 2021-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113066034B (zh) | 人脸图像的修复方法与装置、修复模型、介质和设备 | |
Ullah et al. | Light-DehazeNet: a novel lightweight CNN architecture for single image dehazing | |
Chaitanya et al. | Single image dehazing using improved cycleGAN | |
CN110852961A (zh) | 一种基于卷积神经网络的实时视频去噪方法及系统 | |
Sun et al. | Multiscale generative adversarial network for real‐world super‐resolution | |
Su et al. | Prior guided conditional generative adversarial network for single image dehazing | |
CN115131218A (zh) | 图像处理方法、装置、计算机可读介质及电子设备 | |
Guo et al. | Joint raindrop and haze removal from a single image | |
Parihar et al. | Densely connected convolutional transformer for single image dehazing | |
Shen et al. | Mutual information-driven triple interaction network for efficient image dehazing | |
CN118283297A (zh) | 视频数据处理方法、装置、电子设备及可读存储介质 | |
Jaisurya et al. | AGLC-GAN: Attention-based global-local cycle-consistent generative adversarial networks for unpaired single image dehazing | |
Liu et al. | Facial image inpainting using multi-level generative network | |
Zhang et al. | Image motion deblurring via attention generative adversarial network | |
Xu et al. | Attention‐based multi‐channel feature fusion enhancement network to process low‐light images | |
Dan et al. | Pirn: Phase invariant reconstruction network for infrared image super-resolution | |
Bricman et al. | CocoNet: A deep neural network for mapping pixel coordinates to color values | |
CN116597033A (zh) | 图像重建方法、装置、设备和介质 | |
US20230186608A1 (en) | Method, device, and computer program product for video processing | |
Chen et al. | Image denoising via generative adversarial networks with detail loss | |
Du et al. | Image super-resolution and deblurring using generative adversarial network | |
CN114596203A (zh) | 用于生成图像和用于训练图像生成模型的方法和装置 | |
CN115222606A (zh) | 图像处理方法、装置、计算机可读介质及电子设备 | |
Tian et al. | A modeling method for face image deblurring | |
Ahsan et al. | A comprehensive survey on diffusion models and their applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40048748 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |