[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN109741268B - 一种针对壁画的破损图像补全方法 - Google Patents

一种针对壁画的破损图像补全方法 Download PDF

Info

Publication number
CN109741268B
CN109741268B CN201811479774.1A CN201811479774A CN109741268B CN 109741268 B CN109741268 B CN 109741268B CN 201811479774 A CN201811479774 A CN 201811479774A CN 109741268 B CN109741268 B CN 109741268B
Authority
CN
China
Prior art keywords
model
image
texture
color
complement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811479774.1A
Other languages
English (en)
Other versions
CN109741268A (zh
Inventor
张加万
康金梦
徐辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201811479774.1A priority Critical patent/CN109741268B/zh
Publication of CN109741268A publication Critical patent/CN109741268A/zh
Application granted granted Critical
Publication of CN109741268B publication Critical patent/CN109741268B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种针对壁画的破损图像补全方法,包括以下步骤:建立并训练一个颜色补全模型,通过模型对训练数据集的特征学习,完成颜色补全模型的建立,得到可以正确预测缺失区域颜色块的初步修复的图像记作I1;建立纹理补全模型,充分利用在生成对抗网络的输出图I1的基础上,对I1进行基于纹理的自适应图像修补方法,完成纹理模型的建立,得到可以正确预测缺失区域纹理的修复图像I2;将前两步得到的分别具有缺失区域颜色和纹理的壁画进行融合,使得补全结果更加完备。

Description

一种针对壁画的破损图像补全方法
技术领域
本发明涉及计算机视觉领域,尤其涉及图像补全领域。其中,根据古代壁画的颜色和结构特征,设计了基于神经网络的全局与局部特征的古代壁画修补方法,可以实现对于壁画损坏的补全。
背景技术
壁画作为人类历史上最早的绘画形式之一,是人类历史文明的见证,是古今文化传承的载体。随着年代的推演,大型的壁画由于各种自然以及人为因素有着不同的损坏,由此对壁画的保护一直是人们探索的领域,正确按照壁画风格修补壁画的缺失区域是其关键。传统手工补全破损壁画需要补全人员具有专业的专家知识和绘画功底,这导致了传统手工补全壁画效率低下且不易存储以及更新,怎样更好、更高效的修补壁画的缺失区域对壁画保护有着重要的意义。从图像角度上说,每幅图像都具有不同特征的纹理和颜色特征。壁画同样也是,由于壁画的特殊的颜色特征和纹理特征,从技术上讲,壁画修补的技术的修补效果与主要的两个因素有关:一是壁画的颜色,本方法中使用生成对抗神经网络对壁画颜色进行颜色特征的提取,在保证完好部分颜色符合原始图像的基础上,使得破损区域的颜色得到一定程度的补全。另一个是壁画的纹理特征,在得到壁画缺失区域的颜色之后对壁画(修补后)进行纹理提取,再通过算法对缺失区域的纹理进行进一步的搜索,并预测缺失区域的纹理走向,生成纹理。
特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征。特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者连续的区域。特征的精确定义往往由问题或者应用类型决定。特征是一个数字图像中“有趣”的部分,它是许多计算机图像分析算法的起点。因此一个算法是否成功往往由它使用和定义的特征决定。因此特征提取最重要的一个特性是“可重复性”同一场景的不同图像所提取的特征应该是相同的。常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。卷积神经网络的发展为特征提取提供了很好地工具。卷积特征提取利用了自然图像的统计平稳性,这一部分学习的特征也能用在另一部分上,所以对于这个图像上的所有位置,我们都能使用同样的学习特征。当卷积神经网络中有多个过滤器时,我们就可以学到多个特征,例如:颜色、纹理等,使用卷积神经网络提取的特征会组成一个完整的特征图。
颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特征查询时,如果数据库很大,常会将许多不需要的图像也检索出来。颜色直方图是最常用的表达颜色特征的方法,其优点是不受图像旋转和平移变化的影响,进一步借助归一化还可不受图像尺度变化的影响,基缺点是没有表达出颜色空间分布的信息。
纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。在模式匹配中,这种区域性的特征具有较大的优越性,不会由于局部的偏差而无法匹配成功。常见的模式识别方法对图像特征提取方法,一种为像素级别,即对图像中每点像素提取特征,优点在于匹配准确度高,但速度慢另一种为将图像划分为形状规则的子图,对每一个子图提取特征,子图越大速度越快,但与此同时准确度越低。显然这两种方法不能同时保证准确度与速度,因此需要提出一种更加合理的同时保证准确度和速度的特征提取方法,以助于提高分割的效率和精度。
现阶段图像分割技术主要针对图片中分布集中的物体,如:动物,人物,人脸等,但在某些领域,检测物体并非连续集中分布在图像中心区域。待分割区域分布广泛,可能是背景,也可能是人物的某一部分。情况复杂。所以,为了更加准确的指定出待修补区域,本方法采用了交互式分割的方式,并将其应用在古代壁画修补区域检测分割的具体问题中,大大提升了修补的准确性。
发明内容
本发明提供一种针对壁画的破损图像补全方法,运用基于深度学习神经网络的图像补全方式进行破损壁画的补全,提高了壁画修补的准确性,技术方案如下:
一种针对壁画的破损图像补全方法,包括以下步骤:
(1)建立并训练一个颜色补全模型,通过模型对训练数据集的特征学习,完成颜色补全模型的建立,得到可以正确预测缺失区域颜色块的初步修复的图像记作I1,步骤如下:
第1步:生成多幅图像遮罩图当做训练模型的一个输入记作M,收集多幅完整壁画图像记作I,并对各个完整壁画图像进行数据扩充扩充数据的多样性,当做训练模型的另一个输入,构造训练数据集;
第2步:通过深度学习方法,对目标图像进行滑动窗口似的卷积核进行特征提取,学习训练数据的图像特征,同时使用损失函数Ladv对训练过程进行优化,使得生成对抗神经网络中的生成模型生成的图片足够真实,这里的损失函数Ladv是指生成对抗神经网络的损失函数:
Figure BDA0001893084000000021
其中D(.)表示生成对抗神经网络的判别模型,其输出为概率值;G(I,M)表示生成对抗神经网络中的生成模型,其输出为一张图片,即初步修复的图像I1,I1=G(I,M),两种模型都是若干卷积神经网络的叠加;当判别模型判别来自生成模型生成的图片时,D(I1)->0,则(1-D(I1))->1,即Efake[log(1-D(I1))->0,当判别模型判别真实图片时使Ereal[logD(I)]->1,数学符号->表示趋近,生成模型G(I,M)的损失函数是极小值函数,通过不断优化Ladv函数,使得生成模型G(I,M)和判别模型D(.)的参数逐步达到最优值;
第3步:对生成对抗神经网络模型进行迭代训练,设置迭代次数,同时通过目标函数Ll1=||I1-I||1对当前的生成模型进行评估,直到对抗神经网络模型的损失函数收敛,这里的Ll1损失函数是曼哈顿距离损失;
(2)其次建立纹理补全模型,充分利用在生成对抗网络的输出图I1的基础上,对I1进行基于纹理的自适应图像修补方法,完成纹理模型的建立,得到可以正确预测缺失区域纹理的修复图像I2;具体步骤如下:
第1步:在I1的基础上计算破损区块的优先级,确定纹理缺损区的优先顺序;通过计算边界坐标点p的置信度项与数据项N(p)与O(p),得到带有颜色指导的待补全像素块的优先级的坐标值,其中,优先级函数为:P(p)=αN(p)+βO(p),α=1,β=3;
第2步:提取I1的纹理图记作It,将纹理补全模型的第1步中得到的带有颜色指导的待补全像素块坐标值传递给It使得纹理图预测缺失区域的纹理,得到纹理的修补图像记作It1
第3步:重复步骤1和2,直到补全完成得到I2
(3)将前两步得到的分别具有缺失区域颜色和纹理的壁画进行融合,使得补全结果更加完备,融合图像为:
Figure BDA0001893084000000022
I1和I2表示颜色补全模型和纹理补全模型的结果图。
本发明提供的技术方案的有益效果是:本方法使用半监督学习产生目标区域壁画图像,可以针对古代壁画的任意位置任意形状的缺失进行补全。实验结果表明,破损区域的大小和算法补全效果的满意度有着正相关的联系,壁画缺失块区域小,得到的补全结果越满意。和传统的古壁画补全算法相比,准确度和满意度得到了很大程度的提升。将深度学习运用到壁画补全中提高了壁画补全的速度,在相同时间内补全的壁画数量,与传统方法相比,至少提高了两倍的速度。
附图说明
图1为本方法的流程图
图2为本方法的颜色补全模型的流程图
图3为所提方法过程示例图
(a)图是原始的破损图像
(b)图是输入图像
(c)图是经过颜色补全模型得到的结果
(d)图是经过纹理补全模型得到的结果
(e)图是最终得到的结果
图4为部分实验结果
(a)列是破损的壁画
(b)列是补全的壁画图
具体实施方式
在本发明中,将使用一种针对壁画的破损图像补全方法对壁画进行修补,针对壁画对缺失区域首先训练一个颜色补全模型,得到初步补全的壁画缺失颜色块的图像I1;其次建立纹理预测模型,补全I1缺失的纹理信息得到I2;最后建立图像融合算法将前两步得到的分别具有颜色和纹理约束的壁画进行融合,使得补全结果更加完备。
基于对抗神经网络的图像主要灵感来源是博弈论中的零和博弈思想,应用到深度学习神经网络中,就是通过生成对抗神经网络中的生成模型G(I,M)和判别模型D(.)不断博弈,而不断优化生成模型和判别模型的网络中的参数,使得生成模型和判别模型都学习到图片中的数据分布规律。
其中G(I,M)的输入数据是一张壁画(用I来表示)和一张遮罩图片(用M来表示),输出是一张补全了遮罩图片区域的图片(用I1来表示)。
D(.)的输入数据是I1,输出数据是一个概率值,取值范围为[0,1],该数值表示生成模型生成的I1图片是真实图片的概率值。0表示I1是一张合成的假图片(I1检测出补全痕迹),1表示I1是一张真实的图片(I1未检测出补全痕迹)。
在对抗神经网络中,G(I,M)和D(.)联合训练,不断优化生成模型和判别模型的网络中的参数,从而达到G(I,M)可以生成足够真实的补全图片,以达到破损壁画补全的效果。
具体步骤如下:
1.颜色补全模型:
最直接的方式是训练回归网络f使得响应函数G(I,M)生成满意度较高的壁画图像,由于敦煌壁画是一种独创性工作,所以收集到的数据量是有限的,我们的模型是居于小样本的深度学习模型训练。具体技术方案包括以下内容:
第1步:输入图像I和破损区域的遮罩图M,采用滑动窗口的方式对训练图像进行特征提取,后通过不断迭代训练完成的模型对破损区域的颜色进行正确的预测,以达到颜色的补全。其中函数的目标函数由3部分组成分别定义为式(1),式(2),式(3):
Figure BDA0001893084000000031
其中,I是输入的壁画图像,I1是生成模型的输出图片,M是生成的遮罩图像,Ladv是生成对抗神经网络损失函数。在训练过程中,分别对生成对抗神经网络中的生成模型和判别模型运用Ladv损失函数进行联合训练,使得生成模型的损失函数值趋近于极小,使得判别模型的损失函数值趋近于极大。其中D(.)表示生成对抗神经网络的判别模型,G(I,M)表示生成对抗神经网络中的生成器模型,两种模型都是若干卷积神经网络的叠加。
局部着重补全函数定义为是(2):
Figure BDA0001893084000000032
其中,ΦM(I1)表示生成模型的输出图片I1的遮罩区域,Φ(I)表示输入图片I的遮罩区域。在一轮迭代结束之后对I1和I的遮罩区域进行二范式计算,目的为了使得生成对抗神经网络生成的整张图片的遮罩区域足够真实。
全局优化函数为式(3):
Ll1=||I1-I||1 (3)
其中I表示输入图像,I1表示生活层模型的输出图片,这里的Ll1是指曼哈顿距离函数,在一轮训练迭代结束之后对I和I1进行曼哈顿距离计算,损失函数越小,表明生成的图片越真实,目的为了使得生成对抗神经网络生成的图片的遮罩区域足够真实。
第2步:迭代第一步的过程,并使用本方法定义的损失函数,对模型的进行优化,本方法定义的损失函数如公式(4)所示。
L=Ll1eLeadvLadv (4)
其中λe和λadv是超参数,二者的取值影响着补全图像的精确程度。我们这里的λe=0.01,λadv=0.5。
2.纹理补全模型:
纹理的修补顺序对补全效果起着至关重要的作用,首先确定缺失是纹理块的修补优先级。本方法确定修补优先级的方法是根据边缘处待修补快的优先级确定的,本方法需要确定,边缘处3*3领域内包含的已知信息量和包含的已知结构信息,包含的包含的已知信息较多和包含的已知结构信息量较大的区域,优先级越大,修补顺序越优先。具体技术方案包括以下内容:
第1步:利用边界坐标信息来确定补全像素块的优先级,即置信矩阵N(p)。选择以p为中心的目标纹理块
Figure BDA0001893084000000047
M为遮罩区域。其中N(p)表示目标区域
Figure BDA0001893084000000048
的已知信息量,O(p)表示结构信息量。本方法的优先权函数定义为公式(5)
P(p)=αN(p)+βO(p)(5)
α,β为超参数,决定着置信矩阵的影响程度,这里我们取α=1,β=3。本方法定义
Figure BDA0001893084000000041
Figure BDA0001893084000000042
为目标纹理块的面积即目标纹理去像素的个数,在本方法中采用3*3的目标纹理块。其中
Figure BDA0001893084000000043
N(q)为像素点q的置信度,其中
Figure BDA0001893084000000044
如果待补全纹理块中位于样本区的像素点多,这个纹理块的置信度就高,他的邮箱顺序就大。μ为归一化因子,我们取μ=255,np为填充p点的法向量,
Figure BDA0001893084000000045
Figure BDA0001893084000000046
表示p点光照线方向,其中Ix和Iy分别带边限速点p在x和y方向上的偏导数。
得到的优先权函数P(p),P(p)越大越优先补全。
第2步:提取I1的纹理图It,按照优先权函数对I1进行顺时针方向寻找最佳块匹配,得到一个最佳快匹配的坐标值,将坐标值传递给纹理图It完成纹理图像的补全,得到It1
第3步:重复上述步骤,直到补全完成得到I2
3.单通道加权平均融合算法:
将得到的I1和I2进行图像融合,得到最终结果。具体技术方案包括以下内容:
Figure BDA0001893084000000051
其中
Figure BDA0001893084000000052
和σ的取值在[0,1]。控制整体和纹理的明显程度。在本次实验中我们选取
Figure BDA0001893084000000053
σ=0.8。
为了验证本方法的有效性,我们使用高清单反相机拍摄破损的壁画图,拍摄地址为甘肃敦煌莫高窟,采用Ubuntu16.04系统下的Tensorflow1.3+MATLAB2016作为试验仿真平台,处理的图像为256*256。通过实验可以观察到,本方法的补全效果是令人满意的,并且速度和准确率在传统补全方法上的得到了提高。

Claims (1)

1.一种针对壁画的破损图像补全方法,包括以下步骤:
(1)建立并训练一个颜色补全模型,通过模型对训练数据集的特征学习,完成颜色补全模型的建立,得到可以正确预测缺失区域颜色块的初步修复的图像记作I1,步骤如下:
第1步:生成多幅图像遮罩图当做训练模型的一个输入记作M,收集多幅完整壁画图像记作I,并对各个完整壁画图像进行数据扩充扩充数据的多样性,当做训练模型的另一个输入,构造训练数据集;
第2步:通过深度学习方法,对目标图像进行滑动窗口似的卷积核进行特征提取,学习训练数据的图像特征,同时使用损失函数Ladv对训练过程进行优化,使得生成对抗神经网络中的生成模型生成的图片足够真实,这里的损失函数Ladv是指生成对抗神经网络的损失函数:
Figure QLYQS_1
其中D(.)表示生成对抗神经网络的判别模型,其输出为概率值;G(I,M)表示生成对抗神经网络中的生成模型,其输出为一张图片,即初步修复的图像I1,I1=G(I,M),两种模型都是若干卷积神经网络的叠加;当判别模型判别来自生成模型生成的图片时,D(I1)->0,则(1-D(I1))->1,即Efake[log(1-D(I1))->0,当判别模型判别真实图片时使Ereal[logD(I)]->1,数学符号->表示趋近,生成模型G(I,M)的损失函数是极小值函数,通过不断优化Ladv函数,使得生成模型G(I,M)和判别模型D(.)的参数逐步达到最优值;
第3步:对生成对抗神经网络模型进行迭代训练,设置迭代次数,同时通过目标函数Ll1=||I1-I||1对当前的生成模型进行评估,直到对抗神经网络模型的损失函数收敛,这里的Ll1损失函数是曼哈顿距离损失;
(2)其次建立纹理补全模型,充分利用在生成对抗网络的输出图I1的基础上,对I1进行基于纹理的自适应图像修补方法,完成纹理模型的建立,得到可以正确预测缺失区域纹理的修复图像I2;具体步骤如下:
第1步:在I1的基础上计算破损区块的优先级,确定纹理缺损区的优先顺序;通过计算边界坐标点p的置信度项与数据项N(p)与O(p),得到带有颜色指导的待补全像素块的优先级的坐标值,其中,优先级函数为:P(p)=αN(p)+βO(p),α=1,β=3;
第2步:提取I1的纹理图记作It,将纹理补全模型的第1步中得到的带有颜色指导的待补全像素块坐标值传递给It使得纹理图预测缺失区域的纹理,得到纹理的修补图像记作It1
第3步:重复步骤1和2,直到补全完成得到I2
(3)将前两步得到的分别具有缺失区域颜色和纹理的壁画进行融合,使得补全结果更加完备,融合图像为:
Figure QLYQS_2
Figure QLYQS_3
σ=0.8,I1和I2表示颜色补全模型和纹理补全模型的结果图。
CN201811479774.1A 2018-12-05 2018-12-05 一种针对壁画的破损图像补全方法 Active CN109741268B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811479774.1A CN109741268B (zh) 2018-12-05 2018-12-05 一种针对壁画的破损图像补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811479774.1A CN109741268B (zh) 2018-12-05 2018-12-05 一种针对壁画的破损图像补全方法

Publications (2)

Publication Number Publication Date
CN109741268A CN109741268A (zh) 2019-05-10
CN109741268B true CN109741268B (zh) 2023-05-09

Family

ID=66358435

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811479774.1A Active CN109741268B (zh) 2018-12-05 2018-12-05 一种针对壁画的破损图像补全方法

Country Status (1)

Country Link
CN (1) CN109741268B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111951172A (zh) * 2019-05-16 2020-11-17 北京三星通信技术研究有限公司 一种图像优化方法、装置、设备和存储介质
CN110473160A (zh) * 2019-08-21 2019-11-19 西安工程大学 一种基于ssgan的古代残损纺织物图像修复方法
CN111325699B (zh) * 2020-03-20 2021-05-25 腾讯科技(深圳)有限公司 图像修复方法和图像修复模型的训练方法
CN111596093B (zh) * 2020-04-21 2022-02-15 天津大学 一种基于adcp的海水流速数据处理方法
CN114581458A (zh) * 2020-12-02 2022-06-03 中强光电股份有限公司 产生影像辨识模型的方法及使用所述方法的电子装置
CN113707334A (zh) * 2021-08-31 2021-11-26 平安科技(深圳)有限公司 基于聚类分析的医疗数据缺失处理方法、装置及存储介质
CN114066774A (zh) * 2021-11-26 2022-02-18 上海艾麒信息科技股份有限公司 基于sift特征匹配的多图像修补方法及系统
CN115131234B (zh) * 2022-06-15 2023-09-19 西北大学 一种基于两阶段神经网络的数字壁画修复方法
CN117274110B (zh) * 2023-11-14 2024-02-13 吉林大学 一种基于生成式人工智能与图神经网络的影像优化方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101847255A (zh) * 2010-04-21 2010-09-29 天津大学 一种综合结构信息的图像补全方法
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN107730457A (zh) * 2017-08-28 2018-02-23 广东数相智能科技有限公司 一种图像补全方法、装置、电子设备及存储介质
CN107862668A (zh) * 2017-11-24 2018-03-30 河海大学 一种基于gnn的文物图像复原方法
CN108038846A (zh) * 2017-12-04 2018-05-15 国网山东省电力公司电力科学研究院 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及系统
CN108460746A (zh) * 2018-04-10 2018-08-28 武汉大学 一种基于结构和纹理分层预测的图像修复方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101847255A (zh) * 2010-04-21 2010-09-29 天津大学 一种综合结构信息的图像补全方法
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN107730457A (zh) * 2017-08-28 2018-02-23 广东数相智能科技有限公司 一种图像补全方法、装置、电子设备及存储介质
CN107862668A (zh) * 2017-11-24 2018-03-30 河海大学 一种基于gnn的文物图像复原方法
CN108038846A (zh) * 2017-12-04 2018-05-15 国网山东省电力公司电力科学研究院 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及系统
CN108460746A (zh) * 2018-04-10 2018-08-28 武汉大学 一种基于结构和纹理分层预测的图像修复方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
L1 HB.A visual analytics approach for deterioration risk anaylysis of ancient frescoes.《Web of science》.2016,全文. *
孙迪 ; 张加万 ; 詹睿 ; 贾世超 ; .敦煌壁画的线描图生成与辅助临摹应用.计算机辅助设计与图形学学报.2018,(第07期),全文. *

Also Published As

Publication number Publication date
CN109741268A (zh) 2019-05-10

Similar Documents

Publication Publication Date Title
CN109741268B (zh) 一种针对壁画的破损图像补全方法
KR102154470B1 (ko) 다중 특징 검색 및 변형에 기반한 3차원 인체 헤어스타일 생성 방법
CN107122396B (zh) 基于深度卷积神经网络的三维模型检索方法
CN111369572B (zh) 一种基于图像修复技术的弱监督语义分割方法和装置
CN110084304B (zh) 一种基于合成数据集的目标检测方法
CN108230278B (zh) 一种基于生成对抗网络的图像去雨滴方法
CN111652124A (zh) 一种基于图卷积网络的人体行为识别模型的构建方法
CN110175251A (zh) 基于语义对抗网络的零样本草图检索方法
CN107784288B (zh) 一种基于深度神经网络的迭代定位式人脸检测方法
CN108595558B (zh) 一种数据均衡策略和多特征融合的图像标注方法
CN108491766B (zh) 一种端到端的基于深度决策森林的人群计数方法
AU2019227478A1 (en) An improved content aware fill that leverages the boundaries of underlying objects
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
CN114529707B (zh) 三维模型分割方法、装置、计算设备及可读存储介质
CN109829353B (zh) 一种基于空间约束的人脸图像风格化方法
CN103116766A (zh) 一种基于增量神经网络和子图编码的图像分类方法
CN113870128B (zh) 一种基于深度卷积对抗式网络的数字壁画图像修复方法
CN107944459A (zh) 一种rgb‑d物体识别方法
CN112906813A (zh) 一种基于密度聚类和胶囊神经网络的浮选工况识别方法
CN113705579A (zh) 一种视觉显著性驱动的图像自动标注方法
CN112329771B (zh) 一种基于深度学习的建筑材料样本识别方法
CN114495163B (zh) 基于类别激活映射的行人重识别生成学习方法
Zhang et al. A method for identifying and repairing holes on the surface of unorganized point cloud
CN113033656B (zh) 一种基于生成对抗网络的交互式孔探数据扩展方法
Felicetti et al. Automatic Mosaic Digitalization: a Deep Learning approach to tessera segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant