CN104778272B - 一种基于区域挖掘和空间编码的图像位置估计方法 - Google Patents
一种基于区域挖掘和空间编码的图像位置估计方法 Download PDFInfo
- Publication number
- CN104778272B CN104778272B CN201510202266.9A CN201510202266A CN104778272B CN 104778272 B CN104778272 B CN 104778272B CN 201510202266 A CN201510202266 A CN 201510202266A CN 104778272 B CN104778272 B CN 104778272B
- Authority
- CN
- China
- Prior art keywords
- region
- image
- center
- matching
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000000007 visual effect Effects 0.000 claims description 60
- 238000005065 mining Methods 0.000 claims description 20
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000012216 screening Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000009412 basement excavation Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于区域挖掘和空间编码的图像位置估计方法,由离线部分和在线部分构成,离线部分包括:提取GPS图像库中图像的全局特征,并对图像聚类;对GPS图像库中的每张图像,进行区域挖掘和BOW位置描述符生成;最后,基于视觉单词,为整个GPS图像库建立一个倒排索引表。在线部分包括:通过全局特征提取、匹配得到输入图像的候选图像集;对输入图像进行与离线部分中的区域挖掘和BOW位置描述符生成步骤相同的操作;利用离线部分中的倒排索引表进行基于区域的图像匹配,最终获得输入图像的GPS位置。
Description
技术领域
本发明涉及社交网络数据管理的多媒体检索技术,特别涉及一种社交网络图片资料的检索方法。
背景技术
随着社交网络的不断普及以及多媒体技术的迅速发展,用户上传的数字化多媒体的规模以爆炸性的速度增长。知名的图片分享网站如Flickr,上传的图片总数达50亿张。社交网络中的图片上传数量更为惊人,光Facebook一家就达到了600亿。在中国,人人网、开心网成为了主要的上传与分享的社交网站。因此,对于大规模的多媒体数据(图片资料),如何快速有效地进行信息挖掘与图像检索已成为人们的迫切需求,基于内容的图像检索也就应运而生。随着生活水平的提高,越来越多的人开始热衷于旅游,并且也会将旅游的图像上传到社交网络中。智能手机和数码相机拍照时带有GPS记录功能,在Flickr上,当用户查看的图像具有GPS时,会出现该图像在地图上对应的位置。也许人们会碰到自己非常喜欢的图像,同时这些图片又没有GPS信息。因此,如何依托GPS图像库对输入图像自动的进行位置估计,就成了人们所期望解决的问题。
目前已经有很多图像位置估计方法被提出,特别是应用广泛的基于图像整体内容的方法。它利用图像的全局特征或者BOW(视觉词汇包模型)局部特征对图像内容进行描述,然后基于整张图像的内容进行统计和匹配。但是,在场景复杂的情况下,整体特征的生成会掩盖掉我们真正想要检索内容的特征,识别结果往往不尽如人意。
虽然通过BOW和倒排索引结构的方法能够提高效率,但是,由于BOW在量化过程中会存在误差,并且特征点之间的空间位置关系是被忽略的,因此,人们增加了对空间位置关系的研究。我们计算一个视觉词汇相对于其他词汇到区域中心的距离,并采用分级的思想生成多尺度的位置描述符。
发明内容
本发明的目的是为了解决在用户对图像内容不了解的前提下,依托GPS图像库对该图像自动地进行位置估计;鉴于此,本发明提出了一种多区域挖掘和空间编码的图像位置识别技术,通过全局特征和局部特征,离线部分和在线部分的交互,可以检索到与输入图像内容相似的图像,进而根据相似图像的GPS位置估计该输入图像的GPS位置。
为达到以上目的,本发明是采取如下技术方案予以实现的:
一种基于区域挖掘和空间编码的图像位置估计方法,由离线部分和在线部分构成,其特征在于,所述离线部分包括:首先,提取GPS图像库中图像的全局特征,并对图像聚类,聚类后的结果用于在线部分的全局特征匹配;其次,对GPS图像库中的每张图像,进行区域挖掘和BOW位置描述符生成;最后,基于视觉单词,为整个GPS图像库建立一个倒排索引表;其中,区域挖掘和BOW位置描述符生成包括三个子步骤:(1)“有用”特征的筛选,(2)区域挖掘及区域重要度排序,(3)BOW位置描述符生成;
所述在线部分包括:步骤101,通过全局特征提取、匹配得到输入图像的候选图像集,其中全局特征匹配需用到离线部分中的全局特征聚类的结果;步骤102,对输入图像进行与离线部分中的区域挖掘和BOW位置描述符生成步骤相同的操作;步骤103,利用离线部分中的倒排索引表进行基于区域的图像匹配,最终获得输入图像的GPS位置。
所述子步骤(2)的具体操作如下:
2.1、用mean-shift(均值偏移)算法对“有用”视觉词汇的坐标进行聚类,Meanshift算法得到多个类,其中一个类就代表一个区域,生成的类的数目就是对图像划分的区域数目,Mean-shift算法如下:;
其中,Sb(v)表示以v为中心,以b为半径的圆;z是落在Sb(v)区域里的视觉单词的坐标,k是落在Sb(v)里的视觉单词的个数,Mb(v)表示以v为起点的偏移矢量;
2.2、对区域的重要度排序是利用saliency map(显著图)算法来挖掘图像的显著区域,选取和saliency map有重叠的mean-shift区域,给这些区域以较高的权重,结合另两个因素:该区域内词汇个数除以该张图片内词汇总数,区域中心和图片中心的距离,对重要度的计算方法如下:
其中,Weighti表示第i个区域的重要值;rs表示区域的大小,即该区域内词汇个数除以该张图片内词汇总数;rp表示区域的位置,即区域中心和图片中心的距离;
所述子步骤(3)的具体操作如下:
3.1、对一个区域而言,定义聚类中心就是该区域中心,以此为原点建立坐标系;
3.2、对该区域内的每个视觉词汇,计算其所在象限;
其中,RAi表示对第i个视觉单词所在象限的编码,(xi,yi)是第i个视觉单词的坐标,(a0,b0)是该区域中心的坐标;
3.3、计算该区域内每个视觉词汇到中心的相对距离,相对性是体现在相对于区域内其他视觉单词到中心的距离;
其中,RDi表示对第i个视觉单词的相对距离的编码,di表示第i个视觉单词到区域中心的距离,n表示该区域内的视觉单词总数;
3.4、在计算得到后,以区域中心为圆心,以为半径画圆,然后重复步骤3.1-3.4,得到相对距离的多位描述。
上述方法中,所述步骤103的具体操作如下:
103-1、匹配区域对检测:定义包含有相同视觉单词的两个区域为匹配区域对,其中一个来自输入图像,另一个区域来自候选图像;
103-2、计算匹配对里两个区域的内容相似度,即两个区域内相同BOW的空间一致性,公式如下:
其中,表示第i对区域的匹配得分,a表示该对区域内相同bow的数目;
103-3、一张候选图像和输入图像有多个匹配区域对,我们依次计算多个匹配区域对的得分,那么就得到多个匹配值,取这多个匹配值的最大值作为该候选图像的得分
其中,Scorej表示第j张候选图像的得分,n表示该候选图像和输入图像的匹配区域对数。
本发明是一种基于图像区域描述的检索方法,同现有的分区域式算法相比,(1)我们是依托图像“有用”视觉词汇本身的分布特点进行划分区域;(2)我们通过显著图、区域大小和区域位置对多区域进行重要度排序,以提高检索性能,并能适应信息传输的可伸缩性。同时本发明在区域内对视觉词汇进行空间编码,以聚类中心为原点建立坐标系,提出可分级编码的思想来生成多尺度位置描述符。另通过搭建相应系统在不同的图像库上进行了测试分析,证明了本发明的优越性。
下面结合附图和具体实施方式对本发明做进一步的详细说明。
附图说明
图1为本发明方法的流程框图。
图2为本发明方法中对图像进行区域挖掘的步骤示意图。其中,图2(a)是一张示例图像;图2(b)是提取的视觉特征在该示例图像中的分布示意,图中白色圆点表示每个特征点的位置;图2(c)是对该示例图像进行特征筛选,保留下来的“有用”特征在该图像中的分布示意;图2(d)是依托“有用”特征,通过mean-shift对该示例图像划分区域的效果示意,图中的每个黑圈就代表一个区域。
图3为本发明方法中建立倒排索引表的步骤示意图。
具体实施方式
如图1所示,本发明基于区域挖掘和空间编码的图像位置估计方法由离线和在线两个部分构成。在离线部分中,首先,我们提取GPS图像库中图像的全局特征,并对图像聚类,聚类后的结果用于在线部分的全局特征匹配。其次,对GPS图像库中的每张图像,我们进行区域挖掘和BOW位置描述符生成,即图1离线部分中的步骤102。该步骤包括三个子步骤:102-1是“有用”特征的筛选(以下a、b子步骤),102-2是区域挖掘及区域重要度排序,102-3是BOW位置描述符生成。最后,我们基于视觉单词,为整个GPS图像库建立了一个倒排索引表。
在在线部分中,步骤101是通过全局特征提取、匹配得到输入图像的候选图像集(其中全局特征匹配需用到离线部分中的全局特征聚类的结果);步骤102是对输入图像划分区域,对区域进行重要度排序以及为视觉单词生成位置描述符(与离线部分的102相同);步骤103是利用离线部分中的倒排索引表进行基于区域的图像匹配,最终获得输入图像的GPS位置。
本发明中对GPS图像库里的图像和输入图像都要进行分区域挖掘图像内容,所以离线和在线部分都有相同的步骤102。
接下来具体介绍图1所示方法:
一、在离线部分中,首先利用颜色纹理特征将GPS图像库中图像进行全局特征提取、聚类。我们采用的是k-means(k均值)聚类算法,将图像库划分为多个小规模的图像组;其次,我们为GPS图像库中每张图像划分区域,为区域进行重要度排序以及为视觉单词生成位置描述符(步骤102),具体步骤如下:
步骤102-1的有用特征筛选:
a)对于一张图像,如图2(a)所示,提取其尺度不变特征转换SIFT特征,并将其量化到视觉词汇包BOW模型上。图2(b)是提取的BOW在图2(a)中的分布展示图,图中白色圆点表示每个特征点的位置;
b)利用tf-idf(词频-反转文件频率)方法对该图像里的BOW进行筛选(图1中步骤102-1),结果如图2(c)所示,我们得到更能代表图像内容的“有用”词汇。这些词汇的有用性体现在既能加快检索速度,也有利于方法性能的提高;计算一个视觉单词的tf-idf值的公式如下:
其中,Sw表示第w个视觉单词的得分,fw表示第w个视觉单词在该张图像中出现的次数,N表示库中的图像总数,nw表示库中包含第w个视觉单词的图像数目。我们选取得分值大于0.001的BOW作为“有用”特征。
步骤102-2的区域挖掘及重要度排序的方法如下:
c)利用这些“有用”视觉词汇本身的位置分布特点,根据mean-shift算法对“有用”视觉词汇的坐标进行聚类(图1中102-2的区域挖掘)。Mean-shift算法得到多个类,其中一个类就代表一个区域,生成的类的数目就是对该张图像划分的区域数目,对该图划分区域的效果展示图如图2中图(d)所示。Mean-shift的基本思想如下:
其中,Sb(v)表示以v为中心,以b为半径的圆。z是落在Sb(v)区域里的视觉单词的坐标,k是落在Sb(v)里的视觉单词的个数,Mb(v)表示以v为起点的偏移矢量。
d)利用saliency map对区域的重要度进行排序(图1中102-2的区域重要度排序)。我们对和saliency map显著位置有重叠的区域给予较大权值。权值为a(0.5<a<1),其他区域权值就为1-a,实验中设的是a=2/3。考虑另两个因素:该区域内词汇个数除以该张图片内词汇总数,区域中心和图片中心的距离,对重要度的计算方法如下:
其中,Weighti表示第i个区域的重要值;rs表示区域的大小,即该区域内词汇个数除以该张图片内词汇总数;rp表示区域的位置,即区域中心和图片中心的距离。
步骤102-3的BOW位置描述符生成的方法如下:
e)对于一个区域而言,类内视觉词汇就是该区域的视觉内容描述。我们定义聚类中心就是该区域中心,以此为原点建立坐标系,对该区域内的每个视觉单词,我们计算其所在象限;
其中,RAi表示对第i个视觉单词所在象限的编码。(xi,yi)是第i个视觉单词的坐标,(a0,b0)是该区域中心的坐标。
f)计算每个视觉单词到中心的相对距离,相对性是体现在相对于区域内其他视觉单词到中心的距离;
其中,RDi表示对第i个视觉单词的相对距离的编码。di表示第i个视觉单词到区域中心的距离,n表示该区域内的视觉单词总数。
g)采用分级的思想做更详细的描述,根据上面所述方法,RD是1bit的描述符,反映了该视觉单词距离区域中心远或近的一个概念。在这里,我们采用可分级的思想:在计算得到后,以区域中心为圆心,以为半径画圆,得到一个子区域。如果然后该子区域内重复步骤102-3,得到相对距离的多位描述。
最后,我们对视觉单词建立倒排索引表,如图3所示。对于一个视觉单词#x,我们记录了包含#x的候选图像及图像的GPS位置,#x在这些候选图像中的区域标号以及在各个区域里对应的位置编码。
二、在线部分的具体操作如下:
在步骤101中,我们提取输入图像的颜色纹理特征,计算其和图像库聚类得到的多个类中心的欧氏距离。
di=||Fx-Ci||,(i=1,…,M)
其中,Fx表示输入图像的215维颜色纹理特征,Ci表示第i个类的中心,M表示对整个图像库的聚类数目。选择和输入图像距离比较近的前S个类,这S个类中的图像即为输入图像的候选图像集。
在步骤102中,我们为输入图像划分区域,计算区域重要度以及为视觉单词生成位置描述符,方法参见前述离线部分步骤102。
在步骤103中,我们用基于区域的图像匹配方法具体步骤如下:
a)匹配区域对检测:我们定义包含有相同视觉单词的两个区域(一个区域来自输入图像,一个区域来自候选图像)为匹配区域对。查找遍历输入图像里的每个BOW,以一个视觉单词w1为例,我们根据倒排索引表查找包含w1的候选图像,w1在这些候选图像中的所属区域以及对应的位置编码。;
b)假设我们检测到一个区域匹配对<Q,R>,Q是输入图像中的一个区域,R是候选图像中的一个区域。计算该匹配对的两个区域的内容相似度,方法是计算两个区域内相同BOW的空间一致性,公式如下:
其中,表示第i对区域的匹配得分,a表示该对区域内相同bow的数目。
c)对于一张候选图像和输入图像,我们可以检测得到多个区域匹配对,那么久依次计算这多个匹配区域对的得分。我们从而就得到多个匹配值,实验中取这多个匹配值的最大值作为该候选图像的得分。
其中,Scorej表示第j张候选图像的得分,n表示该候选图像和输入图像的匹配区域对数。
d)用k-nn(k最近邻)分类算法根据候选图像的GPS位置来估计输入图像的GPS位置。
Claims (2)
1.一种基于区域挖掘和空间编码的图像位置估计方法,由离线部分和在线部分构成,其特征在于,所述离线部分包括:首先,提取GPS图像库中图像的全局特征,并对图像聚类,聚类后的结果用于在线部分的全局特征匹配;其次,对GPS图像库中的每张图像,进行区域挖掘和BOW位置描述符生成;最后,基于视觉单词,为整个GPS图像库建立一个倒排索引表;其中,区域挖掘和BOW位置描述符生成包括三个子步骤:
(1)“有用”特征的筛选,
(2)区域挖掘及区域重要度排序,
(3)BOW位置描述符生成;
所述在线部分包括:
步骤101,通过全局特征提取、匹配得到输入图像的候选图像集,其中全局特征匹配需用到离线部分中的全局特征聚类的结果;
步骤102,对输入图像进行与离线部分中的区域挖掘和BOW位置描述符生成步骤相同的操作;
步骤103,利用离线部分中的倒排索引表进行基于区域的图像匹配,最终获得输入图像的GPS位置;
所述子步骤(2)的具体操作如下:
2.1、用meanshift算法对“有用”视觉词汇的坐标进行聚类,meanshift算法得到多个类,其中一个类就代表一个区域,生成的类的数目就是对图像划分的区域数目,meanshift算法如下:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>M</mi>
<mi>b</mi>
</msub>
<mo>(</mo>
<mi>v</mi>
<mo>)</mo>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>k</mi>
</mfrac>
<mstyle>
<munder>
<mo>&Sigma;</mo>
<mrow>
<msub>
<mi>v</mi>
<mi>P</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>S</mi>
<mi>b</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
</munder>
</mstyle>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>P</mi>
</msub>
<mo>-</mo>
<mi>v</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>S</mi>
<mi>b</mi>
</msub>
<mo>(</mo>
<mi>v</mi>
<mo>)</mo>
<mo>=</mo>
<mo>{</mo>
<mi>z</mi>
<mo>:</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<mi>z</mi>
<mo>-</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>(</mo>
<mi>z</mi>
<mo>-</mo>
<mi>v</mi>
<mo>)</mo>
<mo>&le;</mo>
<msup>
<mi>b</mi>
<mn>2</mn>
</msup>
<mo>}</mo>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,Sb(v)表示以v为中心,vP表示meanshift聚类中每个聚类含有点的个数,以b为半径的圆;z是落在Sb(v)区域里的视觉单词的坐标,k是落在Sb(v)里的视觉单词的个数,Mb(v)表示以v为起点的偏移矢量;
2.2、对区域的重要度排序是利用saliency map算法来挖掘图像的显著区域,选取和saliency map有重叠的meanshift区域,给以上区域赋予的权重为a,其余区域赋予的权重为1-a,a的值在实验中设为a=2/3,结合另两个因素:该区域内词汇个数除以包含以上显著区域的图片内词汇总数,区域中心和图片中心的距离,对重要度的计算方法如下:
<mrow>
<msub>
<mi>Weight</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mi>a</mi>
<mo>&times;</mo>
<mi>r</mi>
<mi>s</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>&times;</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mrow>
<mi>r</mi>
<mi>p</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>max</mi>
<mrow>
<mo>(</mo>
<mi>r</mi>
<mi>p</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中,Weighti表示第i个区域的重要值;rs表示区域的大小,即该区域内词汇个数除以该张图片内词汇总数;rp表示区域的位置,即区域中心和图片中心的距离;
所述子步骤(3)的具体操作如下:
3.1、对一个区域而言,定义聚类中心就是该区域中心,以此为原点建立坐标系;
3.2、对该区域内的每个视觉词汇,计算其所在象限;
<mrow>
<msub>
<mi>RA</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mo>&lsqb;</mo>
<mn>1</mn>
<mi> </mi>
<mn>0</mn>
<mi> </mi>
<mn>0</mn>
<mi> </mi>
<mn>0</mn>
<mo>&rsqb;</mo>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>></mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>></mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>&lsqb;</mo>
<mn>0</mn>
<mi> </mi>
<mn>1</mn>
<mi> </mi>
<mn>0</mn>
<mi> </mi>
<mn>0</mn>
<mo>&rsqb;</mo>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo><</mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>></mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>&lsqb;</mo>
<mn>0</mn>
<mi> </mi>
<mn>0</mn>
<mi> </mi>
<mn>1</mn>
<mi> </mi>
<mn>0</mn>
<mo>&rsqb;</mo>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo><</mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo><</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>&lsqb;</mo>
<mn>0</mn>
<mi> </mi>
<mn>0</mn>
<mi> </mi>
<mn>0</mn>
<mi> </mi>
<mn>1</mn>
<mo>&rsqb;</mo>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>></mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo><</mo>
<msub>
<mi>b</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,RAt表示对第t个视觉单词所在象限的编码,(xt,yt)是第t个视觉单词的坐标,(a0,b0)是该区域中心的坐标;
3.3、计算该区域内每个视觉词汇到中心的相对距离,相对性是体现在相对于区域内其他视觉单词到中心的距离;
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mover>
<mi>d</mi>
<mo>~</mo>
</mover>
<mo>=</mo>
<mfrac>
<msub>
<mi>d</mi>
<mi>l</mi>
</msub>
<mrow>
<mfrac>
<mi>1</mi>
<mi>n</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>d</mi>
<mi>m</mi>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>RD</mi>
<mi>l</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>0</mn>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mover>
<mi>d</mi>
<mo>~</mo>
</mover>
<mo>&le;</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>1</mn>
<mo>,</mo>
<mi>i</mi>
<mi>f</mi>
<mover>
<mi>d</mi>
<mo>~</mo>
</mover>
<mo>></mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,RDl表示对第l个视觉单词的相对距离的编码,dl表示第l个视觉单词到区域中心的距离,dm表示第m个视觉单词到区域中心的距离,n表示该区域内的视觉单词总数;
3.4、在计算得到后,以区域中心为圆心,以为半径画圆,然后重复步骤3.1-3.4,得到相对距离的多位描述。
2.如权利要求1所述的基于区域挖掘和空间编码的图像位置估计方法,其特征在于,所述步骤103的具体操作如下:
103-1、匹配区域对检测:定义包含有相同视觉单词的两个区域为匹配区域对,其中一个来自输入图像,另一个区域来自候选图像;
103-2、计算匹配对里两个区域的内容相似度,即两个区域内相同BOW的空间一致性,公式如下:
<mrow>
<msub>
<mi>MS</mi>
<msub>
<mi>P</mi>
<mi>w</mi>
</msub>
</msub>
<mo>=</mo>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mi>A</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>K</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>A</mi>
</munderover>
<msubsup>
<mi>PD</mi>
<mi>Q</mi>
<mi>K</mi>
</msubsup>
<mo>&CirclePlus;</mo>
<msubsup>
<mi>PD</mi>
<mi>R</mi>
<mi>K</mi>
</msubsup>
</mrow>
其中,和分别指区域匹配对Q和R中第K个相同词汇在各自区域的位置编码,表示第w对区域的匹配得分,A表示该对区域内相同bow的数目;
103-3、一张候选图像和输入图像有多个匹配区域对,依次计算多个匹配区域对的得分,那么就得到多个匹配值,取这多个匹配值的最大值作为该候选图像的得分
<mrow>
<msub>
<mi>Score</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>MS</mi>
<msub>
<mi>P</mi>
<mi>w</mi>
</msub>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>w</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2</mn>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mi>N</mi>
</mrow>
其中,Scorej表示第j张候选图像的得分,N表示该候选图像和输入图像的匹配区域对数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510202266.9A CN104778272B (zh) | 2015-04-24 | 2015-04-24 | 一种基于区域挖掘和空间编码的图像位置估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510202266.9A CN104778272B (zh) | 2015-04-24 | 2015-04-24 | 一种基于区域挖掘和空间编码的图像位置估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104778272A CN104778272A (zh) | 2015-07-15 |
CN104778272B true CN104778272B (zh) | 2018-03-02 |
Family
ID=53619736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510202266.9A Expired - Fee Related CN104778272B (zh) | 2015-04-24 | 2015-04-24 | 一种基于区域挖掘和空间编码的图像位置估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104778272B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104991954B (zh) * | 2015-07-20 | 2018-08-21 | 河海大学 | 基于图像搜索的购物搜索系统及其实现方法 |
CN106100968A (zh) * | 2016-05-26 | 2016-11-09 | 努比亚技术有限公司 | 一种信息分享方法及终端 |
CN106776849B (zh) * | 2016-11-28 | 2020-01-10 | 西安交通大学 | 一种以图快速检索景点的方法及导游系统 |
CN108305296B (zh) * | 2017-08-30 | 2021-02-26 | 深圳市腾讯计算机系统有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324677A (zh) * | 2013-05-24 | 2013-09-25 | 西安交通大学 | 一种可分级的快速图像gps位置估计方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0719033A2 (pt) * | 2006-12-01 | 2013-11-05 | Thomson Licensing | Estimativa de uma localização de um objeto em uma imagem |
-
2015
- 2015-04-24 CN CN201510202266.9A patent/CN104778272B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324677A (zh) * | 2013-05-24 | 2013-09-25 | 西安交通大学 | 一种可分级的快速图像gps位置估计方法 |
Non-Patent Citations (3)
Title |
---|
Cluster-based co-saliency detection;Huazhu Fu et al;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20131030;第22卷(第10期);第3766-3778页 * |
GPS estimation for places of interest from social users’ uploaded photos;Jing Li et al;《IEEE TRANSACTIONS ON MULTIMEDIA》;20131231;第15卷(第8期);第2058-2071页 * |
Image Taken Place Estimation via Geometric Constrained Spatial Layer Matching;Yisi Zhao et al;《International Conference on Multimedia Modeling》;20150105;第436-446页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104778272A (zh) | 2015-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Effective multi-query expansions: Collaborative deep networks for robust landmark retrieval | |
CN110263659B (zh) | 一种基于三元组损失和轻量级网络的指静脉识别方法及系统 | |
Lin et al. | RSCM: Region selection and concurrency model for multi-class weather recognition | |
CN106126581B (zh) | 基于深度学习的手绘草图图像检索方法 | |
Li et al. | GPS estimation for places of interest from social users' uploaded photos | |
CN205721777U (zh) | 视觉搜索设备和系统 | |
CN111241345A (zh) | 一种视频检索方法、装置、电子设备和存储介质 | |
US9626585B2 (en) | Composition modeling for photo retrieval through geometric image segmentation | |
CN103927387A (zh) | 图像检索系统及其相关方法和装置 | |
CN108427740B (zh) | 一种基于深度度量学习的图像情感分类与检索算法 | |
CN111339343A (zh) | 图像检索方法、装置、存储介质及设备 | |
Abdul-Rashid et al. | Shrec’18 track: 2d image-based 3d scene retrieval | |
CN104778272B (zh) | 一种基于区域挖掘和空间编码的图像位置估计方法 | |
Kishorjit Singh et al. | Image classification using SLIC superpixel and FAAGKFCM image segmentation | |
Li et al. | Co-saliency detection based on hierarchical consistency | |
CN103617609A (zh) | 基于图论的k-means非线性流形聚类与代表点选取方法 | |
Min et al. | Mobile landmark search with 3D models | |
Nie et al. | SHREC’18 track: 2D scene sketch-based 3D scene retrieval | |
Gao et al. | SHREC’15 Track: 3D object retrieval with multimodal views | |
Kim et al. | Classification and indexing scheme of large-scale image repository for spatio-temporal landmark recognition | |
Meng et al. | Merged region based image retrieval | |
Fang et al. | Pedestrian attributes recognition in surveillance scenarios with hierarchical multi-task CNN models | |
CN111652309A (zh) | 视觉单词和短语共驱动的词袋模型图片分类方法 | |
Jia et al. | An unsupervised person re‐identification approach based on cross‐view distribution alignment | |
Liu et al. | Selection of canonical images of travel attractions using image clustering and aesthetics analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180302 Termination date: 20210424 |
|
CF01 | Termination of patent right due to non-payment of annual fee |