[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6966875B2 - Image search device and program - Google Patents

Image search device and program Download PDF

Info

Publication number
JP6966875B2
JP6966875B2 JP2017108807A JP2017108807A JP6966875B2 JP 6966875 B2 JP6966875 B2 JP 6966875B2 JP 2017108807 A JP2017108807 A JP 2017108807A JP 2017108807 A JP2017108807 A JP 2017108807A JP 6966875 B2 JP6966875 B2 JP 6966875B2
Authority
JP
Japan
Prior art keywords
image
similarity
feature
symmetry
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017108807A
Other languages
Japanese (ja)
Other versions
JP2018205937A (en
Inventor
真綱 藤森
貴裕 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2017108807A priority Critical patent/JP6966875B2/en
Publication of JP2018205937A publication Critical patent/JP2018205937A/en
Application granted granted Critical
Publication of JP6966875B2 publication Critical patent/JP6966875B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、コンピュータ及びデータベースを用いた画像検索技術に関する。 The present invention relates to an image retrieval technique using a computer and a database.

現在実用化されている画像検索の中で主流な方法の一つは、手動或いは自動で予め画像に付与されたキーワードに対して、単語をクエリとして検索を行うものである。しかし、付与できるキーワードの種類や数には限りがあり、また、中には適切なキーワードを与えられない画像が存在することから、必ずしもユーザーの望む検索結果を提供することができない。 One of the mainstream methods of image search currently in practical use is to search by using a word as a query for a keyword given to an image in advance manually or automatically. However, since the types and number of keywords that can be given are limited, and some images cannot be given appropriate keywords, it is not always possible to provide the search results desired by the user.

そこで、近年ではキーワードを介さずに、画像同士の画像特徴の比較に基づき、「見た目の似た」画像を検索する類似画像検索(Content-Based Image Retrieval,CBIR)技術が知られている。 Therefore, in recent years, a similar image retrieval (Content-Based Image Retrieval, CBIR) technique for searching for "similar in appearance" images based on comparison of image features between images without using keywords has been known.

類似画像検索の主な動作は以下の通りである。例えば画像データベースに登録されている画像から、色、テクスチャ、濃淡といった画像特徴を予め抽出する。クエリとして与えられた画像から同様に画像特徴を抽出し、当該画像データベースの画像の画像特徴と比較し、類似度を計算する。そして、類似度が高い画像を自動的に選択し検索結果を画面に表示する。 The main operations of similar image search are as follows. For example, image features such as color, texture, and shading are extracted in advance from an image registered in an image database. Image features are similarly extracted from the image given as a query, compared with the image features of the images in the image database, and the degree of similarity is calculated. Then, an image having a high degree of similarity is automatically selected and the search result is displayed on the screen.

このような類似画像検索技法において、クエリ画像に対し大まかに見た目の類似した画像を検索する幾つかの技法が開示されている(例えば、特許文献1,2参照)。 In such a similar image search technique, some techniques for searching for an image having a roughly similar appearance to a query image are disclosed (see, for example, Patent Documents 1 and 2).

また、対称軸に基づいて領域分割を行ったうえで、クエリ画像と比較画像との特徴点の位置を比較する技法が開示されている(例えば、特許文献3参照)。 Further, a technique for comparing the positions of feature points between a query image and a comparison image after performing region division based on the axis of symmetry is disclosed (see, for example, Patent Document 3).

特開2003−233800号公報Japanese Patent Application Laid-Open No. 2003-233800 特開2003−216649号公報Japanese Patent Application Laid-Open No. 2003-216649 特開2010−272092号公報Japanese Unexamined Patent Publication No. 2010-272092

特許文献1,2に開示される技法では、クエリ画像に対し大まかに見た目の類似した画像を検索することはできるが、これらの技法で用いられている画像特徴では、画像内の被写体の詳細な構造や局所的な特徴の位置関係の情報を反映させることが難しい。従って、クエリ画像内の被写体と同一又は類似性の高い被写体の画像を高精度に検索することは困難であるという問題があった。 The techniques disclosed in Patent Documents 1 and 2 can search for images that are roughly similar in appearance to the query image, but the image features used in these techniques are detailed of the subject in the image. It is difficult to reflect information on the positional relationship of structures and local features. Therefore, there is a problem that it is difficult to search for an image of a subject having the same or high similarity as the subject in the query image with high accuracy.

また、特許文献3に開示される技法では、対称軸に基づいて領域分割を行ったうえで、クエリ画像と比較画像との特徴点の位置を比較する技法となっており、その処理効率の点では有効であるが、その領域分割に起因して対比する局所特徴の欠損が生じうるため、クエリ画像内の被写体と同一又は類似性の高い被写体の画像を高精度に検索することに関して改善の余地がある。 Further, the technique disclosed in Patent Document 3 is a technique of comparing the positions of feature points between the query image and the comparison image after performing region division based on the axis of symmetry, and the point of processing efficiency thereof. However, there is room for improvement in searching for images of subjects that are the same as or highly similar to the subject in the query image with high accuracy, because the local features to be compared may be lost due to the region division. There is.

本発明の目的は、上述の問題に鑑みて、クエリ画像内の被写体と同一又は類似性の高い被写体の画像を検索対象の画像データベース又はネットワーク上の画像から、高精度に検索可能とする画像検索装置及びプログラムを提供することにある。 In view of the above problems, an object of the present invention is an image search that enables highly accurate search of an image of a subject in a query image that is the same as or highly similar to the subject from an image database or an image on a network to be searched. To provide equipment and programs.

本発明の画像検索装置は、クエリ画像内の被写体と同一又は類似性の高い被写体の画像を、検索対象の画像データベース又はネットワーク上の画像から検索する画像検索装置であって、検索対象画像及びクエリ画像のそれぞれに対し、全体特徴ベクトルと詳細特徴ベクトルとを組み合わせた画像特徴ベクトルを計算する画像特徴計算手段と、前記検索対象画像における全体特徴ベクトルと前記クエリ画像における全体特徴ベクトルとの比較により第1の類似度を求め、且つ前記検索対象画像における詳細特徴ベクトルと前記クエリ画像における詳細特徴ベクトルとの比較により第2の類似度を求め、当該第1の類似度と第2の類似度の双方を考慮した類似度を計算する画像類似度計算手段と、当該計算した類似度を基に前記検索対象画像と前記クエリ画像との類似性を評価することにより前記クエリ画像内の被写体と同一又は類似性の高い被写体の画像を検索して抽出する類似画像抽出手段と、を備え前記画像特徴計算手段は、前記検索対象画像及び前記クエリ画像のそれぞれに対し画像の濃淡が二方向に所定値以上変化している点を特徴点とし、各特徴点の所定画像サイズ内の周辺領域における色、テクスチャ、勾配のいずれか1つ以上の情報をベクトル化した局所特徴として求め、前記検索対象画像及び前記クエリ画像のそれぞれの全体に対し所定の代表ベクトルを用いて当該局所特徴をベクトル量子化し、ベクトル量子化した局所特徴の出現頻度を正規化したヒストグラムを、前記全体特徴ベクトルとして求めることを特徴とする。 The image search device of the present invention is an image search device that searches for an image of a subject that is the same as or highly similar to the subject in the query image from an image database to be searched or an image on a network, and is a search target image and a query. For each of the images, the image feature calculation means for calculating the image feature vector by combining the overall feature vector and the detailed feature vector, and the overall feature vector in the search target image and the overall feature vector in the query image are compared. The similarity of 1 is obtained, and the second similarity is obtained by comparing the detailed feature vector in the search target image with the detailed feature vector in the query image, and both the first similarity and the second similarity are obtained. The image similarity calculation means for calculating the similarity in consideration of the above, and the same or similar to the subject in the query image by evaluating the similarity between the search target image and the query image based on the calculated similarity. The image feature calculation means includes a similar image extraction means for searching and extracting an image of a highly high-quality subject, and the image feature calculation means changes the shade of the image in two directions by a predetermined value or more with respect to each of the search target image and the query image. The point to be searched is used as a feature point, and one or more information of any one or more of a color, a texture, and a gradient in a peripheral area within a predetermined image size of each feature point is obtained as a vectorized local feature, and the search target image and the query are obtained. and vector quantization the local features using a predetermined representative vectors for the entire of each image, a histogram obtained by normalizing the frequency of the vector quantized local features, and wherein Rukoto determined as the whole feature vector ..

また、本発明の画像検索装置において、前記画像特徴計算手段は、前記検索対象画像及び前記クエリ画像のそれぞれに対し当該局所特徴の特徴空間での距離が近い特徴点の組を列挙し、同じ対称性によって結び付けられる特徴点の組ごとにグループ分けを行なって対称性グループを抽出し、特徴点の数が所定の閾値を超える対称性グループ、又は所属する特徴点が多い順に一定数の対称性グループを抽出し、当該所定の代表ベクトルを用いて、当該検索対象画像における各対称性グループに対し当該局所特徴をベクトル量子化し、ベクトル量子化した局所特徴の出現頻度を正規化したヒストグラムを、前記詳細特徴ベクトルとして求めることを特徴とする。 Further, in the image search device of the present invention, the image feature calculation means enumerates a set of feature points whose distances in the feature space of the local feature are close to each of the search target image and the query image, and has the same symmetry. A symmetry group is extracted by grouping each set of feature points linked by gender, and a symmetry group in which the number of feature points exceeds a predetermined threshold, or a fixed number of symmetry groups in descending order of the number of feature points to which they belong. Is extracted, the local feature is vector-quantized for each symmetry group in the search target image using the predetermined representative vector, and a histogram obtained by normalizing the appearance frequency of the vector-quantified local feature is obtained in the above-mentioned details. It is characterized by being obtained as a feature vector.

また、本発明の画像検索装置において、前記画像類似度計算手段は、前記検索対象画像における詳細特徴ベクトルと前記クエリ画像における詳細特徴ベクトルとの比較による前記第2の類似度を、対称性グループ毎の類似度の平均値、加算値、又は重み付け平均値により求めることを特徴とする。 Further, in the image search device of the present invention, the image similarity calculation means determines the second similarity by comparing the detailed feature vector in the search target image with the detailed feature vector in the query image for each symmetry group. It is characterized in that it is obtained by the average value, the addition value, or the weighted average value of the similarity of.

また、本発明の画像検索装置において、前記画像類似度計算手段は、当該第1の類似度と第2の類似度の双方を考慮した類似度として重み付け平均により、前記検索対象画像と前記クエリ画像との類似性を評価することを特徴とする。 Further, in the image search device of the present invention, the image similarity calculation means uses a weighted average as a similarity considering both the first similarity and the second similarity to obtain the search target image and the query image. It is characterized by evaluating the similarity with.

また、本発明の画像検索装置において、前記類似画像抽出手段は、所定数の当該検索対象画像に対し前記クエリ画像との類似性を評価し、類似度の高いものから所定数の検索対象画像を自動選択して外部に出力することを特徴とする。 Further, in the image search device of the present invention, the similar image extraction means evaluates the similarity of a predetermined number of the search target images with the query image, and selects a predetermined number of search target images from the one with the highest degree of similarity. The feature is that it is automatically selected and output to the outside.

また、本発明の画像検索装置において、前記画像特徴計算手段は、前記対称性グループの抽出時に、複数の対称性グループの抽出を許容し、且つ線対称、回転対称、及び並進対称のうち1つ以上を用いて同じ対称性によって結び付けられる特徴点の組ごとにグループ分けを行って当該複数の対称性グループを抽出することを特徴とする。

Further, in the image search device of the present invention, the image feature calculation means allows the extraction of a plurality of symmetry groups at the time of extracting the symmetry group, and is one of line symmetry, rotational symmetry, and translational symmetry. Using the above, grouping is performed for each set of feature points connected by the same symmetry, and the plurality of symmetry groups are extracted.

更に、本発明のプログラムは、本発明の画像検索装置をコンピュータとして機能させるためのプログラムとして構成される。 Further, the program of the present invention is configured as a program for operating the image search device of the present invention as a computer.

本発明によれば、クエリ画像の被写体と同一又は類似性の高い被写体の画像を高精度に検索することが可能となる。特に、対称性を有する被写体に有効であり、画像には多くの場合対称性が含まれているため、幅広い範囲で従来技法よりも検索精度を向上させることができる。 According to the present invention, it is possible to search for an image of a subject that is the same as or highly similar to the subject of the query image with high accuracy. In particular, it is effective for a subject having symmetry, and since the image often contains symmetry, it is possible to improve the search accuracy in a wide range as compared with the conventional technique.

本発明による一実施形態の画像検索装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the image search apparatus of one Embodiment by this invention. 本発明による一実施形態の画像検索装置における画像特徴計算部の処理を示すフローチャートである。It is a flowchart which shows the processing of the image feature calculation unit in the image search apparatus of one Embodiment by this invention. 本発明による一実施形態の画像検索装置における画像類似度計算部の処理を示すフローチャートである。It is a flowchart which shows the processing of the image similarity calculation unit in the image search apparatus of one Embodiment by this invention. (a),(b)は、それぞれ本発明による一実施形態の画像検索装置における画像類似度計算部の処理に係る説明図である。(A) and (b) are explanatory views relating to the processing of the image similarity calculation unit in the image search apparatus of one embodiment according to the present invention, respectively. (a),(b)は、それぞれ本発明による一実施形態の画像検索装置における検索結果と、典型的な従来技法の検索結果とを数値で比較する図である。(A) and (b) are diagrams for numerically comparing the search result in the image search device of one embodiment according to the present invention with the search result of a typical conventional technique.

以下、図面を参照して、本発明による一実施形態の画像検索装置1を説明する。図1は、本発明による一実施形態の画像検索装置の概略構成を示すブロック図である。 Hereinafter, the image retrieval device 1 according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of an image retrieval device according to an embodiment of the present invention.

〔装置構成〕
本実施形態の画像検索装置1は、前処理部11と検索処理部12とを備える。前処理部11は、画像特徴計算部111と、画像特徴ベクトル格納部112とを備える。また、検索処理部12は、画像特徴計算部121と、画像類似度計算部122と、類似画像抽出部123とを備える。
〔Device configuration〕
The image search device 1 of the present embodiment includes a preprocessing unit 11 and a search processing unit 12. The preprocessing unit 11 includes an image feature calculation unit 111 and an image feature vector storage unit 112. Further, the search processing unit 12 includes an image feature calculation unit 121, an image similarity calculation unit 122, and a similar image extraction unit 123.

本実施形態の画像検索装置1は、クエリ画像を基に、これと同一又は類似性の高い被写体の画像を検索する、インターネット等のネットワークに接続可能なコンピュータとして構成することができ、当該ネットワークに接続される所定の画像データベース、又はネットワークを介して閲覧可能なネットワーク上の画像を検索対象とする装置である。 The image search device 1 of the present embodiment can be configured as a computer that can be connected to a network such as the Internet to search for an image of a subject having the same or high similarity based on the query image. A device that searches for images on a predetermined image database to be connected or a network that can be viewed via a network.

以下に説明する例では、本発明の理解を高めるために、当該ネットワークに接続される所定の画像データベースとして予め特定した検索対象画像データベース2に格納されるN枚の検索対象画像群I,I,…,Iに対し、クエリ画像Iの被写体と同一又は類似性の高い被写体の画像を高精度に検索する例を説明する。 In the example described below, in order to enhance the understanding of the present invention, N search target image groups I 1 and I stored in the search target image database 2 previously specified as a predetermined image database connected to the network. 2, ..., with respect to I N, describes an example of searching an image of the query image I Q of the subject and the same or highly similar object with high accuracy.

ここで、本実施形態の画像検索装置1は、クエリ画像Iの被写体と同一又は類似性の高い「被写体」の検索を行うものであり、検索対象画像内の被写体の画像サイズや画角、色、テクスチャ、濃淡等の違いがあっても、同一又は類似性の高い「被写体」であれば検索成功とし、これを従来技法よりも高精度に行うものである。 Here, the image retrieval apparatus 1 of the present embodiment is for performing a search of high subject and identity or similarity of the query image I Q "subject", the image size and angle of the object in the search target image, Even if there are differences in color, texture, shading, etc., if the "subject" is the same or has high similarity, the search is successful, and this is performed with higher accuracy than the conventional technique.

まず、前処理部11における画像特徴計算部111は、検索対象画像データベース2に格納されるN枚の検索対象画像群I,I,…,Iに対し、それぞれ画像特徴ベクトルV[I],V[I],…,V[I]を計算し、各検索対象画像群I,I,…,Iと対応付けて画像特徴ベクトル格納部112に格納する。 First, the image feature calculating section 111 in the pretreatment unit 11, the search target image database of N frames stored in the 2 search target image group I 1, I 2, ..., with respect to I N, respectively image feature vector V [I 1], V [I 2] , ..., and calculates the V [I N], each search target image group I 1, I 2, ..., and stores the image feature vector storage unit 112 in association with I N.

一方、検索処理部12における画像特徴計算部121は、ユーザーから与えられたクエリ画像Iに対し、画像特徴ベクトルV[I]を計算し、画像類似度計算部122に出力する。尚、前処理部11における画像特徴計算部111と、検索処理部12における画像特徴計算部121の処理は同一であり、その詳細は後述する。 On the other hand, the image feature calculating section 121 in the search processing unit 12, with respect to the query image I Q given from the user, calculates the image feature vector V [I Q], and outputs the image similarity calculation unit 122. The processing of the image feature calculation unit 111 in the preprocessing unit 11 and the image feature calculation unit 121 in the search processing unit 12 are the same, and the details thereof will be described later.

画像類似度計算部122は、クエリ画像Iに関する画像特徴ベクトルV[I]と、画像特徴ベクトル格納部112に格納されるN枚の検索対象画像群I,I,…,Iに関するそれぞれの画像特徴ベクトルV[I],V[I],…,V[I]とを比較して、それぞれの類似度S(I,I),S(I,I),…,S(I,I)を計算し、検索対象画像データベース2に格納されるN枚の検索対象画像群I,I,…,Iに対応付けて類似画像抽出部123に出力する。 Image similarity calculation unit 122, the query image and the image feature vector V [I Q] about I Q, the N frames stored in the image feature vector storage unit 112 searched images I 1, I 2, ..., I N Compare the respective image feature vectors V [I 1 ], V [I 2 ], ..., V [ IN ] with respect to their respective similarity degrees S (I Q , I 1 ), S (I Q , I). 2 ), ..., S (I Q , IN ) is calculated, and similar images are extracted in association with the N search target image groups I 1 , I 2 , ..., IN stored in the search target image database 2. Output to unit 123.

類似画像抽出部123は、N枚の検索対象画像群に対するそれぞれの類似度S(I,I),S(I,I),…,S(I,I)のうち、類似度が高い所定数の画像(本例では上位R枚の画像)Id1,Id2,…,IdRを自動選択し検索結果として外部(例えば表示装置)に出力する。 The similar image extraction unit 123 has the similarity S (I Q , I 1 ), S (I Q , I 2 ), ..., S (I Q , IN ) with respect to the N search target image groups, respectively. A predetermined number of images with high similarity (in this example, the top R images) Id1 , Id2 , ..., IdR are automatically selected and output to the outside (for example, a display device) as a search result.

〔装置動作〕
(画像特徴計算処理)
図2は、本発明による一実施形態の画像検索装置1における画像特徴計算部111の処理を示すフローチャートである。尚、画像特徴計算部121の処理も図2と同様の処理である。
[Device operation]
(Image feature calculation processing)
FIG. 2 is a flowchart showing the processing of the image feature calculation unit 111 in the image search device 1 of the embodiment according to the present invention. The processing of the image feature calculation unit 121 is the same as that of FIG.

画像特徴計算部111は、検索対象画像データベース2に格納されるN枚の検索対象画像群I,I,…,Iに対し、それぞれ画像特徴ベクトルV[I],V[I],…,V[I]を計算する。即ち、検索対象画像Iに対し画像特徴ベクトルV[I]を求め、他の検索対象画像についても同様であり、以下では、検索対象画像Iに対し画像特徴ベクトルV[I]を求める処理を説明する。 Image feature calculating section 111, the search target image is stored in the database 2 of the N sheets searched image group I 1, I 2, ..., with respect to I N, respectively image feature vector V [I 1], V [ I 2 ], ..., V [ IN ] is calculated. That is, obtains the image feature vector V [I 1] to the search target image I 1, is the same for other retrieval target images, in the following, the search target image I 1 image feature vector V [I 1] to The required process will be explained.

まず、画像特徴計算部111は、検索対象画像Iに対し特徴点を検出する(ステップS1)。ここでいう特徴点とは、画像の濃淡が二方向に所定値以上変化している点であり、コーナーやクロス、もしくはそれらに近い点が該当する。特徴点の検出方法としては、例えばSIFT(Scale-Invariant Feature Transform)の検出に利用されるガウシアンピラミッドを用いた方法を利用できる(例えば、『D. G. Lowe,“Object recognition from local scale-invariant features,” Proc. of IEEE International Conference on Computer Vision (ICCV), pp. 1150-1157, 1999』参照)。 First, the image feature calculation unit 111 detects feature points for the search target image I 1 (step S1). The feature point referred to here is a point where the shading of the image changes by a predetermined value or more in two directions, and corresponds to a corner, a cross, or a point close to them. As a method for detecting feature points, for example, a method using the Gaussian pyramid used for detecting SIFT (Scale-Invariant Feature Transform) can be used (for example, "DG Lowe," Object recognition from local scale-invariant features, "". See Proc. Of IEEE International Conference on Computer Vision (ICCV), pp. 1150-1157, 1999).

続いて、画像特徴計算部111は、検索対象画像Iに対し検出された各特徴点の周辺領域(所定画像サイズ内)の局所特徴を計算する(ステップS2)。ここでいう局所特徴とは、特徴点の周辺領域の色、テクスチャ、勾配のいずれか1つ以上の情報をベクトル化したものであり、勾配特徴をベクトル化した例として鏡面反転を考慮したMIFTと称される方法を利用できる(例えば、『X. Guo and X. Cao,“MIFT: A framework for feature descriptors to be mirror reflection invariant,”Image and Vision Computing, vol. 30, no. 8, pp. 546-556, 2012』参照)。 Subsequently, the image feature calculation unit 111 calculates the local features of the peripheral region (within a predetermined image size) of each feature point detected for the search target image I 1 (step S2). The local feature here is a vector of information on any one or more of the color, texture, and gradient of the area around the feature point, and is an example of vectorizing the gradient feature with MIFT considering mirror surface inversion. The so-called method is available (eg, “X. Guo and X. Cao,“ MIFT: A framework for feature descriptors to be mirror reflection invariant, ”Image and Vision Computing, vol. 30, no. 8, pp. 546. -556, 2012 ”).

そして、画像特徴計算部111は、上記のステップS1,S2の処理を、N枚の検索対象画像群I,I,…,Iに対しそれぞれ行う。 Then, the image feature calculation unit 111 performs the processing of the above steps S1 and S2 for the N image search target image groups I 1 , I 2 , ..., IN , respectively.

以下では、全体特徴計算処理と詳細特徴計算処理に分けて処理を行う。
まず、全体特徴計算処理を説明する。
In the following, the processing is divided into the overall feature calculation process and the detailed feature calculation process.
First, the overall feature calculation process will be described.

画像特徴計算部111は、代表ベクトルを用いて、検索対象画像Iの全体に対し局所特徴をベクトル量子化する(ステップS3)。代表ベクトルは、本例ではN枚の検索対象画像群I,I,…,Iの全画像から抽出された局所特徴の全部、若しくは一部をクラスタリングし、そのクラスタ中心のベクトルを代表ベクトルとして定める。クラスタ数はデータベースの大きさに応じて適宜決定する。この代表ベクトルは予め不特定多数の画像から選出したものとしてもよい。 The image feature calculation unit 111 vector-quantizes the local features with respect to the entire search target image I 1 using the representative vector (step S3). In this example, the representative vector clusters all or part of the local features extracted from all the images of the N search target image groups I 1 , I 2 , ..., IN, and represents the vector at the center of the cluster. Defined as a vector. The number of clusters is appropriately determined according to the size of the database. This representative vector may be selected in advance from an unspecified number of images.

続いて、画像特徴計算部111は、検索対象画像Iに対しステップS3にて得られたベクトル量子化した局所特徴の出現頻度をヒストグラム化する(ステップS4)。つまり、当該検索対象画像I内で代表ベクトルを持つ局所特徴の出現頻度を調べる。 Subsequently, the image feature calculation unit 111 creates a histogram of the appearance frequency of the vector-quantized local features obtained in step S3 with respect to the search target image I 1 (step S4). That is, the appearance frequency of the local feature having the representative vector in the search target image I 1 is examined.

続いて、画像特徴計算部111は、ステップS4で得られた当該ヒストグラムを正規化する(ステップS5)。正規化の手法は、tf-idfを用いたL2正規化など、一般的な方法を用いることができる。即ち、検索対象画像Iに対し出現する局所特徴の出現頻度を基に、その全体を予測表現する特徴量を定義付ける。 Subsequently, the image feature calculation unit 111 normalizes the histogram obtained in step S4 (step S5). As the normalization method, a general method such as L2 normalization using tf-idf can be used. That is, based on the frequency of occurrence of local feature appearing to the search target image I 1, Teigizukeru the feature quantity predicting express its entirety.

続いて、画像特徴計算部111は、ステップS5で得られた正規化したヒストグラムを検索対象画像Iに対する全体特徴ベクトルV[I]とする(ステップS6)。 Subsequently, image feature calculating section 111 is the entire feature vector V G [I 1] of the normalized histogram obtained in step S5 to the search target image I 1 (step S6).

そして、画像特徴計算部111は、上記のステップS3〜S6の処理を、N枚の検索対象画像群I,I,…,Iに対しそれぞれ行って、全体特徴ベクトルV[I],V[I],…,V[I]を求める。即ち、或る検索対象画像Iに対し、画像特徴計算部111は、全体特徴ベクトルV[I]を得る。 Then, the image feature calculating section 111, the processing of steps S3 to S6, the search target image group I 1 of N sheets, I 2, ..., go respectively to I N, the entire feature vector V G [I 1 ], V G [I 2] , ..., determine the V G [I N]. That is, for a certain search target image I n, the image feature calculating section 111 obtains the entire feature vector V G [I n].

次に、詳細特徴計算処理を説明する。 Next, the detailed feature calculation process will be described.

画像特徴計算部111は、検索対象画像Iに対し局所特徴の特徴空間での距離が近い特徴点の組を列挙し、同じ対称性によって結び付けられる特徴点の組ごとにグループ分けを行う(ステップS7)。例えば線対称性に着目する場合には、同じ対象軸によって結び付けられる特徴点の組を一つのグループとする。このグループを対称性グループと呼ぶこととする。特徴点の組をグループ分けする方法としては線対称、回転対称、又は並進対称とすることができるが、本例では線対称を用いる例を説明する。 The image feature calculation unit 111 enumerates a set of feature points that are close in distance to the search target image I 1 in the feature space of the local feature, and groups the set of feature points connected by the same symmetry (step). S7). For example, when focusing on line symmetry, a set of feature points connected by the same target axis is regarded as one group. This group is called a symmetry group. As a method of grouping a set of feature points, line symmetry, rotational symmetry, or translational symmetry can be used, but in this example, an example using line symmetry will be described.

尚、線対称によるグループ化処理として、例えば『Z. Tang, P. Monasse, and J. Morel,“Reflexive Symmetry Detection in Single Image,”Proc. of the 8th International Conference Curves and Surfaces, pp. 452-460, 2014』、或いは『G. Loy and J. Eklundh,“Detecting symmetry and symmetric constellations of features,”ECCV, 2006』に開示される技法を利用できる。 As a grouping process by line symmetry, for example, "Z. Tang, P. Monasse, and J. Morel," Reflexive Symmetry Detection in Single Image, "Proc. Of the 8th International Conference Curves and Surfaces, pp. 452-460. , 2014 ”or“ G. Loy and J. Eklundh, “Detecting symmetry and symmetric constellations of features,” ECCV, 2006 ”.

また、回転対称によるグループ化処理として、例えば上記の『G. Loy and J. Eklundh,“Detecting symmetry and symmetric constellations of features,”ECCV, 2006』に開示される技法を利用できる。 Further, as the grouping process by rotational symmetry, for example, the technique disclosed in the above-mentioned "G. Loy and J. Eklundh," Detecting symmetry and symmetric constellations of features, "ECCV, 2006" can be used.

また、並進対称によるグループ化処理として、例えば『M. Park, K. Brocklehurst, R. T. Collins, and Y. Liu,“Deformed lattice detection in real-world images using mean-shift belief propagation,”IEEE Transaction on Pattern Analysis and Machine Intelligence (TPAMI), vol. 31, No. 10』に開示される技法を利用できる。 In addition, as grouping processing by translational symmetry, for example, "M. Park, K. Brocklehurst, RT Collins, and Y. Liu," Deformed lattice detection in real-world images using mean-shift belief propagation, "IEEE Transaction on Pattern Analysis. The techniques disclosed in and Machine Intelligence (TPAMI), vol. 31, No. 10 ”are available.

ここで、画像特徴計算部111は、検索対象画像Iに対し構成したグループのうち、各グループ内に所属する特徴点の数が所定の閾値を超えるもののみ採用する、または所属する特徴点が多い順に一定数の対称性グループのみ採用することで、検出された対称性グループの信頼度を上げることができる。最終的に採用された対称性グループの個数をM個(Mは0以上の整数)とする。 Here, the image feature calculation unit 111 adopts only those groups configured for the search target image I 1 in which the number of feature points belonging to each group exceeds a predetermined threshold value, or the feature points to which the image feature points belong are. By adopting only a certain number of symmetry groups in descending order, the reliability of the detected symmetry groups can be increased. The number of symmetry groups finally adopted is M 1 (M 1 is an integer of 0 or more).

続いて、画像特徴計算部111は、ステップS3で得られた代表ベクトルを用いて、検索対象画像Iにおける各対称性グループに対し、局所特徴をベクトル量子化する(ステップS8)。 Subsequently, image feature calculating section 111, using the representative vector obtained in step S3, for each symmetric group of search target image I 1, is vector-quantized local features (step S8).

続いて、画像特徴計算部111は、検索対象画像Iにおける各対称性グループに対し、ベクトル量子化された局所特徴の出現頻度のヒストグラムを生成する(ステップS9)。従って、M個のヒストグラムが得られる。 Subsequently, the image feature calculation unit 111 generates a histogram of the appearance frequency of vector-quantized local features for each symmetry group in the search target image I 1 (step S9). Thus, M 1 single histogram is obtained.

続いて、画像特徴計算部111は、ステップS9で得られた対称性グループ毎に、当該ヒストグラムを正規化する(ステップS10)。正規化の手法は、ステップS5と同様のものとする。即ち、検索対象画像I内の各対称性グループにて出現する局所特徴の出現頻度を基に、その各対称性グループを予測表現する特徴量を定義付ける。 Subsequently, the image feature calculation unit 111 normalizes the histogram for each symmetry group obtained in step S9 (step S10). The normalization method is the same as in step S5. That is, based on the frequency of occurrence of local feature appearing in each symmetry group in the search target image I 1, Teigizukeru the feature quantity predicting representing the respective symmetry group.

続いて、画像特徴計算部111は、ステップS10で得られた、対称性グループ毎に正規化したヒストグラムを検索対象画像Iに対する詳細特徴ベクトルVSym[I,1],VSym[I,2],…,VSym[I,M]とする(ステップS11)。 Subsequently, the image feature calculation unit 111 uses the detailed feature vector V Sym [I 1 , 1], V Sym [I 1 ] for the search target image I 1 to obtain the histogram normalized for each symmetry group obtained in step S10. , 2], ..., V Sym [I 1 , M 1 ] (step S11).

そして、画像特徴計算部111は、上記のステップS7〜S11の処理を、N枚の検索対象画像群I,I,…,Iに対しそれぞれ行って、N枚の検索対象画像群I,I,…,Iのうちの或る検索対象画像Iについて、詳細特徴ベクトルVSym[I,1],VSym[I,2],…,VSym[I,M]を求める。 Then, the image feature calculating section 111, the processing of steps S7 to S11, the search target image group I 1 of N sheets, I 2, ..., go respectively to I N, N pieces of search target images I 1, I 2, ..., for a certain search target image I n of I n, detailed feature vector V Sym [I n, 1] , V Sym [I n, 2], ..., V Sym [I n, M n ] is obtained.

最終的に、画像特徴計算部111は、上記のステップS6で得られた全体特徴ベクトルと、上記のステップS11で得られた詳細特徴ベクトルをまとめて、N枚の検索対象画像群I,I,…,Iに対し、それぞれの画像特徴ベクトルV[I],V[I],…,V[I]を得る。即ち、或る検索対象画像Iに対し、画像特徴計算部111は、画像特徴ベクトルV[I]={V[I],VSym[In,1], VSym [I,2],…,VSym [I,M]}を得る。 Finally, the image feature calculation unit 111 puts together the overall feature vector obtained in step S6 and the detailed feature vector obtained in step S11, and N images of the search target image groups I 1 and I 2, ..., with respect to I N, each image feature vector V [I 1], V [ I 2], ..., obtain V [I N]. That is, for a certain search target image I n, the image feature calculating section 111, the image feature vector V [I n] = {V G [I n], V Sym [In, 1], V Sym [I n, 2], obtained ..., V Sym [I n, the M n]}.

ただし、N枚の検索対象画像群I,I,…,Iのうちの或る検索対象画像Iに対し、M=0となる(対称性グループが得られなかった)場合は、画像特徴ベクトルV[I]={V[I],VSym[I,1]}と定める。ここで、対称性グループが得られなかった場合のVSym[I,1]は、その旨が識別できるように定める(例えば図3を参照して後述する画像類似度計算処理の際に詳細画像類似度が常に0となるように、0ベクトルとして定める)。 However, the search target image group I 1, I 2 of N sheets, ..., with respect to certain search target image I n of I N, the M n = 0 (symmetric group has not obtained) case the image feature vector V [I n] = {V G [I n], V Sym [I n, 1]} defined as. Here, V Sym when symmetry group is not obtained [I n, 1] is detailed in the image similarity calculation process that effect will be described below with reference to the determined (e.g. FIG. 3 can be identified It is defined as a 0 vector so that the image similarity is always 0).

画像特徴計算部121の処理も図2と同様の処理であり、画像特徴計算部121は、クエリ画像Iに対し、画像特徴ベクトルV[I]={V[I],VSym[I,1], VSym [I,2],…,VSym [I,M]}を得る。 Processing of the image feature calculating section 121 is also similar to the processing of FIG. 2, the image feature calculating section 121, with respect to the query image I Q, the image feature vector V [I Q] = {V G [I Q], V Sym [I Q, 1], V Sym [I Q, 2], obtained ..., V Sym [I Q, M Q] a}.

このようにして、画像特徴計算部111,121は、例えば図4(a)に示す多数の〇枠内で表された特徴点から構成された全体特徴ベクトルを、クエリ画像Iについては全体特徴ベクトルV[I]として、或る検索対象画像Iについては全体特徴ベクトルV[I]として、互いに対比可能に算出する。 In this way, the image feature calculation units 111 and 121, for example, provide an overall feature vector composed of feature points represented within a large number of frames shown in FIG. 4A, and the query image IQ shows the overall feature. as a vector V G [I Q], about certain search target image I n the entire feature vector V G [I n], is comparably calculated one another.

また、画像特徴計算部111,121は、例えば図4(b)に示す第1の対象軸Sym1を共通に持つ第1対称性グループを示す一点破線〇枠内の多数の〇枠内で表された特徴点から構成された詳細特徴ベクトルを、クエリ画像Iについては詳細特徴ベクトルVSym[I,1]として、或る検索対象画像Iについては詳細特徴ベクトルVSym[I,1]として、互いに対比可能に算出する。 Further, the image feature calculation units 111 and 121 are represented by, for example, a large number of 〇 frames in the one-dot broken line 〇 frame indicating the first symmetry group having the first target axis Sym1 in common as shown in FIG. 4 (b). and the detailed feature vectors constructed from the feature points, the query image I as a detailed feature vector V Sym [I Q, 1] for Q, one search target image detail feature vector V Sym for I n [I n, 1 ], Calculated so that they can be compared with each other.

更に、画像特徴計算部111,121は、例えば図4(b)に示す第2の対象軸Sym2を共通に持つ第2対称性グループを示す一点破線〇枠内の多数の〇枠内で表された特徴点から構成された詳細特徴ベクトルを、クエリ画像Iについては詳細特徴ベクトルVSym[I,2]として、或る検索対象画像Iについては詳細特徴ベクトルVSym[I,2]として、互いに対比可能に算出する。 Further, the image feature calculation units 111 and 121 are represented by, for example, a large number of 〇 frames within the one-dot broken line 〇 frame indicating the second symmetry group having the second target axis Sym2 in common as shown in FIG. 4 (b). and the detailed feature vectors constructed from the feature points, the query image I as a detailed feature vector V Sym [I Q, 2] for Q, one search target image detail feature vector V Sym for I n [I n, 2 ], Calculated so that they can be compared with each other.

(画像類似度計算処理)
図3は、本発明による一実施形態の画像検索装置1における画像類似度計算部122の処理を示すフローチャートである。
(Image similarity calculation processing)
FIG. 3 is a flowchart showing the processing of the image similarity calculation unit 122 in the image retrieval device 1 of the embodiment according to the present invention.

画像類似度計算部122は、クエリ画像Iに関する画像特徴ベクトルV[I]と、画像特徴ベクトル格納部112に格納されるN枚の検索対象画像群I,I,…,Iに関するそれぞれの画像特徴ベクトルV[I],V[I],…,V[I]とを比較して、それぞれの類似度S(I,I),S(I,I),…,S(I,I)を計算する。類似度の計算には、ベクトル同士の内積や、ユークリッド距離を0〜1に正規化したものなど、一般的なものを用いる。 Image similarity calculation unit 122, the query image and the image feature vector V [I Q] about I Q, the N frames stored in the image feature vector storage unit 112 searched images I 1, I 2, ..., I N Compare the respective image feature vectors V [I 1 ], V [I 2 ], ..., V [ IN ] with respect to their respective similarity degrees S (I Q , I 1 ), S (I Q , I). 2 ), ..., S (I Q , IN ) is calculated. For the calculation of the degree of similarity, a general one such as an inner product of vectors or a normalization of the Euclidean distance to 0 to 1 is used.

まず、画像類似度計算部122は、クエリ画像Iに関する画像特徴ベクトルV[I]と、N枚の検索対象画像群I,I,…,Iのうちの或る検索対象画像Iに関する画像特徴ベクトルV[I]とを入力する(ステップS21)。 First, the image similarity calculation unit 122, an image feature vector V [I Q] about the query image I Q, search target image group I 1 of N sheets, I 2, ..., one search target image among the I N I n relates inputs the image feature vector V [I n] (step S21).

続いて、画像類似度計算部122は、全体画像類似度S(I,I)と、対称性グループ毎の類似度の平均値として詳細画像類似度SSym(I,I)を個別に求める。 Then, the image similarity calculation unit 122, the entire image similarity S G (I Q, I n ) and an average detail image similarity as value S Sym of similarity for each symmetry group (I Q, I n) Is individually calculated.

第1に、画像類似度計算部122は、クエリ画像Iに関する画像特徴ベクトルV[I]における全体特徴ベクトルV[I]と、当該検索対象画像Iに関する画像特徴ベクトルV[I]における全体特徴ベクトルV[I]とを比較して、全体画像類似度S(I,I)を求める(ステップS22)。 First, the image similarity calculation unit 122, a query image I Q and the image feature vector V entire feature vector V G in [I Q] [I Q] about the image feature vector V [I related to the search target image I n by comparing the entire feature vector V G [I Q] in n], the entire image similarity S G (I Q, I n ) Request (step S22).

第2に、画像類似度計算部122は、詳細画像類似度SSym(I,I)を以下の手順で求める(ステップS23)。 Second, the image similarity calculation unit 122 obtains detailed image similarity S Sym (I Q, I n ) to the following procedure (Step S23).

まず、クエリ画像Iの対称性グループの添字集合をID={1,2,…,M}、当該検索対象画像Iの対称性グループの添字集合をID={1,2,…,M}とする。ここで、M,Mは、それぞれクエリ画像Iと検索対象画像Iの詳細特徴ベクトルの個数である。 First, the query image ID subscripts set of symmetry groups of I Q Q = {1,2, ... , M Q}, the search target image I ID subscripts set of symmetry groups of n n = {1, 2, ..., M n }. Here, M Q, M n is the number of detailed feature vectors of each query image I Q search target image I n.

始めに、mの初期値を1とする。 First, the initial value of m is set to 1.

(処理A)画像類似度計算部122は、Vsym[I,i]とVsym[I,j]との類似度が最大となるiとjをそれぞれID,IDから選択し、その類似度をSSym(I,I)[m]とする。詳細画像類似度の計算は、全体画像類似度の計算と同じ方法とする。 (Process A) an image similarity calculation unit 122, V sym [I Q, i ] and V sym [I n, j] similarity is maximum between i and j, respectively ID Q, selected from ID n , the degree of similarity S Sym and (I Q, I n) [ m]. The calculation of the detailed image similarity is the same as the calculation of the overall image similarity.

(処理B)次に、画像類似度計算部122は、SSym(I,I)[m]=0であるか否かを検査し、SSym(I,I)[m]=0であれば“処理E”へ移行する。 (Process B) Next, the image similarity calculator 122, S Sym checks whether the (I Q, I n) [ m] = 0, S Sym (I Q, I n) [m] If = 0, the process proceeds to "Process E".

(処理C)次に、画像類似度計算部122は、SSym(I,I)[m]=0でないとき、ID,IDから当該i,jを除き、m=m+1とする。 (Process C) Next, the image similarity calculator 122, S Sym not equal (I Q, I n) [ m] = 0, except for the i, j from the ID Q, ID n, and m = m + 1 ..

(処理D)画像類似度計算部122は、ID,IDが空集合となるまで、上記の(処理A)〜(処理C)を繰り返し、ID,IDが空集合となるとき、“処理E”へ移行する。 (Process D) image similarity calculation unit 122, ID Q, until ID n is an empty set, repeating the above (process A) ~ a (process C), when the ID Q, is ID n becomes an empty set, Move to "Process E".

(処理E)画像類似度計算部122は、SSym(I,I)を、SSym(I,I))[1],…,SSym(I,I)[m−1]の平均値として求める。ただし、SSym(I,I)[1]=0の場合、SSym(I,I)=0とする。 (Process E) image similarity calculator 122, S Sym (I Q, I n) a, S Sym (I Q, I n)) [1], ..., S Sym (I Q, I n) [m -1] is calculated as the average value. However, S Sym case of (I Q, I n) [ 1] = 0, S Sym (I Q, I n) and = 0.

このようにして、画像類似度計算部122は、対称性グループ毎の類似度の平均値として詳細画像類似度SSym(I,I)を求める。 In this manner, the image similarity calculator 122, detailed image similarity as the average value of the similarity of each symmetry group S Sym (I Q, I n ) is determined.

最終的に、画像類似度計算部122は、クエリ画像Iに関する画像特徴ベクトルV[I]と、当該検索対象画像Iに関する画像特徴ベクトルV[I]との比較による画像類似度S(I,I)を、全体画像類似度S(I,I)と、対称性グループ毎の類似度の平均値として詳細画像類似度SSym(I,I)の加重平均として、次式により求める(ステップS24)。
S(I,I)=(1−a)S(I,I)+aSSym(I,I
Finally, the image similarity calculation unit 122, a query image I Q and the image feature vector V [I Q] regarding the image similarity S by comparison with the image feature vector V about the search target image I n [I n] (I Q, I n) of the entire image similarity S G (I Q, I n ) and, detailed image similarity as the average value of the similarity of each symmetry group S Sym (I Q, I n ) weighted of As an average, it is calculated by the following equation (step S24).
S (I Q, I n) = (1-a) S G (I Q, I n) + aS Sym (I Q, I n)

ただし、aは、対象軸の寄与を決めるパラメータである(0<a<1)。 However, a is a parameter that determines the contribution of the target axis (0 <a <1).

即ち、図4(b)に示す例では、M=M=2であり、第1対称性グループにおける詳細特徴ベクトルの類似度SSym(I,I)[1]はVSym[I,1]とVSym[I,1]の類似度、第2対称性グループにおける詳細特徴ベクトルのSSym(I,I)[2]はVSym[I,2]とVSym[I,2]の類似度となっている。このため、詳細画像類似度SSym(I,I)は、対称性グループ毎の類似度の平均値として、SSym(I,I)=(SSym(I,I)[1]+SSym(I,I)[2])/2となる。 That is, in the example shown in FIG. 4 (b), an M Q = M n = 2, the similarity S Sym detailed feature vectors in the first symmetry group (I Q, I n) [ 1] is V Sym [ I Q, 1] and V Sym [I n, 1] of similarity, S Sym detailed feature vectors in the second symmetry group (I Q, I n) [ 2] and V Sym [I Q, 2] and it has a degree of similarity of the V Sym [I n, 2] . Therefore, detailed image similarity S Sym (I Q, I n ) is the average value of the similarity of each symmetry group, S Sym (I Q, I n) = (S Sym (I Q, I n) [1] + S Sym (I Q, n) [2]) / 2 to become.

尚、図4(b)に示す例では、本発明の理解を高めるために、複数の対称性グループは互いに重複していないが、実際には、本実施形態の画像検索装置1は、抽出する対称性グループの重複を許容しており、これにより対比する局所特徴の欠損を防止して精度を高めることができる。 In the example shown in FIG. 4B, in order to enhance the understanding of the present invention, the plurality of symmetry groups do not overlap each other, but in reality, the image search device 1 of the present embodiment extracts. Overlapping symmetry groups are allowed, which can prevent loss of contrasting local features and improve accuracy.

尚、画像類似度計算部122は、対称性グループ毎の類似度の平均値として詳細画像類似度SSym(I,I)を求める代わりに、対称性グループ毎の類似度の和、即ち、SSym(I,I)=SSym(I,I)[1],…,SSym(I,I)[m−1]の和として求めてもよい。 The image similarity calculation unit 122, detailed image similarity S Sym (I Q, I n ) as the average value of the similarity of each symmetry group instead of obtaining the sum of the similarity of each symmetry group, i.e. , S Sym (I Q, I n) = S Sym (I Q, I n) [1], ..., S Sym may be determined as the sum of (I Q, I n) [ m-1].

或いは、画像類似度計算部122は、対称性グループ毎の類似度の平均値として詳細画像類似度SSym(I,I)を求める代わりに、対称性グループ毎の類似度の重み付け平均値、即ち、SSym(I,I)=SSym(I,I)[1],…,SSym(I,I)[m−1]の重み付け平均値として求めてもよい。このときの重みには、対称軸検出のアルゴリズムの結果として対称軸の信頼度の指標となる値が得られる場合にはそれを用いることができる。 Alternatively, the image similarity calculation unit 122, detailed image similarity S Sym (I Q, I n ) as the average value of the similarity of each symmetry group instead of obtaining the degree of similarity weighted average for each symmetric group , i.e., S Sym (I Q, I n) = S Sym (I Q, I n) [1], ..., S Sym be calculated as a weighted average of (I Q, I n) [ m-1] good. As the weight at this time, if a value that is an index of the reliability of the axis of symmetry is obtained as a result of the algorithm for detecting the axis of symmetry, it can be used.

このように、対称性グループ毎の類似度の平均値、加算値、又は重み付け平均値として詳細画像類似度SSym(I,I)を求めることにより、対称軸が多く検出されるほど類似度が低くなる状況を回避することができる。 Thus, the similarity of the average value of each symmetry group, the additional value, or weighted average detail image similarity as value S Sym (I Q, I n ) by calculating the similarity as the axis of symmetry is detected many It is possible to avoid the situation where the degree is low.

以上のように、画像類似度計算部122は、画像特徴ベクトル格納部112に格納されるN枚の検索対象画像群I,I,…,Iに関するそれぞれの画像特徴ベクトルV[I],V[I],…,V[I]について、クエリ画像Iに関する画像特徴ベクトルV[I]と比較することにより、N枚の検索対象画像群に対するそれぞれの類似度S(I,I),S(I,I),…,S(I,I)を計算する。これにより、類似画像抽出部123は、N枚の検索対象画像群のうち、類似度が高い所定数の画像(本例では上位R枚の画像)Id1,Id2,…,IdRを自動選択し検索結果として外部(例えば表示装置)に出力することができる。 As described above, the image similarity calculation unit 122 has the image feature vector V [I 1] for each of the N search target image groups I 1 , I 2 , ..., IN stored in the image feature vector storage unit 112. ], V [I 2], ..., V [ for I N], the query image I by comparing an image feature vector V [I Q] regarding Q, respectively for N pieces of retrieval target image group similarity S ( IQ , IQ 1 ), S (I Q , I 2 ), ..., S (I Q , IN ) are calculated. As a result, the similar image extraction unit 123 automatically performs I d1 , I d2 , ..., I dR of a predetermined number of images having a high degree of similarity (in this example, the upper R images) among the N search target image groups. It can be selected and output as a search result to the outside (for example, a display device).

図5(a),(b)には、それぞれ本発明による一実施形態の画像検索装置1における検索結果と、典型的な従来技法(即ち、全体特徴ベクトルのみの類似度評価)の検索結果とを数値で比較する図である。図5(a), (b)にて使用したデータセットはそれぞれ一般的に開示されている種々の蝶々、陸橋を含む種々の建設物に関するデータセットを用いて、そのうちの1つの画像(図5(a)については或る蝶々、図5(b)については或る陸橋)をクエリ画像として、他の画像を検索対象画像として評価した。対称性については線対称を考慮し、上記の『Z. Tang, P. Monasse, and J. Morel,“Reflexive Symmetry Detection in Single Image,”Proc. of the 8th International Conference Curves and Surfaces, pp. 452-460, 2014』をベースにした手法を用いている。 5 (a) and 5 (b) show the search results of the image search device 1 of the embodiment according to the present invention, and the search results of a typical conventional technique (that is, the similarity evaluation of only the overall feature vector). It is a figure which compares numerically. The datasets used in FIGS. 5 (a) and 5 (b) are images of one of them (FIG. 5) using the datasets for various structures including various butterflies and overpasses, which are generally disclosed, respectively. A butterfly for (a) and an overpass for FIG. 5 (b) were evaluated as query images, and other images were evaluated as search target images. Regarding symmetry, considering line symmetry, the above "Z. Tang, P. Monasse, and J. Morel," Reflexive Symmetry Detection in Single Image, "Proc. Of the 8th International Conference Curves and Surfaces, pp. 452- The method based on "460, 2014" is used.

図5(a)に示す蝶々のデータセットでは、従来技法に対応する比較例では対称性を考慮した特徴ベクトルを使用しない場合(パラメータa=0)とし、本発明による実施例では対称性を考慮した特徴ベクトルを使用した場合(パラメータa=0.7)とした。 In the butterfly data set shown in FIG. 5A, it is assumed that the feature vector considering symmetry is not used in the comparative example corresponding to the conventional technique (parameter a = 0), and the symmetry is considered in the embodiment according to the present invention. It was assumed that the feature vector was used (parameter a = 0.7).

また、図5(b)に示す陸橋のデータセットでは、従来技法に対応する比較例では対称性を考慮した特徴ベクトルを使用しない場合(パラメータa=0)とし、本発明による実施例では対称性を考慮した特徴ベクトルを使用した場合(パラメータa=0.5)とした。 Further, in the overpass data set shown in FIG. 5B, it is assumed that the feature vector considering symmetry is not used in the comparative example corresponding to the conventional technique (parameter a = 0), and the symmetry in the embodiment according to the present invention. It was assumed that the feature vector in consideration of the above was used (parameter a = 0.5).

平均適合率APは、i番目の正解までの適合率(=正解数/総数)をPとして、以下の式で計算される。ただしNは正解画像の総数である。0≦AP≦1であり、1に近いほど検索精度は良いデータセットとなっている。 Average precision AP fits rate up i th correct answer (= number of correct answers / total) as P i, is calculated by the following equation. However, N is the total number of correct images. 0 ≦ AP ≦ 1, and the closer it is to 1, the better the search accuracy is.

Figure 0006966875
Figure 0006966875

図5(a),(b)に示す比較から分かるように、クエリ画像の被写体と同一又は類似性の高い被写体の画像を高精度に検索することが可能となる。特に、陸橋よりも蝶々の検索結果が従来技法より著しく向上しているように、対称性を有する被写体に有効であり、画像には多くの場合対称性が含まれているため、幅広い範囲で従来技法よりも検索精度を向上させることができる。また、図5(a),(b)では、それぞれ本発明による実施例としてパラメータa=0.7又は0.5としているがそれぞれの探索結果として最適化な数値を模索して設定した値であるが、概ね、パラメータa=0.5〜0.7の範囲で設定することで、汎用性が得られることも確認された。 As can be seen from the comparisons shown in FIGS. 5A and 5B, it is possible to search for an image of a subject having the same or high similarity as the subject of the query image with high accuracy. In particular, it is effective for subjects with symmetry, as the search results for butterflies are significantly better than conventional techniques over overpasses, and images often contain symmetry, so they are traditional in a wide range. The search accuracy can be improved more than the technique. Further, in FIGS. 5 (a) and 5 (b), the parameter a = 0.7 or 0.5 is set as an embodiment according to the present invention, respectively, but the values set by searching for the optimum numerical value as each search result. However, it was also confirmed that versatility can be obtained by setting the parameter a in the range of 0.5 to 0.7.

図5(a),(b)に示す比較では、主観を除くために、クエリ画像内の被写体と「同一の被写体」の画像を高精度に検索することに関して評価したが、クエリ画像内の被写体と「同一又は類似性の高い被写体」の画像を高精度に検索する目的においてはより有効な結果が期待できる。 In the comparison shown in FIGS. 5A and 5B, in order to eliminate the subjectivity, the subject in the query image and the image of the "same subject" were evaluated with high accuracy, but the subject in the query image was evaluated. More effective results can be expected for the purpose of searching for images of "subjects with high same or high similarity" with high accuracy.

包括するに、本実施形態の画像検索装置1は、画像特徴計算部111,121により、検索対象画像及びクエリ画像のそれぞれに対し、まず、全体特徴ベクトルと詳細特徴ベクトルとを組み合わせた画像特徴ベクトルを計算する。 Inclusively, in the image search device 1 of the present embodiment, the image feature calculation units 111 and 121 first use an image feature vector in which an overall feature vector and a detailed feature vector are combined for each of the search target image and the query image. To calculate.

ここで、本実施形態の画像検索装置1における画像特徴計算部111,121は、検索対象画像及びクエリ画像のそれぞれに対し画像の濃淡が二方向に所定値以上変化している点を特徴点とし、各特徴点の所定画像サイズ内の周辺領域における色、テクスチャ、勾配のいずれか1つ以上の情報をベクトル化した局所特徴として求め、当該検索対象画像及びクエリ画像のそれぞれの全体に対し所定の代表ベクトルを用いて当該局所特徴をベクトル量子化し、ベクトル量子化した局所特徴の出現頻度を正規化したヒストグラムを全体特徴ベクトルとして求める。 Here, the image feature calculation units 111 and 121 in the image search device 1 of the present embodiment have a feature point that the shading of the image changes in two directions by a predetermined value or more with respect to each of the search target image and the query image. , Information on any one or more of color, texture, and gradient in the peripheral region within the predetermined image size of each feature point is obtained as a vectorized local feature, and is predetermined for each of the search target image and the query image. The local feature is vector-quantified using a representative vector, and a histogram obtained by normalizing the appearance frequency of the vector-quantified local feature is obtained as an overall feature vector.

また、本実施形態の画像検索装置1における画像特徴計算部111,121は、検索対象画像及びクエリ画像のそれぞれに対し当該局所特徴の特徴空間での距離が近い特徴点の組を列挙し、同じ対称性によって結び付けられる特徴点の組ごとにグループ分けを行なって対称性グループを抽出し、特徴点の数が所定の閾値を超える対称性グループ、又は所属する特徴点が多い順に一定数の対称性グループを抽出し、当該所定の代表ベクトルを用いて、当該検索対象画像における各対称性グループに対し当該局所特徴をベクトル量子化し、ベクトル量子化した局所特徴の出現頻度を正規化したヒストグラムを詳細特徴ベクトルとして求める。 Further, the image feature calculation units 111 and 121 in the image search device 1 of the present embodiment enumerate a set of feature points whose distances in the feature space of the local feature are close to each of the search target image and the query image, and are the same. A symmetry group is extracted by grouping each set of feature points connected by symmetry, and a symmetry group in which the number of feature points exceeds a predetermined threshold, or a fixed number of symmetries in descending order of the number of feature points to which they belong. A detailed feature is a histogram in which a group is extracted, the local feature is vector-quantized for each symmetry group in the search target image using the predetermined representative vector, and the appearance frequency of the vector-quantified local feature is normalized. Obtained as a vector.

そして、本実施形態の画像検索装置1は、画像類似度計算部122により、検索対象画像における全体特徴ベクトルとクエリ画像における全体特徴ベクトルとの比較により第1の類似度を求め、検索対象画像における詳細特徴ベクトルとクエリ画像における詳細特徴ベクトルとの比較により第2の類似度を求め、当該第1の類似度と第2の類似度の双方を考慮した類似度(本例ではパラメータaに基づく重み付け平均)により、検索対象画像とクエリ画像との類似性を評価する。 Then, in the image search device 1 of the present embodiment, the image similarity calculation unit 122 obtains the first similarity by comparing the overall feature vector in the search target image with the overall feature vector in the query image, and obtains the first similarity in the search target image. The second similarity is obtained by comparing the detailed feature vector with the detailed feature vector in the query image, and the similarity considering both the first similarity and the second similarity (weighting based on the parameter a in this example). The similarity between the search target image and the query image is evaluated by (average).

特に、画像類似度計算部122は、検索対象画像における詳細特徴ベクトルとクエリ画像における詳細特徴ベクトルとの比較による当該第2の類似度を、対称性グループ毎の類似度の平均値、加算値、又は重み付け平均値により求める。 In particular, the image similarity calculation unit 122 determines the second similarity by comparing the detailed feature vector in the search target image with the detailed feature vector in the query image, and obtains the average value and the addition value of the similarity for each symmetry group. Alternatively, it is obtained by a weighted average value.

そして、本実施形態の画像検索装置1は、類似画像抽出部123により、所定数の検索対象画像に対しクエリ画像との類似性を評価し、類似度の高いものから所定数の検索対象画像を自動選択して外部に出力する。 Then, the image search device 1 of the present embodiment evaluates the similarity of a predetermined number of search target images with the query image by the similar image extraction unit 123, and selects a predetermined number of search target images from the one with the highest degree of similarity. Automatically select and output to the outside.

このように、本発明に係る画像検索装置1は、全体特徴ベクトルの比較による第1の類似度と、詳細特徴ベクトルの比較による第2の類似度を求め、当該第1の類似度と第2の類似度の双方を考慮した類似度(本例ではパラメータaに基づく重み付け平均)により、検索対象画像とクエリ画像との類似性を評価するようになっているため、例えば特許文献3に開示される技法など、他の従来技法よりも、画像の被写体の詳細な構造や位置関係の違いを類似度に反映させることができる。 As described above, the image search device 1 according to the present invention obtains the first similarity by comparing the overall feature vectors and the second similarity by comparing the detailed feature vectors, and obtains the first similarity and the second similarity. Since the similarity between the search target image and the query image is evaluated by the similarity considering both of the similarity of the above (in this example, the weighted average based on the parameter a), it is disclosed in, for example, Patent Document 3. It is possible to reflect the difference in the detailed structure and positional relationship of the subject in the image in the degree of similarity as compared with other conventional techniques such as the technique.

また、特許文献3に開示される技法では、対称軸に基づいて領域分割を行ったうえでクエリ画像と比較画像との特徴点の位置を比較する技法となっており、その領域分割に起因して対比する局所特徴の欠損が生じうるが、本発明に係る画像検索装置1にて抽出する対称性グループは、その重複を許容しており、これにより対比する局所特徴の欠損を防止して精度を高めることができる。 Further, the technique disclosed in Patent Document 3 is a technique of comparing the positions of feature points between the query image and the comparison image after performing region division based on the axis of symmetry, which is caused by the region division. However, the symmetry group extracted by the image search device 1 according to the present invention allows the duplication, thereby preventing the loss of the contrasting local features and the accuracy. Can be enhanced.

また、特許文献3に開示される技法で用いる対称性は線対称性に限られているが、本発明に係る画像検索装置1では、一つの画像に複数の対称性が存在する場合にも適用することが可能であり、尚且つ線対称、回転対称、及び並進対称のうち1つ以上を用いて対称性グループを抽出することができる。これにより、原理的に、従来用いられていた画像特徴と比較して、被写体の詳細な構造や位置関係の情報を反映した画像特徴を構成することができ、類似画像検索の高精度化が可能となる。 Further, the symmetry used in the technique disclosed in Patent Document 3 is limited to line symmetry, but the image search device 1 according to the present invention is also applied when a plurality of symmetries exist in one image. And one or more of line symmetry, rotational symmetry, and translational symmetry can be used to extract symmetry groups. As a result, in principle, it is possible to construct an image feature that reflects information on the detailed structure and positional relationship of the subject as compared with the image feature that has been conventionally used, and it is possible to improve the accuracy of similar image search. It becomes.

本発明に係る画像検索装置1はコンピュータとして構成され、当該コンピュータに、本発明に係る各構成要素を実現させるためのプログラムは、当該コンピュータの内部又は外部に備えられるメモリ(図示せず)に記憶される。当該コンピュータに備えられる中央演算処理装置(CPU)などの制御で、各構成要素の機能を実現するための処理内容が記述されたプログラムを、適宜、メモリから読み込んで、本発明に係る画像検索装置1の各構成要素の機能をコンピュータに実現させることができる。 The image search device 1 according to the present invention is configured as a computer, and a program for realizing each component according to the present invention in the computer is stored in a memory (not shown) provided inside or outside the computer. Will be done. An image search device according to the present invention, appropriately reading a program in which processing contents for realizing the functions of each component are described from a memory under the control of a central processing unit (CPU) provided in the computer. The function of each component of 1 can be realized in a computer.

本発明は、上述した実施形態の例に限定されるものではなく、特許請求の範囲の記載によってのみ制限される。例えば、上述した実施形態の例では、ネットワークに接続される所定の画像データベースとして予め特定した検索対象画像データベース2に格納されるN枚の検索対象画像群I,I,…,Iに対し、クエリ画像Iの被写体と同一又は類似性の高い被写体の画像を高精度に検索する例を説明したが、ネットワークを介して閲覧可能なネットワーク上の画像を検索対象とすることができる。例えば、閲覧可能なネットワーク上の画像を検索対象とするときは、ランダムに収集したものを検索対象画像データベース2に格納すればよい。 The present invention is not limited to the examples of the above-described embodiments, but is limited only by the description of the scope of claims. For example, in the example of embodiment described above, the N frames stored in the search image database 2 that is pre-specified as a predetermined image database to be connected to a network search target image group I 1, I 2, ..., a I N contrast, the image of the query image I Q of the subject and the same or highly similar object has been described an example of searching with high accuracy, it can be searched for images on browsable network via the network. For example, when searching for images on a network that can be browsed, randomly collected images may be stored in the search target image database 2.

本発明によれば、クエリ画像の被写体と同一又は類似性の高い被写体の画像を高精度に検索することが可能となり、特に対称性を有する被写体に有効であり、幅広い範囲で従来技法よりも検索精度を向上させることができるので、アーカイブにおける資料検索、映像制作における素材検索、又はWeb上の画像検索エンジンにおいて有用である。 According to the present invention, it is possible to search for an image of a subject that is the same as or highly similar to the subject of the query image with high accuracy, which is particularly effective for a subject having symmetry, and searches in a wider range than the conventional technique. Since the accuracy can be improved, it is useful in a material search in archives, a material search in video production, or an image search engine on the Web.

1 画像検索装置
2 検索対象画像データベース
11 前処理部
12 検索処理部
111 画像特徴計算部
112 画像特徴ベクトル格納部
121 画像特徴計算部
122 画像類似度計算部
123 類似画像抽出部
1 Image search device 2 Search target image database 11 Preprocessing unit 12 Search processing unit 111 Image feature calculation unit 112 Image feature vector storage unit 121 Image feature calculation unit 122 Image similarity calculation unit 123 Similar image extraction unit

Claims (7)

クエリ画像内の被写体と同一又は類似性の高い被写体の画像を、検索対象の画像データベース又はネットワーク上の画像から検索する画像検索装置であって、
検索対象画像及びクエリ画像のそれぞれに対し、全体特徴ベクトルと詳細特徴ベクトルとを組み合わせた画像特徴ベクトルを計算する画像特徴計算手段と、
前記検索対象画像における全体特徴ベクトルと前記クエリ画像における全体特徴ベクトルとの比較により第1の類似度を求め、且つ前記検索対象画像における詳細特徴ベクトルと前記クエリ画像における詳細特徴ベクトルとの比較により第2の類似度を求め、当該第1の類似度と第2の類似度の双方を考慮した類似度を計算する画像類似度計算手段と、
当該計算した類似度を基に前記検索対象画像と前記クエリ画像との類似性を評価することにより前記クエリ画像内の被写体と同一又は類似性の高い被写体の画像を検索して抽出する類似画像抽出手段と、を備え
前記画像特徴計算手段は、前記検索対象画像及び前記クエリ画像のそれぞれに対し画像の濃淡が二方向に所定値以上変化している点を特徴点とし、各特徴点の所定画像サイズ内の周辺領域における色、テクスチャ、勾配のいずれか1つ以上の情報をベクトル化した局所特徴として求め、前記検索対象画像及び前記クエリ画像のそれぞれの全体に対し所定の代表ベクトルを用いて当該局所特徴をベクトル量子化し、ベクトル量子化した局所特徴の出現頻度を正規化したヒストグラムを、前記全体特徴ベクトルとして求めることを特徴とする画像検索装置。
An image search device that searches for images of subjects that are the same as or highly similar to the subjects in the query image from the image database to be searched or images on the network.
An image feature calculation means that calculates an image feature vector that combines an overall feature vector and a detailed feature vector for each of the search target image and the query image.
The first similarity is obtained by comparing the overall feature vector in the search target image with the overall feature vector in the query image, and the detailed feature vector in the search target image is compared with the detailed feature vector in the query image. An image similarity calculation means for obtaining the similarity of 2 and calculating the similarity in consideration of both the first similarity and the second similarity.
Similar image extraction to search and extract images of subjects that are the same as or highly similar to the subject in the query image by evaluating the similarity between the search target image and the query image based on the calculated similarity. With means ,
The image feature calculation means has a feature point in which the shade of the image changes by a predetermined value or more in two directions with respect to each of the search target image and the query image, and the peripheral region within the predetermined image size of each feature point. Information on any one or more of the color, texture, and gradient in the above is obtained as a vectorized local feature, and the local feature is vector-quantized using a predetermined representative vector for each of the search target image and the query image. However, the image retrieval apparatus according to claim Rukoto a histogram obtained by normalizing the frequency of the vector quantized local features, as the whole feature vector.
前記画像特徴計算手段は、前記検索対象画像及び前記クエリ画像のそれぞれに対し当該局所特徴の特徴空間での距離が近い特徴点の組を列挙し、同じ対称性によって結び付けられる特徴点の組ごとにグループ分けを行なって対称性グループを抽出し、特徴点の数が所定の閾値を超える対称性グループ、又は所属する特徴点が多い順に一定数の対称性グループを抽出し、当該所定の代表ベクトルを用いて、当該検索対象画像における各対称性グループに対し当該局所特徴をベクトル量子化し、ベクトル量子化した局所特徴の出現頻度を正規化したヒストグラムを、前記詳細特徴ベクトルとして求めることを特徴とする、請求項に記載の画像検索装置。 The image feature calculation means enumerates a set of feature points whose distances in the feature space of the local feature are close to each of the search target image and the query image, and for each set of feature points linked by the same symmetry. Grouping is performed to extract symmetry groups, a symmetry group in which the number of feature points exceeds a predetermined threshold, or a certain number of symmetry groups in descending order of the number of feature points to which they belong is extracted, and the predetermined representative vector is obtained. It is characterized in that the local feature is vector-quantified for each symmetry group in the search target image, and a histogram obtained by normalizing the appearance frequency of the vector-quantified local feature is obtained as the detailed feature vector. The image search device according to claim 1. 前記画像類似度計算手段は、前記検索対象画像における詳細特徴ベクトルと前記クエリ画像における詳細特徴ベクトルとの比較による前記第2の類似度を、対称性グループ毎の類似度の平均値、加算値、又は重み付け平均値により求めることを特徴とする、請求項1又は2に記載の画像検索装置。 The image similarity calculation means obtains the second similarity by comparing the detailed feature vector in the search target image with the detailed feature vector in the query image, and obtains the average value and the addition value of the similarity for each symmetry group. The image search device according to claim 1 or 2 , wherein the image search device is obtained by a weighted average value. 前記画像類似度計算手段は、当該第1の類似度と第2の類似度の双方を考慮した類似度として重み付け平均により、前記検索対象画像と前記クエリ画像との類似性を評価することを特徴とする、請求項1からのいずれか一項に記載の画像検索装置。 The image similarity calculation means is characterized in that the similarity between the search target image and the query image is evaluated by a weighted average as the similarity considering both the first similarity and the second similarity. The image search device according to any one of claims 1 to 3. 前記類似画像抽出手段は、所定数の当該検索対象画像に対し前記クエリ画像との類似性を評価し、類似度の高いものから所定数の検索対象画像を自動選択して外部に出力することを特徴とする、請求項1からのいずれか一項に記載の画像検索装置。 The similar image extraction means evaluates the similarity of a predetermined number of search target images with the query image, automatically selects a predetermined number of search target images from those having a high degree of similarity, and outputs the image to the outside. The image search device according to any one of claims 1 to 4, which is characterized. 前記画像特徴計算手段は、前記対称性グループの抽出時に、複数の対称性グループの抽出を許容し、且つ線対称、回転対称、及び並進対称のうち1つ以上を用いて同じ対称性によって結び付けられる特徴点の組ごとにグループ分けを行って当該複数の対称性グループを抽出することを特徴とする、請求項2、或いは請求項2を引用する請求項3から5のいずれか一項に記載の画像検索装置。 The image feature calculation means allows the extraction of a plurality of symmetry groups at the time of extracting the symmetry groups, and is connected by the same symmetry using one or more of line symmetry, rotational symmetry, and translational symmetry. The invention according to claim 2, wherein the grouping is performed for each set of feature points and the plurality of symmetry groups are extracted, or claim 3 to claim 2 is cited . Image search device. 請求項1からのいずれか一項に記載の画像検索装置をコンピュータとして機能させるためのプログラム。 A program for operating the image search device according to any one of claims 1 to 6 as a computer.
JP2017108807A 2017-05-31 2017-05-31 Image search device and program Active JP6966875B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017108807A JP6966875B2 (en) 2017-05-31 2017-05-31 Image search device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017108807A JP6966875B2 (en) 2017-05-31 2017-05-31 Image search device and program

Publications (2)

Publication Number Publication Date
JP2018205937A JP2018205937A (en) 2018-12-27
JP6966875B2 true JP6966875B2 (en) 2021-11-17

Family

ID=64957841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017108807A Active JP6966875B2 (en) 2017-05-31 2017-05-31 Image search device and program

Country Status (1)

Country Link
JP (1) JP6966875B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857880B (en) * 2019-01-16 2022-04-05 创新奇智(上海)科技有限公司 Model-based data processing method and device and electronic equipment
JP2020146307A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146304A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146302A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146317A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146312A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146316A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146305A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146315A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146303A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146300A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146313A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146311A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146297A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146301A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146310A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146309A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146308A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146318A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146298A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146306A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146314A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP2020146299A (en) * 2019-03-14 2020-09-17 株式会社三洋物産 Game machine
JP7061092B2 (en) * 2019-03-28 2022-04-27 Kddi株式会社 Image processing equipment and programs
US12020484B2 (en) 2020-03-17 2024-06-25 Samsung Electronics Co., Ltd. Methods and systems for grouping of media based on similarities between features of the media
CN112307239B (en) * 2020-10-29 2024-02-02 泰康保险集团股份有限公司 Image retrieval method, device, medium and equipment
JP7485232B2 (en) 2021-03-26 2024-05-16 日本電気株式会社 IMAGE MATCHING DEVICE, CONTROL METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JP2018205937A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6966875B2 (en) Image search device and program
US11816888B2 (en) Accurate tag relevance prediction for image search
US10235623B2 (en) Accurate tag relevance prediction for image search
EP3028184B1 (en) Method and system for searching images
US8184914B2 (en) Method and system of person identification by facial image
US9141871B2 (en) Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space
WO2019015246A1 (en) Image feature acquisition
US20160259815A1 (en) Large scale image recognition using global signatures and local feature information
JP2016531350A (en) Method and system for recommending online products
CN103473327A (en) Image retrieval method and image retrieval system
CN110069989B (en) Face image processing method and device and computer readable storage medium
WO2022267388A1 (en) Mangrove hyperspectral image classification method and apparatus, and electronic device and storage medium
WO2023221713A1 (en) Image encoder training method and apparatus, device, and medium
Kozakaya et al. Facial feature localization using weighted vector concentration approach
Li et al. Image gradient orientations embedded structural error coding for face recognition with occlusion
Bronstein et al. Expression-invariant face recognition via spherical embedding
JP5616310B2 (en) Image matching apparatus and image matching program
JP2016014990A (en) Moving image search method, moving image search device, and program thereof
Liu et al. Geometric weighting subspace clustering on nonlinear manifolds
Nam et al. Elis: An efficient leaf image retrieval system
JP2017021606A (en) Method, device, and program for searching for dynamic images
Hahmann et al. Combination of facial landmarks for robust eye localization using the Discriminative Generalized Hough Transform
Lin et al. Efficient shape classification using region descriptors
Kurtek et al. Elastic reflection symmetry based shape descriptors
Feng et al. The framework of learnable kernel function and its application to dictionary learning of SPD data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211022

R150 Certificate of patent or registration of utility model

Ref document number: 6966875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250