JP2017010468A - System and method for searching for an object in a captured image - Google Patents
System and method for searching for an object in a captured image Download PDFInfo
- Publication number
- JP2017010468A JP2017010468A JP2015128145A JP2015128145A JP2017010468A JP 2017010468 A JP2017010468 A JP 2017010468A JP 2015128145 A JP2015128145 A JP 2015128145A JP 2015128145 A JP2015128145 A JP 2015128145A JP 2017010468 A JP2017010468 A JP 2017010468A
- Authority
- JP
- Japan
- Prior art keywords
- information
- terminal
- object search
- question
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 27
- 239000013598 vector Substances 0.000 claims abstract description 73
- 238000013139 quantization Methods 0.000 claims description 31
- 230000005540 biological transmission Effects 0.000 claims description 23
- 238000012795 verification Methods 0.000 claims description 15
- 101150104157 YES1 gene Proteins 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 240000006829 Ficus sundaica Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- DQJCHOQLCLEDLL-UHFFFAOYSA-N tricyclazole Chemical compound CC1=CC=CC2=C1N1C=NN=C1S2 DQJCHOQLCLEDLL-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮影画像に写る物体を検索する技術に関する。 The present invention relates to a technique for searching for an object appearing in a captured image.
従来、画像から抽出された局所特徴を用いて物体を検索する技術がある(例えば非特許文献1参照)。この技術によれば、物体をカメラで撮影し、その物体が写る撮影画像(質問(クエリ)画像)から局所特徴ベクトルを抽出する。そして、質問画像の局所特徴ベクトルと、予め登録された物体が写る画像(参照(リファレンス)画像)の局所特徴ベクトルとを比較することによって、物体を検索する。また、類似度が上位N件の参照画像と質問画像との間で、幾何検証 (geometric verification)を実行することによって、検索精度を高めている。そして、幾何検証における条件を満たした特徴点対応組(inlier)の数を、新たな画像間類似度とする。 Conventionally, there is a technique for searching for an object using local features extracted from an image (for example, see Non-Patent Document 1). According to this technique, an object is photographed by a camera, and a local feature vector is extracted from a photographed image (question (query) image) in which the object is photographed. Then, the local feature vector of the question image is compared with the local feature vector of the image (reference (reference) image) in which the object registered in advance is searched, and the object is searched. Further, the search accuracy is improved by executing geometric verification between the reference images with the highest N cases and the query images. Then, the number of feature point correspondence groups (inliers) that satisfy the conditions in the geometric verification is set as a new inter-image similarity.
これに対して、参照画像と質問画像との両方に同一の物体が含まれているか否かを、類似度に基づいて閾値で判定したい場合もある。画像間類似度の閾値が大きいほど、認識の適合率が高くなるためである。 On the other hand, there is a case where it is desired to determine whether or not the same object is included in both the reference image and the question image using a threshold value based on the similarity. This is because the higher the threshold of similarity between images, the higher the recognition precision.
図1は、従来技術における端末及び物体検索サーバの機能構成図である。 FIG. 1 is a functional configuration diagram of a terminal and an object search server in the prior art.
図1によれば、カメラ付き携帯端末を用いて、撮影画像に写る物体を検索するシステムである。携帯端末は、撮影画像から局所特徴ベクトルを抽出し、その局所特徴ベクトルを量子化する。一方で、物体検索サーバも、大量の参照画像か局所特徴ベクトルを抽出し、その局所特徴ベクトルを量子化し、その量子化ベクトルを画像ID毎に予め記憶する。携帯端末は、撮影画像の量子化ベクトルを含む質問情報を、ネットワークを介して物体検索サーバへ送信する。物体検索サーバは、その質問情報に最も類似する参照画像を検索し、その参照画像IDを携帯端末へ返信する。これによって、携帯端末は、その撮影画像に写る物体は、その参照画像IDに基づくものであると認識することができる。 FIG. 1 shows a system for searching for an object appearing in a captured image using a mobile terminal with a camera. The portable terminal extracts a local feature vector from the captured image and quantizes the local feature vector. On the other hand, the object search server also extracts a large number of reference images or local feature vectors, quantizes the local feature vectors, and stores the quantized vectors in advance for each image ID. The portable terminal transmits the question information including the quantized vector of the captured image to the object search server via the network. The object search server searches for a reference image most similar to the question information, and returns the reference image ID to the portable terminal. Thereby, the portable terminal can recognize that the object shown in the captured image is based on the reference image ID.
このようなサービスをリアルタイムで実行するためには、端末からネットワークを介して検索サーバへ送信する質問情報のサイズが重要となる。データサイズが大きいほど、通信時間が長くなり、リアルタイム性が損なわれる。これに対し、検索に用いる局所特徴ベクトルのサイズを小さくすることによって、送信するデータサイズを削減する技術もある(例えば特許文献1参照)。 In order to execute such a service in real time, the size of the question information transmitted from the terminal to the search server via the network is important. The larger the data size, the longer the communication time and the real-time property is impaired. On the other hand, there is a technique for reducing the size of data to be transmitted by reducing the size of the local feature vector used for search (see, for example, Patent Document 1).
特許文献1に記載の技術によれば、局所特徴ベクトルのサイズを削減することによって、ネットワークを介して転送されるデータサイズを削減しようとしている。一般に、局所特徴ベクトルの削減は、物体の検索精度の低下につながると考えられる。これに対し、本願の発明者らは、物体の検索精度を低下させることなく、ネットワークを介して転送されるデータサイズを削減することができないか?と考えた。特に、局所特徴の「座標情報」に対するデータサイズを削減することができないか?と考えた。
According to the technique described in
そこで、本発明は、撮影画像に写る物体を検索する際に、物体の検索精度を低下させることなく、ネットワークを介して転送される局所特徴のデータサイズを削減することができるシステム及び方法を提供することを目的とする。 Therefore, the present invention provides a system and method capable of reducing the data size of local features transferred via a network without reducing the object search accuracy when searching for an object appearing in a captured image. The purpose is to do.
本発明によれば、端末及び物体検索サーバを有するシステムの物体検索方法であって、
物体検索サーバは、物体が写る参照画像を予め蓄積しており、
端末が、物体が写る質問画像における複数の特徴ベクトルを含む質問情報を、物体検索サーバへ送信する第1のステップと、
物体検索サーバが、質問情報の複数の特徴ベクトルと各参照画像との間の類似度を算出する第2のステップと、
物体検索サーバが、質問情報と複数の参照画像との間の類似度判定結果を、端末へ返信する第3のステップと、
端末が、受信した類似度判定結果に応じて、質問画像の座標情報を含む幾何情報を選択する第4のステップと、
端末が、選択された幾何情報を、物体検索サーバへ送信する第5のステップと、
物体検索サーバが、第2のステップで検索された複数の参照画像の中で、幾何情報の座標情報に所定閾値以上で類似する1つ以上の参照画像を検索する第6のステップと、
物体検索サーバが、第5のステップによって検索された各参照画像の参照画像IDを、端末へ返信する第7のステップと
を有することを特徴とする。
According to the present invention, there is provided an object search method for a system having a terminal and an object search server,
The object search server stores in advance a reference image in which an object is shown,
A first step in which a terminal transmits question information including a plurality of feature vectors in a question image in which an object is captured to an object search server;
A second step in which the object search server calculates a similarity between a plurality of feature vectors of question information and each reference image;
A third step in which the object search server returns a similarity determination result between the question information and the plurality of reference images to the terminal;
A fourth step in which the terminal selects geometric information including coordinate information of the question image according to the received similarity determination result;
A fifth step in which the terminal transmits the selected geometric information to the object search server;
A sixth step in which the object search server searches for one or more reference images similar to the coordinate information of the geometric information at a predetermined threshold value or more among the plurality of reference images searched in the second step;
The object search server includes a seventh step of returning the reference image ID of each reference image searched in the fifth step to the terminal.
本発明の物体検索方法における他の実施形態によれば、
第1のステップについて、端末は、
物体が写る質問画像から、特徴ベクトル及び座標情報を含む局所特徴を抽出するステップと、
特徴ベクトルを量子化ベクトルに量子化するステップと、
複数の量子化ベクトルを含む質問情報を、物体検索サーバへ送信するステップと
を有し、
第2のステップについて、物体検索サーバは、
質問情報の複数の量子化ベクトルと各参照画像との間の類似度を算出する
ことも好ましい。
According to another embodiment of the object search method of the present invention,
For the first step, the terminal
Extracting a local feature including a feature vector and coordinate information from a query image showing an object;
Quantizing the feature vector into a quantization vector;
Transmitting question information including a plurality of quantization vectors to an object search server,
For the second step, the object search server
It is also preferable to calculate the degree of similarity between the plurality of quantization vectors of the question information and each reference image.
本発明の物体検索方法における他の実施形態によれば、
質問情報に含まれる量子化ベクトルは、Visual Word識別子であることも好ましい。
According to another embodiment of the object search method of the present invention,
The quantization vector included in the question information is also preferably a Visual Word identifier.
本発明の物体検索方法における他の実施形態によれば、
質問情報は、Visual Word識別子に対応付けて、方向及び/又はスケールを更に含むことも好ましい。
According to another embodiment of the object search method of the present invention,
The question information preferably further includes a direction and / or a scale in association with the Visual Word identifier.
本発明の物体検索方法における他の実施形態によれば、
第3のステップについて、物体検索サーバが、類似度判定結果として、以下の3つのコマンドのいずれか1つを、端末へ返信し、
yes1:類似度が閾値TH1以上の参照画像が1つ以上ある
yes2:類似度が閾値TH1未満且つ閾値TH2以上の参照画像が1つ以上ある
no :全ての類似度がTH2未満である
閾値TH1:検索成功の可能性が極めて高い類似度の指標
閾値TH2:検索成功の可能性が比較的高い類似度の指標
第4のステップについて、端末が、類似度判定結果に応じて、物体検索サーバへ送信する幾何情報を以下のように制御する
yes1:幾何情報は、座標情報のみを含む
yes2:幾何情報は、座標情報及び特徴ベクトルを含む
no :検索失敗として、処理を終了する
ことも好ましい。
According to another embodiment of the object search method of the present invention,
For the third step, the object search server returns one of the following three commands as a similarity determination result to the terminal,
yes1: There is one or more reference images whose similarity is greater than or equal to the threshold TH1
yes2: There is one or more reference images whose similarity is less than the threshold TH1 and greater than or equal to the threshold TH2.
no: all similarities are less than TH2 threshold TH1: index of similarity with very high possibility of successful search threshold TH2: index of similarity with high possibility of successful search For the fourth step, the terminal The geometric information to be transmitted to the object search server is controlled as follows according to the similarity determination result
yes1: Geometric information includes only coordinate information
yes2: Geometric information includes coordinate information and feature vectors
no: It is also preferable to end the processing as a search failure.
本発明の物体検索方法における他の実施形態によれば、
第3のステップについて、物体検索サーバが、類似度判定結果として、3つ以上の閾値によって4つ以上のコマンドのいずれか1つを、端末へ返信し、
第4のステップについて、端末が、類似度判定結果に基づく閾値が低いほど、長い特徴ベクトル(特徴ベクトルの上位ビットのみ->全体ビット)を幾何情報に含める
ことも好ましい。
According to another embodiment of the object search method of the present invention,
For the third step, the object search server returns one of four or more commands to the terminal as a similarity determination result with three or more threshold values,
Regarding the fourth step, it is also preferable that the terminal includes a longer feature vector (only upper bits of the feature vector-> total bits) in the geometric information as the threshold value based on the similarity determination result is lower.
本発明の物体検索方法における他の実施形態によれば、
第6のステップについて、物体検索サーバは、
幾何情報の座標情報と、各参照画像の座標情報との間で、幾何的な所定条件を満たす特徴点対応組を算出し、
特徴点対応組の数が最大又は所定数以上となる参照画像を検索する
ことも好ましい。
According to another embodiment of the object search method of the present invention,
For the sixth step, the object search server
A feature point correspondence set satisfying a predetermined geometric condition is calculated between the coordinate information of the geometric information and the coordinate information of each reference image,
It is also preferable to search for a reference image in which the number of feature point correspondence groups is the maximum or a predetermined number or more.
本発明によれば、端末及び物体検索サーバを有するシステムであって、
端末は、
物体が写る質問画像における複数の特徴ベクトルを含む質問情報を、物体検索サーバへ送信する質問情報送信手段と、
受信した類似度判定結果に応じて、質問画像の座標情報を含む幾何情報を選択する幾何情報選択手段と、
選択された幾何情報を、物体検索サーバへ送信する幾何情報送信手段と
を有し、
物体検索サーバは、物体が写る参照画像を予め蓄積しており、
質問情報の複数の特徴ベクトルと各参照画像との間の類似度を算出する類似度算出手段と、
質問情報と複数の参照画像との間の類似度判定結果を、端末へ返信する類似度判定送信手段と、
類似度判定結果によって類似すると判定された複数の参照画像の中で、幾何情報の座標情報に所定閾値以上で類似する1つ以上の参照画像を検索する幾何検証手段と、
幾何検証手段によって検索された各参照画像の参照画像IDを、端末へ返信する検索結果送信手段と
を有することを特徴とする。
According to the present invention, a system having a terminal and an object search server,
The terminal
Question information transmission means for transmitting question information including a plurality of feature vectors in a question image in which an object is captured to an object search server;
Geometric information selection means for selecting geometric information including coordinate information of the query image according to the received similarity determination result;
Geometric information transmission means for transmitting the selected geometric information to the object search server,
The object search server stores in advance a reference image in which an object is shown,
Similarity calculating means for calculating the similarity between the plurality of feature vectors of the question information and each reference image;
Similarity determination transmission means for returning the similarity determination result between the question information and the plurality of reference images to the terminal;
Geometric verification means for searching for one or more reference images that are similar to the coordinate information of the geometric information among a plurality of reference images determined to be similar based on the similarity determination result;
Search result transmission means for returning the reference image ID of each reference image searched by the geometric verification means to the terminal.
本発明のシステム及び方法によれば、撮影画像に写る物体を検索する際に、物体の検索精度を低下させることなく、ネットワークを介して転送される局所特徴のデータサイズを削減することができる。 According to the system and method of the present invention, when searching for an object shown in a captured image, the data size of local features transferred via a network can be reduced without reducing the object search accuracy.
以下、本発明の実施の形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図2は、本発明における端末及び物体検索サーバの機能構成図である。
図3は、本発明における端末及び物体検索サーバ間のシーケンス図である。
FIG. 2 is a functional configuration diagram of the terminal and the object search server in the present invention.
FIG. 3 is a sequence diagram between the terminal and the object search server in the present invention.
本発明は、端末1及び物体検索サーバ2を有するシステムによって、撮影画像に写る物体を検索することができる。端末1は、例えばスマートフォンや携帯電話機であって、一般的にカメラを搭載したものである。カメラに対するユーザ操作に応じて、様々な物体が写る撮影画像を取得することができる。一方で、物体検索サーバ2は、物体が写る参照画像を予め蓄積している。そして、端末1は、ネットワークを介して物体検索サーバ2と通信することによって、その撮影画像に写り込む物体を識別することができる。
According to the present invention, an object appearing in a captured image can be searched by a system having the
図2によれば、端末1は、局所特徴抽出部11と、量子化部12と、幾何情報蓄積部13と、質問情報送信部14と、幾何情報選択部15と、幾何情報送信部16とを有する。これら機能構成部は、端末に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。
また、端末1と通信する物体検索サーバ2は、局所特徴抽出部21と、量子化部22と、幾何情報蓄積部23と、転置インデックス記憶部24と、類似度算出部25と、類似度判定送信部26と、幾何検証部27と、検索結果送信部28とを有する。これら機能構成部は、サーバに搭載されたコンピュータを機能させるプログラムを実行することによって実現される。
According to FIG. 2, the
Further, the
以下では、図3のシーケンスに沿って、図2の各機能構成部について説明する。 In the following, each functional component of FIG. 2 will be described along the sequence of FIG.
従来技術によれば、質問画像に写る物体の検索は、図1のように1段階のシーケンスで実行される。これに対し、本発明は、2段階のシーケンスで実行される。1段階目では、質問画像に対して、特徴ベクトル的に類似する複数の参照画像を検索し、2段階目で、それら参照画像の中で、幾何的に類似する参照画像を更に検索する。 According to the prior art, the search for an object shown in a question image is executed in a one-step sequence as shown in FIG. In contrast, the present invention is executed in a two-stage sequence. In the first stage, a plurality of reference images that are similar in feature vector to the question image are searched, and in the second stage, a geometrically similar reference image is further searched from among the reference images.
<S01>[端末1:局所特徴抽出部11]
局所特徴抽出部11は、カメラによる撮影画像を入力し、その画像における局所特徴を抽出する。局所特徴は、特徴点位置を、例えば以下の要素によって表す。
特徴ベクトル:f(例えば4byte)
座標:p=(x,y)(例えば4byte(x(2byte)y(2byte))
方向:θ
スケール:s
本発明によって抽出される局所特徴は、少なくとも特徴ベクトル及び座標情報を含む。
<S01> [Terminal 1: Local feature extraction unit 11]
The local
Feature vector: f (eg 4 bytes)
Coordinate: p = (x, y) (for example, 4 bytes (x (2 bytes) y (2 bytes))
Direction: θ
Scale: s
The local feature extracted by the present invention includes at least a feature vector and coordinate information.
通常、1枚の画像から検出された局所特徴群は、配列上に格納され、その配列の添え字を「局所特徴ID」として識別する。また、局所特徴の特徴ベクトルfは、量子化部12へ出力される。
Usually, a local feature group detected from one image is stored on an array, and a subscript of the array is identified as a “local feature ID”. Further, the feature vector f of the local feature is output to the
物体認識に用いる特徴ベクトルの抽出アルゴリズムとしては、例えばSIFTやSURF(Speeded Up Robust Features)、ORB(Oriented FAST and Rotated BRIEF)が用いられる。例えば、SIFTの場合、1枚の画像からは128次元の特徴ベクトルの集合が抽出される。SIFTとは、スケールスペースを用いて特徴的な局所領域を解析し、そのスケール変化及び回転に不変となる特徴ベクトルを記述する技術である。一方で、SURFの場合、SIFTよりも高速処理が可能であって、1枚の画像から64次元の特徴ベクトルの集合が抽出される。ORBによれば、1つのコンテンツから256ビットのバイナリ局所特徴ベクトルの集合が抽出される。 For example, SIFT, SURF (Speeded Up Robust Features), or ORB (Oriented FAST and Rotated BRIEF) is used as the feature vector extraction algorithm used for object recognition. For example, in the case of SIFT, a set of 128-dimensional feature vectors is extracted from one image. SIFT is a technique for analyzing a characteristic local region using a scale space and describing a feature vector that is invariant to scale change and rotation. On the other hand, in the case of SURF, higher-speed processing is possible than SIFT, and a set of 64-dimensional feature vectors is extracted from one image. According to the ORB, a set of 256-bit binary local feature vectors is extracted from one content.
<S02>[端末1:量子化部12]
量子化部12は、局所特徴抽出部11から特徴ベクトルfを入力する。また、量子化部12は、Visual Word(VW)と称される複数の量子化ベクトルを予め記憶している。これら量子化ベクトルは、コードブックとして記憶されている。そして、量子化部12は、特徴ベクトルfに最も距離が近くなる(類似する)VWのID(VWID)へ量子化する。ここで、VWIDは、最も近い1個であってもよいし、距離が近い上位N件のものであってもよい。特徴ベクトルf毎にVWIDを抽出し、それらVWID群は、量子化結果として、質問情報送信部14へ出力される。
<S02> [Terminal 1: Quantization unit 12]
The
<S03>[端末1:幾何情報蓄積部13]
幾何情報蓄積部13は、局所特徴抽出部11から局所特徴群を入力する。そして、幾何情報蓄積部13は、局所特徴IDの順に、幾何情報をリスト構造で蓄積する。幾何情報は、座標情報pとマッチング情報とを結合したものである。マッチング情報は、VWIDであってもよいし、特徴ベクトルであってもよい(特徴ベクトルの全体、特徴ベクトルの一部、又は、符号化された特徴ベクトルであってもよい)。尚、幾何情報蓄積部13は、幾何情報の蓄積後、所定時間経過した際に、その幾何情報を破棄することも好ましい。
<S03> [Terminal 1: Geometric Information Storage Unit 13]
The geometric
[物体検索サーバ2:局所特徴抽出部21]
局所特徴抽出部21は、物体が写る多数の参照画像を入力し、各参照画像における局所特徴を抽出する。その機能は、前述した端末1の局所特徴抽出部11と全く同様である。抽出した特徴ベクトルは、量子化部22へ出力される。
[Object Search Server 2: Local Feature Extraction Unit 21]
The local
[物体検索サーバ2:量子化部22]
量子化部22は、局所特徴抽出部21から特徴ベクトルfを入力し、コードブックを用いて、VWIDへ量子化する。その機能は、前述した端末1の量子化部12と全く同様である。量子化結果としてのVWIDの群は、幾何情報蓄積部23及び転置インデックス記憶部24へ出力される。
[Object Search Server 2: Quantization Unit 22]
The
[物体検索サーバ2:幾何情報蓄積部23]
幾何情報蓄積部23は、局所特徴抽出部21から局所特徴群を入力する。その機能は、前述した端末1の幾何情報蓄積部23と全く同様である。
[Object Search Server 2: Geometric Information Storage Unit 23]
The geometric
[物体検索サーバ2:転置インデックス記憶部24]
転置インデックス記憶部24は、VWID(単語ID)毎に、参照画像ID及び局所特徴の情報を対応付けてリスト構造で記憶する。
[Object Search Server 2: Transposed Index Storage Unit 24]
The transposed
図4は、転置インデックスを表す説明図である。 FIG. 4 is an explanatory diagram showing an inverted index.
図4によれば、VWID毎に、参照画像ID及び局所特徴の情報が対応付けられている。局所特徴の情報として、特徴ベクトルf、座標情報p、方向θ、スケールsを含む。 According to FIG. 4, the reference image ID and the local feature information are associated with each VWID. The local feature information includes a feature vector f, coordinate information p, direction θ, and scale s.
図5は、質問画像と参照画像との間のマッチングを表す説明図である。 FIG. 5 is an explanatory diagram showing matching between a question image and a reference image.
図5(a)は、参照画像に対して、質問画像の視点が異なっていることを表す。そのたに、質問画像に写る物体は、参照画像に写る物体に対して、幾何的に変換されている。
図5(b)は、質問画像及び参照画像から抽出された局所特徴が表されている。局所特徴としては、少なくとも特徴ベクトルf及び座標情報pがあり、更に方向θ及びスケールsがあってもよい。
図5(c)は、質問画像及び参照画像から抽出された特徴点同士のマッチングが表されている。マッチングする特徴点対応組が多いほど、幾何的な類似度が高い。
FIG. 5A shows that the viewpoint of the question image is different from the reference image. In addition, the object shown in the question image is geometrically transformed with respect to the object shown in the reference image.
FIG. 5B shows local features extracted from the question image and the reference image. The local features include at least a feature vector f and coordinate information p, and may further include a direction θ and a scale s.
FIG. 5C shows matching between feature points extracted from the question image and the reference image. The greater the number of matching feature point pairs, the higher the geometric similarity.
<S1>[端末1:質問情報送信部14]
質問情報送信部14は、物体が写る質問画像における複数の量子化ベクトル(特徴ベクトル)を含む質問情報を、物体検索サーバ2へ送信する。ここで、量子化ベクトルは、VWID(Visual Word識別子)であることが好ましい。質問情報は、量子化部12から出力されたVWIDを、局所特徴IDの順に並べた質問情報を生成する。即ち、質問情報は、VWIDの群となる。尚、Hamming embeddingやWeak geometry consistencyを用いる場合、質問情報は、Visual Word識別子に対応付けて、方向θ及び/又はスケールsを更に含むものであってもよい。
<S1> [Terminal 1: Question information transmitter 14]
The question
質問画像に写る物体の検索は、従来技術によれば、図1のように1段階のシーケンスで実行されるのに対し、本発明は、2段階のシーケンスで実行される。
1段階目:質問画像のVWID群に類似する複数の参照画像を検索する
(質問情報に座標情報を含まない。投票による類似度を算出)
2段階目:検索された参照画像の中で、質問情報の幾何情報に類似する参照画像を
更に検索する
(1段階目で類似度が閾値以上である場合にのみ、幾何検証を実行)
According to the prior art, the search for an object appearing in a query image is executed in a one-step sequence as shown in FIG. 1, whereas the present invention is executed in a two-step sequence.
First stage: search for a plurality of reference images similar to the VWID group of the question image
(Question information does not include coordinate information. Calculate similarity by voting)
Second stage: Among the retrieved reference images, a reference image similar to the geometric information of the question information is selected.
Search further
(Perform geometric verification only when the similarity is greater than or equal to the threshold at the first stage)
例えば、従来技術によれば、質問情報が特徴ベクトル+座標情報である場合、8byte必要となる。これに対し、本発明によれば、1段階目では、質問情報がVWIDのみであえるために、その半分の4byteしか必要とならない。即ち、質問情報のデータサイズを5割削減することができる。
また、1段階目のシーケンスの実行によって、類似する参照画像無しと判定された場合、2段階目のシーケンスを実行する必要がない。即ち、物体検索サービスを継続するほど、ネットワークを介して送受信されるデータサイズは、必然的に減少することとなる。
For example, according to the prior art, when the question information is feature vector + coordinate information, 8 bytes are required. On the other hand, according to the present invention, in the first stage, since the question information can be only VWID, only half of 4 bytes are required. That is, the data size of the question information can be reduced by 50%.
When it is determined that there is no similar reference image by executing the first-stage sequence, it is not necessary to execute the second-stage sequence. That is, as the object search service continues, the data size transmitted / received via the network inevitably decreases.
<S2>[サーバ2:類似度算出部25]
類似度算出部25は、転置インデックス記憶部24を用いて、質問情報の複数の量子化ベクトルと各参照画像との間の「類似度」を算出する。具体的には、多数の参照画像のVWID群と、受信した質問情報に含まれるVWID群とを比較して、類似度を算出する。
<S2> [Server 2: Similarity Calculation Unit 25]
The
図6は、質問画像と参照画像との間におけるVWID(量子化ベクトル)の類似度を表す説明図である。 FIG. 6 is an explanatory diagram showing the similarity of the VWID (quantization vector) between the question image and the reference image.
ここでは、質問情報に含まれる各VWIDに対応する、転置インデックスのリストに含まれる参照画像IDに対して、スコアを投票する(図4参照)。投票するスコアは、固定の大きさであってもよいし、何らかの重み付けをしてもよい。投票されたスコアが大きいほど、質問画像と参照画像との間の類似度が高いことを意味する。 Here, a score is voted for the reference image ID included in the list of transposed indexes corresponding to each VWID included in the question information (see FIG. 4). The score for voting may be a fixed size or some weighting. The larger the voted score, the higher the similarity between the question image and the reference image.
転置インデックスは、参照画像毎に総VW数に差があるために、投票したスコア同士の大きさを比較することは難しい。そのため、参照画像毎の類似度スコアを、各参照画像のVWヒストグラムのLpノルムで除算することによって正規化することも好ましい。 Since the transposed index has a difference in the total number of VWs for each reference image, it is difficult to compare the sizes of the voted scores. Therefore, it is also preferable to normalize by dividing the similarity score for each reference image by the Lp norm of the VW histogram of each reference image.
VWIDiに対して、以下のように設定したとする。
xi:参照画像の局所特徴が割り当てられた個数
n:予め用意されたVWの個数
ここで、参照画像のVWヒストグラムは、以下のように表される。
ベクトルx→=(x1,x2,・・・,xn)
このとき、例えば参照画像のVWヒストグラムのノルムは、以下のように表される。
L1ノルム:Σi=1 n|xi|
:参照画像のVWヒストグラムにおける、各VWに量子化された局所
特徴の個数の総和
L2ノルム:√(Σi=1 n xi 2)
:各VWに量子化された局所特徴の個数の二乗和の平方根
参照画像ID毎に、L1ノルムの逆数、L2ノルムの逆数、又は、他の正規化係数を乗算することによって、類似度を正規化する。最終的に、全ての参照画像IDに対応する類似度を算出する。
It is assumed that VWIDi is set as follows.
xi: Number of assigned local features of the reference image n: Number of VWs prepared in advance Here, the VW histogram of the reference image is expressed as follows.
Vector x → = (x 1 , x 2 ,..., X n )
At this time, for example, the norm of the VW histogram of the reference image is expressed as follows.
L1 norm: Σ i = 1 n | x i |
: Localization quantized to each VW in the VW histogram of the reference image
Total number of features L2 norm: √ (Σ i = 1 n x i 2 )
: Square root of the sum of squares of the number of local features quantized for each VW Normalization of similarity by multiplying the reciprocal of the L1 norm, the reciprocal of the L2 norm, or other normalization coefficient for each reference image ID Turn into. Finally, similarities corresponding to all reference image IDs are calculated.
<S3>[物体検索サーバ2:類似度判定送信部26]
類似度判定送信部26は、質問情報と複数の参照画像との間の類似度判定結果を、端末1へ返信する。類似度判定結果は、質問情報に対する全ての参照画像IDの類似度に対して、閾値で判定する。例えば、類似判定結果は、以下のように2つの閾値に対する3つのコマンドで表される。
(コマンド)
yes1:類似度が閾値TH1以上の参照画像が1つ以上ある
yes2:類似度が閾値TH1未満且つ閾値TH2以上の参照画像が1つ以上ある
no :全ての類似度がTH2未満である
閾値TH1:検索成功の可能性が極めて高い類似度の指標
閾値TH2:検索成功の可能性が比較的高い類似度の指標
<S3> [Object Search Server 2: Similarity Determination Transmitter 26]
The similarity
(command)
yes1: There is one or more reference images whose similarity is greater than or equal to the threshold TH1
yes2: There is one or more reference images whose similarity is less than the threshold TH1 and greater than or equal to the threshold TH2.
no: all similarities are less than TH2
Threshold TH1: Similarity index with very high possibility of successful search
Threshold TH2: Similarity index with a relatively high probability of successful search
コマンド「yes1」「yes2」の場合、類似度判定送信部26は、コマンドと共に、その判定条件を満たした参照画像IDも、端末1へ送信する。
また、コマンド「no」の場合、類似度判定送信部26は、検索失敗とみなして、そのコマンドのみを、端末1へ送信する。これによって、端末1は、2段階目のシーケンスを実行することなく、「検索失敗」として終了することができる。
In the case of the commands “yes1” and “yes2”, the similarity
Further, in the case of the command “no”, the similarity
尚、類似度判定結果として、3つ以上の閾値によって4つ以上のコマンドのいずれかを、端末へ返信するものであってもよい。また、参照画像IDの個数は、類似度が大きい順に所定N個であってもよいし、全てであってもよい。 Note that, as a similarity determination result, any of four or more commands may be returned to the terminal using three or more threshold values. Further, the number of reference image IDs may be predetermined N in descending order of similarity, or may be all.
<S4>[端末1:幾何情報選択部15]
幾何情報選択部15は、物体検索サーバ2から、類似度判定結果を受信する。そして、その類似度判定結果に応じて、質問画像の座標情報を含む幾何情報を選択する。具体的には、物体検索サーバ2へ送信する幾何情報を以下のように制御する。
(受信コマンド)
yes1:幾何情報は、座標情報のみを含む
yes2:幾何情報は、座標情報及び特徴ベクトルを含む
no :検索失敗として、処理を終了する
<S4> [Terminal 1: Geometric Information Selection Unit 15]
The geometric
(Receive command)
yes1: Geometric information includes only coordinate information
yes2: Geometric information includes coordinate information and feature vectors
no: Terminates processing as a search failure
ここで、幾何情報選択部15は、類似度判定結果に基づく閾値が低いほど、長い特徴ベクトル(特徴ベクトルの上位ビットのみ->全体ビット)を幾何情報に含めることも好ましい。
(受信コマンド)
yes1(判定閾値が高い):幾何情報は、座標情報のみを含む
yes2 :幾何情報は、座標情報、及び特徴ベクトルの一部を含む
yes3(判定閾値が低い):幾何情報は、座標情報、及び特徴ベクトルの全部を含む
no :保持していた幾何情報を、時間tの経過後に破棄
Here, it is also preferable that the geometric
(Receive command)
yes1 (the judgment threshold is high): Geometric information includes only coordinate information
yes2: Geometric information includes coordinate information and part of feature vector
yes3 (decision threshold is low): Geometric information includes all coordinate information and feature vectors
no: Discards the stored geometric information after time t
<S5>[端末1:幾何情報送信部16]
幾何情報送信部16は、質問画像の座標情報を含む幾何情報を、物体検索サーバ2へ送信する。
<S5> [Terminal 1: Geometric Information Transmitter 16]
The geometric
<S6>[物体検索サーバ2:幾何検証部27]
幾何検証部27は、類似度判定結果によって類似すると判定された複数の参照画像の中で、幾何情報の座標情報に所定閾値以上で類似する1つ以上の参照画像を検索する(図4、図5(c)参照)。具体的には、幾何情報の座標情報と、各参照画像の座標情報との間で、幾何的な所定条件を満たす特徴点対応組(inlier)を算出する。そして、特徴点対応組の数が最大又は所定数以上となる参照画像を検索する。
<S6> [Object Search Server 2: Geometric Verification Unit 27]
The
最初に、座標マッチングによって、同一のVWIDに量子化された局所特徴の座標情報同士をマッチングさせた特徴点対応組を算出する。例えば、特徴ベクトルfの距離が最も近いもの同士をマッチングさせてもよい。
次に、マッチングされた特徴点対応組に対して、RANSAC(RANdom SAmple Consensus) アルゴリズム等のロバスト推定法を用いて、一方の座標系から他方の座標系へのHomography行列を算出する。
次に、Homography行列を用いて一方の特徴点の座標を射影し、対応している他方の特徴点の座標との距離がL以内であれば、その特徴点対応組をinlierと判定する。
そして、inlierの数が所定閾値以上となる参照画像のみを、「検索成功」として判定する。但し、inlierの数が所定閾値以上となる参照画像が無い場合、「検索失敗」と判定する。
尚、Homography行列に代えて、Affine行列や基礎行列など、幾何学的変換に基づく行列を用いてもよい。
First, a feature point correspondence set in which coordinate information of local features quantized to the same VWID is matched by coordinate matching is calculated. For example, the closest feature vectors f may be matched.
Next, using a robust estimation method such as a RANSAC (RANdom SAmple Consensus) algorithm, a homography matrix from one coordinate system to the other coordinate system is calculated for the matched feature point correspondence group.
Next, the coordinates of one feature point are projected using the Homography matrix, and if the distance from the corresponding coordinate of the other feature point is within L, the feature point correspondence group is determined to be inlier.
Only reference images in which the number of inliers is equal to or greater than a predetermined threshold are determined as “search success”. However, if there is no reference image in which the number of inliers is equal to or greater than a predetermined threshold, it is determined as “search failure”.
Note that a matrix based on a geometric transformation such as an Affine matrix or a basic matrix may be used instead of the Homography matrix.
図7は、質問画像と参照画像との間における幾何的な特徴点対応組を表す説明図である。 FIG. 7 is an explanatory diagram illustrating a geometric feature point correspondence group between a question image and a reference image.
図7(a)は、質問画像と参照画像との間における特徴点対応組を表す。
図7(b)は、Homography行列に基づくinlier及びoutlierの画像対応を表す。outlierは、破線で表されている。
FIG. 7A shows a feature point correspondence set between a question image and a reference image.
FIG. 7B shows the correspondence between inlier and outlier images based on the Homography matrix. outlier is represented by a broken line.
<S7>[物体検索サーバ2:検索結果送信部28]
検索結果送信部28は、幾何検証部27によって検索された各参照画像の参照画像IDを、端末1へ返信する。
<S7> [Object Search Server 2: Search Result Transmitter 28]
The search
図8は、本発明における他のシステム構成図である。 FIG. 8 is another system configuration diagram in the present invention.
図8によれば、図2の物体検索サーバが、類似度判定サーバ及び幾何検証サーバとして個別に配置されたものである。このように別個のサーバに構築することによって、各サーバの処理負荷を軽減させることができる。 According to FIG. 8, the object search server of FIG. 2 is arranged separately as a similarity determination server and a geometric verification server. By constructing such separate servers, the processing load on each server can be reduced.
この場合、S3(物体検索サーバの類似度判定送信部)について、物体検索サーバ2は、類似度判定結果と共に、複数の参照画像IDも、端末1へ返信する。
次に、S5(端末の幾何情報送信部)について、端末1は、幾何情報と共に、先に受信した参照画像IDも送信する。
そして、S6(物体検索サーバの幾何検証部)について、物体検索サーバ2は、端末1から受信した複数の参照画像IDの中で、幾何検証の処理を実行すればよい。
In this case, for S3 (similarity determination transmission unit of the object search server), the
Next, for S5 (geometric information transmission unit of the terminal), the
And about S6 (geometric verification part of an object search server), the
以上、詳細に説明したように、本発明のシステム及び方法によれば、撮影画像に写る物体を検索する際に、物体の検索精度を低下させることなく、ネットワークを介して転送される局所特徴のデータサイズを削減することができる。 As described above in detail, according to the system and method of the present invention, when searching for an object shown in a captured image, local features transferred via a network can be transmitted without reducing the object search accuracy. Data size can be reduced.
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.
1 端末
11 局所特徴抽出部
12 量子化部
13 幾何情報蓄積部
14 質問情報送信部
15 幾何情報選択部
16 幾何情報送信部
2 物体検索サーバ
21 局所特徴抽出部
22 量子化部
23 幾何情報蓄積部
24 転置インデックス記憶部
25 類似度算出部
26 類似度判定送信部
27 幾何検証部
28 検索結果送信部
DESCRIPTION OF
Claims (8)
前記物体検索サーバは、物体が写る参照画像を予め蓄積しており、
前記端末が、物体が写る質問画像における複数の特徴ベクトルを含む質問情報を、前記物体検索サーバへ送信する第1のステップと、
前記物体検索サーバが、前記質問情報の複数の特徴ベクトルと各参照画像との間の類似度を算出する第2のステップと、
前記物体検索サーバが、前記質問情報と複数の参照画像との間の類似度判定結果を、前記端末へ返信する第3のステップと、
前記端末が、受信した前記類似度判定結果に応じて、前記質問画像の座標情報を含む幾何情報を選択する第4のステップと、
前記端末が、選択された前記幾何情報を、前記物体検索サーバへ送信する第5のステップと、
前記物体検索サーバが、第2のステップで検索された複数の参照画像の中で、前記幾何情報の座標情報に所定閾値以上で類似する1つ以上の参照画像を検索する第6のステップと、
前記物体検索サーバが、第5のステップによって検索された各参照画像の参照画像IDを、前記端末へ返信する第7のステップと
を有することを特徴とする物体検索方法。 An object search method for a system having a terminal and an object search server,
The object search server stores in advance a reference image showing an object,
A first step in which the terminal transmits question information including a plurality of feature vectors in a question image in which an object is captured to the object search server;
A second step in which the object search server calculates a similarity between a plurality of feature vectors of the question information and each reference image;
A third step in which the object search server returns a similarity determination result between the question information and a plurality of reference images to the terminal;
A fourth step in which the terminal selects geometric information including coordinate information of the question image according to the received similarity determination result;
A fifth step in which the terminal transmits the selected geometric information to the object search server;
A sixth step in which the object search server searches for one or more reference images similar to the coordinate information of the geometric information at a predetermined threshold or more among the plurality of reference images searched in the second step;
And a seventh step of returning the reference image ID of each reference image searched in the fifth step to the terminal.
物体が写る質問画像から、特徴ベクトル及び座標情報を含む局所特徴を抽出するステップと、
前記特徴ベクトルを量子化ベクトルに量子化するステップと、
複数の量子化ベクトルを含む質問情報を、前記物体検索サーバへ送信するステップと
を有し、
第2のステップについて、前記物体検索サーバは、
前記質問情報の複数の量子化ベクトルと各参照画像との間の類似度を算出する
ことを特徴とする請求項1に記載の物体検索方法。 For the first step, the terminal
Extracting a local feature including a feature vector and coordinate information from a query image showing an object;
Quantizing the feature vector into a quantization vector;
Transmitting question information including a plurality of quantization vectors to the object search server,
For the second step, the object search server
The object search method according to claim 1, wherein the similarity between the plurality of quantization vectors of the question information and each reference image is calculated.
ことを特徴とする請求項2に記載の物体検索方法。 The object search method according to claim 2, wherein the quantization vector included in the question information is a Visual Word identifier.
ことを特徴とする請求項3に記載の物体検索方法。 The object search method according to claim 3, wherein the question information further includes a direction and / or a scale in association with a Visual Word identifier.
yes1:類似度が閾値TH1以上の参照画像が1つ以上ある
yes2:類似度が閾値TH1未満且つ閾値TH2以上の参照画像が1つ以上ある
no :全ての類似度がTH2未満である
閾値TH1:検索成功の可能性が極めて高い類似度の指標
閾値TH2:検索成功の可能性が比較的高い類似度の指標
第4のステップについて、前記端末が、前記類似度判定結果に応じて、前記物体検索サーバへ送信する前記幾何情報を以下のように制御する
yes1:幾何情報は、座標情報のみを含む
yes2:幾何情報は、座標情報及び特徴ベクトルを含む
no :検索失敗として、処理を終了する
ことを特徴とする請求項2から4のいずれか1項に記載の物体検索方法。 For the third step, the object search server returns one of the following three commands as the similarity determination result to the terminal:
yes1: There is one or more reference images whose similarity is greater than or equal to the threshold TH1
yes2: There is one or more reference images whose similarity is less than the threshold TH1 and greater than or equal to the threshold TH2.
no: all similarities are less than TH2 threshold TH1: index of similarity with very high possibility of successful search threshold TH2: index of similarity with high possibility of successful search For the fourth step, the terminal However, according to the similarity determination result, the geometric information to be transmitted to the object search server is controlled as follows.
yes1: Geometric information includes only coordinate information
yes2: Geometric information includes coordinate information and feature vectors
The object search method according to any one of claims 2 to 4, wherein the process is terminated as a search failure.
第4のステップについて、前記端末が、類似度判定結果に基づく閾値が低いほど、長い特徴ベクトル(特徴ベクトルの上位ビットのみ->全体ビット)を前記幾何情報に含める
ことを特徴とする請求項5に記載の物体検索方法。 For the third step, the object search server returns, as the similarity determination result, any one of four or more commands to the terminal according to three or more threshold values,
The fourth step is characterized in that, as the threshold based on the similarity determination result is lower, the terminal includes a longer feature vector (only upper bits of the feature vector-> total bits) in the geometric information. The object search method described in 1.
前記幾何情報の座標情報と、各参照画像の座標情報との間で、幾何的な所定条件を満たす特徴点対応組を算出し、
前記特徴点対応組の数が最大又は所定数以上となる参照画像を検索する
ことを特徴とする請求項1から6のいずれか1項に記載の物体検索方法。 For the sixth step, the object search server
A feature point correspondence set that satisfies a predetermined geometric condition is calculated between the coordinate information of the geometric information and the coordinate information of each reference image,
The object search method according to any one of claims 1 to 6, wherein a reference image having a maximum number of feature point correspondence groups or a predetermined number or more is searched.
前記端末は、
物体が写る質問画像における複数の特徴ベクトルを含む質問情報を、前記物体検索サーバへ送信する質問情報送信手段と、
受信した類似度判定結果に応じて、前記質問画像の座標情報を含む幾何情報を選択する幾何情報選択手段と、
選択された前記幾何情報を、前記物体検索サーバへ送信する幾何情報送信手段と
を有し、
前記物体検索サーバは、物体が写る参照画像を予め蓄積しており、
前記質問情報の複数の特徴ベクトルと各参照画像との間の類似度を算出する類似度算出手段と、
前記質問情報と複数の参照画像との間の類似度判定結果を、前記端末へ返信する類似度判定送信手段と、
前記類似度判定結果によって類似すると判定された複数の参照画像の中で、前記幾何情報の座標情報に所定閾値以上で類似する1つ以上の参照画像を検索する幾何検証手段と、
前記幾何検証手段によって検索された各参照画像の参照画像IDを、前記端末へ返信する検索結果送信手段と
を有することを特徴とするシステム。 A system having a terminal and an object search server,
The terminal
Question information transmitting means for transmitting question information including a plurality of feature vectors in a question image in which an object is shown to the object search server;
Geometric information selection means for selecting geometric information including coordinate information of the question image according to the received similarity determination result;
Geometric information transmission means for transmitting the selected geometric information to the object search server;
The object search server stores in advance a reference image showing an object,
Similarity calculating means for calculating the similarity between the plurality of feature vectors of the question information and each reference image;
Similarity determination transmission means for returning a similarity determination result between the question information and the plurality of reference images to the terminal;
Geometric verification means for searching for one or more reference images that are similar to the coordinate information of the geometric information at a predetermined threshold value or more among a plurality of reference images determined to be similar based on the similarity determination result;
And a search result transmitting means for returning a reference image ID of each reference image searched by the geometric verification means to the terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015128145A JP6460926B2 (en) | 2015-06-25 | 2015-06-25 | System and method for searching for an object in a captured image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015128145A JP6460926B2 (en) | 2015-06-25 | 2015-06-25 | System and method for searching for an object in a captured image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017010468A true JP2017010468A (en) | 2017-01-12 |
JP6460926B2 JP6460926B2 (en) | 2019-01-30 |
Family
ID=57763708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015128145A Active JP6460926B2 (en) | 2015-06-25 | 2015-06-25 | System and method for searching for an object in a captured image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6460926B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057260A (en) * | 2017-09-19 | 2019-04-11 | ヤフー株式会社 | Retrieval device, retrieval method, and retrieval program |
JP2019159999A (en) * | 2018-03-15 | 2019-09-19 | ヤフー株式会社 | Search device, search method, and search program |
CN110929764A (en) * | 2019-10-31 | 2020-03-27 | 北京三快在线科技有限公司 | Picture auditing method and device, electronic equipment and storage medium |
US11461909B2 (en) | 2018-06-13 | 2022-10-04 | Fujitsu Limited | Method, medium, and apparatus for specifying object included in image utilizing inverted index |
CN117892252A (en) * | 2024-03-18 | 2024-04-16 | 浙江威星电子系统软件股份有限公司 | Intelligent park operation management platform based on big data |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240751A (en) * | 2003-02-06 | 2004-08-26 | Canon Inc | Picture retrieval device |
WO2008152805A1 (en) * | 2007-06-14 | 2008-12-18 | Panasonic Corporation | Image recognizing apparatus and image recognizing method |
JP2009217583A (en) * | 2008-03-11 | 2009-09-24 | Toshiba Corp | Apparatus and method for pattern recognition |
JP2011221688A (en) * | 2010-04-07 | 2011-11-04 | Sony Corp | Recognition device, recognition method, and program |
JP2013114597A (en) * | 2011-11-30 | 2013-06-10 | Canon Marketing Japan Inc | Information processing device, control method thereof, and program |
JP2014048989A (en) * | 2012-09-03 | 2014-03-17 | Yahoo Japan Corp | Bof expression generation device and bof expression generation method |
-
2015
- 2015-06-25 JP JP2015128145A patent/JP6460926B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240751A (en) * | 2003-02-06 | 2004-08-26 | Canon Inc | Picture retrieval device |
WO2008152805A1 (en) * | 2007-06-14 | 2008-12-18 | Panasonic Corporation | Image recognizing apparatus and image recognizing method |
JP2009217583A (en) * | 2008-03-11 | 2009-09-24 | Toshiba Corp | Apparatus and method for pattern recognition |
JP2011221688A (en) * | 2010-04-07 | 2011-11-04 | Sony Corp | Recognition device, recognition method, and program |
JP2013114597A (en) * | 2011-11-30 | 2013-06-10 | Canon Marketing Japan Inc | Information processing device, control method thereof, and program |
JP2014048989A (en) * | 2012-09-03 | 2014-03-17 | Yahoo Japan Corp | Bof expression generation device and bof expression generation method |
Non-Patent Citations (1)
Title |
---|
武者 義則、広池 敦: "画像群の意味的な可視化表現を用いた画像検索システム", 映像情報メディア学会誌, vol. 第54巻 第12号, JPN6009022412, 20 December 2000 (2000-12-20), JP, pages 82 - 87, ISSN: 0003945597 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057260A (en) * | 2017-09-19 | 2019-04-11 | ヤフー株式会社 | Retrieval device, retrieval method, and retrieval program |
JP7091055B2 (en) | 2017-09-19 | 2022-06-27 | ヤフー株式会社 | Search device, search method and search program |
JP2019159999A (en) * | 2018-03-15 | 2019-09-19 | ヤフー株式会社 | Search device, search method, and search program |
US11461909B2 (en) | 2018-06-13 | 2022-10-04 | Fujitsu Limited | Method, medium, and apparatus for specifying object included in image utilizing inverted index |
CN110929764A (en) * | 2019-10-31 | 2020-03-27 | 北京三快在线科技有限公司 | Picture auditing method and device, electronic equipment and storage medium |
CN117892252A (en) * | 2024-03-18 | 2024-04-16 | 浙江威星电子系统软件股份有限公司 | Intelligent park operation management platform based on big data |
Also Published As
Publication number | Publication date |
---|---|
JP6460926B2 (en) | 2019-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Melekhov et al. | Siamese network features for image matching | |
Girod et al. | Mobile visual search: Architectures, technologies, and the emerging MPEG standard | |
JP6460926B2 (en) | System and method for searching for an object in a captured image | |
US20190385001A1 (en) | Data extraction using neural networks | |
JP5563494B2 (en) | Corresponding reference image search device and method, content superimposing device, system and method, and computer program | |
JP6211407B2 (en) | Image search system, image search device, search server device, image search method, and image search program | |
CN107209864B (en) | Face identification method and device | |
CN109582813B (en) | Retrieval method, device, equipment and storage medium for cultural relic exhibit | |
US11714921B2 (en) | Image processing method with ash code on local feature vectors, image processing device and storage medium | |
CN110147710A (en) | Processing method, device and the storage medium of face characteristic | |
CN113254687B (en) | Image retrieval and image quantification model training method, device and storage medium | |
CN110163061B (en) | Method, apparatus, device and computer readable medium for extracting video fingerprint | |
KR20200020107A (en) | Method and system for authenticating stroke-based handwritten signature using machine learning | |
CN106355210B (en) | Insulator Infrared Image feature representation method based on depth neuron response modes | |
JP6042778B2 (en) | Retrieval device, system, program and method using binary local feature vector based on image | |
JP6338274B2 (en) | Information processing apparatus and feature point selection method, apparatus and program thereof | |
JP6035173B2 (en) | Image search system and image search method | |
JP6482505B2 (en) | Verification apparatus, method, and program | |
WO2024260134A1 (en) | Palmprint picture generation method and apparatus, storage medium, program product, and electronic device | |
JP2014225168A (en) | Program, device, and method for calculating similarity between images represented by feature point set | |
JP2018195270A (en) | Local feature expression learning device and method | |
CN115952313A (en) | Commodity feature processing method, electronic device and computer storage medium | |
JP6601965B2 (en) | Program, apparatus and method for quantizing using search tree | |
Lyu et al. | Hierarchically structured multi-view features for mobile visual search | |
CN114298182A (en) | Resource recall method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6460926 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |