[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014229063A - 画像検索装置、方法、及びプログラム - Google Patents

画像検索装置、方法、及びプログラム Download PDF

Info

Publication number
JP2014229063A
JP2014229063A JP2013108047A JP2013108047A JP2014229063A JP 2014229063 A JP2014229063 A JP 2014229063A JP 2013108047 A JP2013108047 A JP 2013108047A JP 2013108047 A JP2013108047 A JP 2013108047A JP 2014229063 A JP2014229063 A JP 2014229063A
Authority
JP
Japan
Prior art keywords
feature
instance
image
features
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013108047A
Other languages
English (en)
Other versions
JP5979444B2 (ja
Inventor
眞哉 村田
Shinya Murata
眞哉 村田
永野 秀尚
Hidenao Nagano
秀尚 永野
向井 良
Ryo Mukai
良 向井
柏野 邦夫
Kunio Kashino
邦夫 柏野
佐藤 真一
Shinichi Sato
真一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Research Organization of Information and Systems
Original Assignee
Nippon Telegraph and Telephone Corp
Research Organization of Information and Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Research Organization of Information and Systems filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013108047A priority Critical patent/JP5979444B2/ja
Publication of JP2014229063A publication Critical patent/JP2014229063A/ja
Application granted granted Critical
Publication of JP5979444B2 publication Critical patent/JP5979444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】より高精度にインスタンスを示す画像を検索する。【解決手段】特徴集約集計部12が、インスタンス画像群から抽出された局所特徴を集約した集約特徴の出現回数を示すインスタンス特徴DB32を作成し、第1特徴照合集計部15が、インスタンス領域の局所特徴と集約特徴とを照合して、インスタンス領域における各集約特徴の出現回数を示すインスタンス領域特徴DB33を作成し、第2特徴照合集計部18が、映像群のフレーム画像の局所特徴と集約特徴とを照合して、各映像における各集約特徴の出現回数を示す映像特徴DB34を作成し、識別性度合計算部19が、各集約特徴の識別性度合を示す識別性度合DB35を作成し、検索ランキング部20が、各DBから取得した値を用いて、インスタンス領域の局所特徴を考慮した映像毎の評価値BM25Mに基づく検索結果を作成する。【選択図】図1

Description

本発明は、画像検索装置、方法、及びプログラムに関する。
従来、特定の人、物、場所等であるインスタンスを示す画像をクエリとして、大規模画像データベースからインスタンスを含む画像を検索することが行われている。例えば、データベースにある映像のフレーム画像群から局所画像特徴量を抽出し、大規模なbag-of-visual-words(BOVW)を構築し、クエリ画像及び映像をこのBOVW上の高次元の特徴ベクトルで表現し、クエリ画像と映像との間の特徴ベクトル間の類似度に基づいて、インスタンスを含む映像を検索する技術、つまりクエリ画像と映像との類似尺度を使用した映像検索技術が提案されている(例えば、非特許文献1参照)。
Cai-Zhi Zhu et al., "Large Vocabulary Quantization for Searching Instances from Videos.", In Proc. of ICMR'12, 2012.
本発明は、従来技術とは異なるアプローチにより、より高精度にインスタンスを示す画像を検索することができる画像検索装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の画像検索装置は、クエリとなるインスタンスを含むインスタンス画像、前記インスタンス画像内の前記インスタンスを示す領域、及び検索対象となる複数のフレーム画像からなる画像群の各フレーム画像から複数の特徴を抽出する特徴抽出手段と、前記特徴抽出手段によりインスタンス画像から抽出された複数の特徴から、重複する特徴を集約した集約特徴の各々の前記インスタンス画像における前記インスタンス毎の第1出現頻度を集計する特徴集約集計手段と、前記集約特徴の各々と前記インスタンスを示す領域から抽出された複数の特徴とを照合し、前記集約特徴の各々の前記インスタンスを示す領域における第2出現頻度を集計する第1特徴照合集計手段と、前記集約特徴の各々と前記フレーム画像から抽出された複数の特徴とを照合し、前記集約特徴の各々の前記画像群における第3出現頻度を集計する第2特徴照合集計手段と、前記第3出現頻度に基づいて、前記画像群における該集約特徴の出現頻度が低いほど高くなる識別性度合を、前記集約特徴の各々について計算する識別性度合計算手段と、前記集約特徴の各々の前記識別性度合、前記第1出現頻度、前記第2出現頻度、及び前記第3出現頻度、前記画像群に含まれる集約特徴の数に関する画像群長、並びに前記インスタンスを示す領域に含まれる集約特徴の数に関する画像長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、前記評価値に基づく検索結果を作成する検索結果作成手段と、を含んで構成されている。
本発明の画像検索装置によれば、特徴抽出手段が、クエリとなるインスタンスを含むインスタンス画像から複数の特徴を抽出する。ここでは、一つのインスタンスまたは複数のインスタンスの各々を示す一つのインスタンス画像または複数のインスタンス画像の各々から複数の特徴を抽出する。そして、特徴集約集計手段が、特徴抽出手段によりインスタンス画像から抽出された複数の特徴から、重複する特徴を集約した集約特徴の各々のインスタンス画像におけるインスタンス毎の第1出現頻度を集計する。
また、特徴抽出手段が、インスタンス画像内のインスタンスを示す領域から複数の特徴を抽出する。そして、第1特徴照合集計手段が、集約特徴の各々とインスタンスを示す領域から抽出された複数の特徴とを照合し、集約特徴の各々のインスタンスを示す領域における第2出現頻度を集計する。また、特徴抽出手段が、検索対象となる複数のフレーム画像からなる画像群の各フレーム画像から複数の特徴を抽出する。そして、第2特徴照合集計手段が、集約特徴の各々とフレーム画像から抽出された複数の特徴とを照合し、集約特徴の各々の画像群における第3出現頻度を集計する。さらに、識別性度合計算手段が、第3出現頻度に基づいて、画像群における集約特徴の出現頻度が低いほど高くなる識別性度合を、集約特徴の各々について計算する。
そして、検索結果作成手段が、集約特徴の各々の識別性度合、第1出現頻度、第2出現頻度、及び第3出現頻度、画像群に含まれる集約特徴の数に関する画像群長、並びにインスタンスを示す領域に含まれる集約特徴の数に関する画像長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、評価値に基づく検索結果を作成する。
このように、インスタンス画像内のインスタンスを示す領域から抽出された特徴を、検索結果を作成するための評価値に考慮することにより、より高精度にインスタンスを示す映像を検索することができる。
また、前記特徴集約集計手段は、検索対象として新たに追加されたインスタンスを含むインスタンス画像から抽出された特徴のうち、前記集約特徴に含まれない追加特徴に基づいて、前記第1出現頻度の集計結果を更新し、前記第1特徴照合集計手段は、前記追加特徴と前記インスタンス領域から抽出された複数の特徴とを照合し、前記第2出現頻度を更新し、前記第2特徴照合集計手段は、前記追加特徴と前記フレーム画像から抽出された複数の特徴とを照合し、前記第3出現頻度を更新し、前記識別性度合計算手段は、更新された前記第3出現頻度に基づいて、前記識別性度合を再計算し、前記検索結果作成手段は、再計算された識別性度合、更新された前記第1出現頻度、更新された前記第2出現頻度、及び更新された前記第3出現頻度に基づいて、前記新たに追加されたインスタンスに対する検索結果を作成することができる。これにより、追加分の処理を行うだけで、追加されたインスタンスについても高精度にインスタンスを示す画像を検索することができる。
また、本発明の画像検索装置は、前記インスタンス画像に含まれるインスタンスを示す領域に対応したマスク画像を用いて、前記インスタンス画像をマスキングすることにより、前記インスタンスを示す領域を表す画像を作成するマスキング処理手段を含んで構成することができる。これにより、インスタンス画像から容易にインスタンスを示す領域を抽出することができる。
また、前記検索結果作成手段は、前記検索結果に前記画像群のファイル名、または前記画像群のファイル名と該画像群の評価値とを含めることができる。検索結果は評価値に基づいて作成されればよく、様々な形態の検索結果を作成可能である。
また、本発明の画像検索方法は、特徴抽出手段と、特徴集約集計手段と、第1特徴照合集計手段と、第2特徴照合集計手段と、識別性度合計算手段と、検索結果作成手段とを含む画像検索装置における画像検索方法であって、前記特徴抽出手段が、クエリとなるインスタンスを含むインスタンス画像、前記インスタンス画像内の前記インスタンスを示す領域、及び検索対象となる複数のフレーム画像からなる画像群の各フレーム画像から複数の特徴を抽出し、前記特徴集約集計手段が、前記特徴抽出手段によりインスタンス画像から抽出された複数の特徴から、重複する特徴を集約した集約特徴の各々の前記インスタンス画像における前記インスタンス毎の第1出現頻度を集計し、前記第1特徴照合集計手段が、前記集約特徴の各々と前記インスタンスを示す領域から抽出された複数の特徴とを照合し、前記集約特徴の各々の前記インスタンスを示す領域における第2出現頻度を集計し、前記第2特徴照合集計手段が、前記集約特徴の各々と前記フレーム画像から抽出された複数の特徴とを照合し、前記集約特徴の各々の前記画像群における第3出現頻度を集計し、前記識別性度合計算手段が、前記第3出現頻度に基づいて、前記画像群における該集約特徴の出現頻度が低いほど高くなる識別性度合を、前記集約特徴の各々について計算し、前記検索結果作成手段が、前記集約特徴の各々の前記識別性度合、前記第1出現頻度、前記第2出現頻度、及び前記第3出現頻度、前記画像群に含まれる集約特徴の数に関する画像群長、並びに前記インスタンスを示す領域に含まれる集約特徴の数に関する画像長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、前記評価値に基づく検索結果を作成する方法である。
また、本発明の画像検索プログラムは、コンピュータを、上記の画像検索装置を構成する各手段として機能させるためのプログラムである。
以上説明したように、本発明の画像検索装置、方法、及びプログラムによれば、インスタンス画像内のインスタンスを示す領域から抽出された特徴を、検索結果を作成するための評価値に考慮することにより、より高精度にインスタンスを示す映像を検索することができる、という効果が得られる。
第1の実施の形態に係る映像検索装置の構成を示す概略図である。 インスタンス画像のデータ構造の一例を示す図である。 局所特徴のデータ構造の一例を示す図である。 集約特徴DBのデータ構造の一例を示す図である。 インスタンス特徴DBのデータ構造の一例を示す図である。 マスクされたインスタンス画像の作成方法を説明するためのイメージ図である。 インスタンス領域特徴DBのデータ構造の一例を示す図である。 映像特徴DBのデータ構造の一例を示す図である。 識別性度合DBのデータ構造の一例を示す図である。 検索結果のデータ構造の一例を示す図である。 第1の実施の形態における映像検索処理ルーチンの内容を示すフローチャートである。 第2の実施の形態に係る映像検索装置の構成を示す概略図である。 追加特徴DBのデータ構造の一例を示す図である。 更新された集約特徴DBのデータ構造の一例を示す図である。 更新されたインスタンス特徴DBのデータ構造の一例を示す図である。 評価結果を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<各実施の形態の概要>
各実施の形態では、インスタンス(実例)を示す画像(以下、「インスタンス画像」という)を入力とし、大規模映像データベースからインスタンスを含む映像を検索し、検索結果を出力する映像検索装置に、本発明の画像検索装置を適用した場合について説明する。各実施の形態に係る映像検索装置は、インスタンス画像またはインスタンス画像群の局所特徴、及び各インスタンス画像内におけるインスタンスを示す領域(以下、「インスタンス領域」という)の局所特徴に基づいて、インスタンスを含む映像の検索(以下、「インスタンス検索」ともいう)を高精度に行うインスタンス検索システムを実現するものである。
各実施の形態では、Webページのキーワード検索でよく用いられる確率的検索手法であるBM25(Best Match 25)と呼ばれるランキング手法を、インスタンス検索に応用する。BM25を応用する際、インスタンス領域の局所特徴の効果をBM25に考慮することで、インスタンス検索の検索精度を向上させる。各実施の形態では、インスタンス領域を示す画像として、マスキング処理によりマスクされたインスタンス画像を作成することに由来して、インスタンス領域の局所特徴の効果を考慮したBM25を、「BM25M(BM25 with Masked query)」と呼ぶ。
また、各実施の形態では、局所特徴の識別性を表す指標に注目し、識別性を表す指標の低い局所特徴を枝刈り(ステミング)することで、BM25本来の検索性能を引き出す。
<第1の実施の形態>
第1の実施の形態に係る映像検索装置10は、CPUと、RAMと、後述する映像検索処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、インスタンス画像特徴抽出部11、特徴集約集計部12、マスキング処理部13、インスタンス領域特徴抽出部14、第1特徴照合集計部15、フレーム画像抽出部16、フレーム画像特徴抽出部17、第2特徴照合集計部18、識別性度合計算部19、検索ランキング部20、及び検索結果出力部21を含んだ構成で表すことができる。また、映像検索装置10には、集約特徴データベース(DB)31、インスタンス特徴DB32、インスタンス領域特徴DB33、映像特徴DB34、及び識別性度合DB35を記憶する所定の記憶領域が設けられている。
映像検索装置10には、インスタンス検索のクエリとして、インスタンス画像が入力される。第1の実施の形態では、インスタンス特徴DB32を作成するため、複数のインスタンスを対象とし、インスタンスのそれぞれについて、複数のインスタンス画像からなるインスタンス画像群が入力される。例えば、インスタンスの数がq個で、各インスタンスについてh枚のインスタンス画像が用意されている場合には、q個のインスタンス画像群、総数q×h枚のインスタンス画像が入力されることとなる。ただし、入力されるインスタンス画像は、1つのインスタンスについて1枚以上であればよい。また、インスタンスを示す映像を入力とし、その映像の各フレームをインスタンス画像群として入力してもよい。なお、1つのインスタンスに対するインスタンス画像群に含まれるインスタンス画像の数が多いほど、インスタンス検索の検索精度が向上する。
図2に、インスタンス画像のデータ構造の一例を示す。図2は、インスタンス画像がn×m画素で構成され、各画素の画素値としてRGB値を有する場合の例であり、画素毎の位置(x,y)とRGB値(rnm,gnm,bnm)とが対応付けられたデータ構造となっている。
また、映像検索装置10には、各インスタンス画像からインスタンス領域を抽出するためのマスク画像が入力される。マスク画像は、例えば、各インスタンス画像内のインスタンス領域の画素の画素値を“1”、インスタンス領域以外の画素の画素値を“0”とした2値化画像とすることができる。また、映像検索装置10には、複数のフレーム画像で構成された映像を複数含む映像群が入力される。
インスタンス画像特徴抽出部11は、映像検索装置10に入力されたインスタンス画像群を受け付け、各インスタンス画像から特徴点を検出し、検出した特徴点の特徴量を記述した特徴ベクトルを局所特徴として抽出する。インスタンス画像特徴抽出部11は、例えば、インスタンス画像において輝度値の変化が激しい箇所をHarris-Laplace法(「C. Harris et al., “A combined corner and edge detector.”, 4th Alvey Vision Conf., 1988.」参照)により特徴点として検出する。そして、検出した各特徴点の特徴量をCompact Color SIFT(「K. Mikolajczyk et al., “Scale and affine invariant interest point detectors.”, IJCV, 2004.」参照)により記述する。Compact Color SIFTは輝度に関する128次元のSIFT特徴量に色度を表す64次元のベクトルを追加した局所特徴量である。
図3に局所特徴のデータ構造の一例を示す。図3は、上記のCompact Color SIFTを用いた例であり、抽出された各局所特徴の識別番号(特徴1,特徴2,・・・,特徴i)と192次元のCompact Color SIFT特徴量(特徴ベクトル)とが対応付けられたデータ構造となっている。インスタンス画像特徴抽出部11は、インスタンス画像から抽出した局所特徴を、特徴集約集計部12に受け渡す。
特徴集約集計部12は、インスタンス画像特徴抽出部11から受け渡されたインスタンス画像の局所特徴のうち、重複している局所特徴を一つに集約する。「重複している局所特徴」とは、インスタンス画像群として映像の各フレームを用いた場合などのように、ほぼ同一のインスタンス画像から同一の局所特徴が抽出された場合に、その同一の局所特徴を「重複」とみなすものである。一枚のインスタンス画像を入力とする場合、「重複している局所特徴」とは、一枚のインスタンス画像から同一の局所特徴が複数個抽出された場合に、その同一の局所特徴を「重複」とみなすものである。特徴集約集計部12は、集約した局所特徴を集約特徴とした集約特徴DB31を作成し、所定の記憶領域に記憶する。図4に、集約特徴DB31のデータ構造の一例を示す。図4の例では、各集約特徴の識別番号(特徴1,特徴2,・・・,特徴j)と192次元のCompact Color SIFT特徴量(特徴ベクトル)とが対応付けられたデータ構造となっている。このデータ構造は、インスタンス画像特徴抽出部11により抽出された局所特徴(例えば、図3)のデータ構造と同様であるが、特徴集約集計部12により局所特徴の数がiからjに集約されたことを示している。
また、特徴集約集計部12は、各インスタンスを示すインスタンス画像群における各集約特徴の出現回数を、インスタンスの特徴としてインスタンス毎に集計し、インスタンス特徴DB32として作成し、所定の記憶領域に記憶する。図5に、インスタンス特徴DB32のデータ構造の一例を示す。図5は、インスタンスの数がq個、集約特徴の総数がj個の例であり、各インスタンスの識別番号(インスタンス1,・・・,インスタンスq)と、各集約特徴の出現回数kf(keypoint frequency)とが対応付けられたデータ構造となっている。
なお、特徴集約集計部12は、集約された局所特徴を、例えばk-means法等によりクラスタリングして次元数を下げることにより、さらに集約してもよい。
マスキング処理部13は、映像検索装置10に入力されたインスタンス画像群及びマスク画像群を受け付け、インスタンス画像の各々に、対応するマスク画像を適用して、マスク画像が示すインスタンス領域に対応した領域に含まれる画素の画素値を抽出した画像を作成する。以下では、マスキング処理部13により作成された画像を「マスクされたインスタンス画像」という。マスキング処理部13は、作成したマスクされたインスタンス画像群を、インスタンス領域特徴抽出部14に受け渡す。
図6にマスクされたインスタンス画像の作成の一例を示す。図6(A)は、インスタンス画像の一例であり、インスタンスであるタワーを含む風景の画像である。図6(B)は、マスク画像の一例であり、インスタンスであるタワーを示す領域を白の画素、それ以外の領域を色付きの画素とした画像である。図6(B)に示すマスク画像の白の画素に対応する図6(A)に示すインスタンス画像の画素の画素値を抽出することにより、図6(C)に示すようなマスクされたインスタンス画像を作成することができる。
インスタンス領域特徴抽出部14は、局所特徴を抽出する対象がインスタンス画像ではなく、マスキング処理部13から受け渡されたマスクされたインスタンス画像であるという点が、インスタンス画像特徴抽出部11と異なるだけである。また、抽出される局所特徴のデータ構造も、インスタンス画像特徴抽出部11で抽出される局所特徴のデータ構造(例えば、図3)と同様である。そのため、詳細な説明は省略する。なお、マスクされたインスタンス画像は、インスタンス領域に対応する画素の画素値のみを有する画像であるため、マスクされたインスタンス画像から抽出された局所特徴は、インスタンス領域から抽出した局所特徴ということができる。インスタンス領域特徴抽出部14は、インスタンス領域から抽出した局所特徴を第1特徴照合集計部15に受け渡す。
第1特徴照合集計部15は、インスタンス領域特徴抽出部14から受け渡されたインスタンス領域から抽出された局所特徴と、集約特徴DB31に記憶されている各集約特徴との照合を行う。上記のCompact Color SIFTの場合、例えば、192次元の特徴ベクトル間のコサイン類似度(0〜1の範囲の値を取り、同一の特徴ベクトルの場合は1)を用いて、コサイン類似度が所定値以上(例えば、0.95)の局所特徴と集約特徴とを一致する特徴と判定する。局所特徴に対して、コサイン類似度が所定値以上となる集約特徴が集約特徴DB31に複数存在する場合には、コサイン類似度が最も大きい集約特徴をその局所特徴に一致する集約特徴と判定する。
なお、局所特徴と集約特徴との間の照合は、コサイン類似度を用いる場合に限定されず、各特徴ベクトル間の距離や類似度を測る尺度であれば、どのようなものを用いてもよい。また、特徴集約集計部12によりクラスタリングにより局所特徴が集約されている場合には、第1特徴照合集計部15は、集約特徴DB31における各クラスタの重心を用いて、インスタンス領域から抽出した局所特徴との照合を行うことができる。
第1特徴照合集計部15は、インスタンス領域から抽出された局所特徴と集約特徴DB31に記憶されている集約特徴との照合結果に基づいて、マスクされたインスタンス画像における各集約特徴の出現回数を、インスタンスごとに集計し、インスタンス領域特徴DB33として作成し、所定の記憶領域に記憶する。図7に、インスタンス領域特徴DB33のデータ構造の一例を示す。図7の例では、各インスタンスの識別番号(インスタンス1,・・・,インスタンスq)と、マスクされたインスタンス画像における各集約特徴の出現回数mkfとが対応付けられたデータ構造になっている。
フレーム画像抽出部16は、映像検索装置10に入力された映像群を受け付け、例えば1fps(1秒間に1フレーム)のレートで各映像からフレーム画像を抽出する。フレーム画像のデータ構造は、インスタンス画像のデータ構造(例えば、図2)と同様であるため、詳細な説明は省略する。
フレーム画像特徴抽出部17は、局所特徴を抽出する対象がインスタンス画像ではなくフレーム画像抽出部16で抽出されたフレーム画像であるという点が、インスタンス画像特徴抽出部11と異なるだけである。また、抽出される局所特徴のデータ構造も、インスタンス画像特徴抽出部11で抽出される局所特徴のデータ構造(例えば、図3)と同様である。そのため、詳細な説明は省略する。
第2特徴照合集計部18は、フレーム画像特徴抽出部17で抽出された各局所特徴と、集約特徴DB31に記憶されている各集約特徴との照合を行う。局所特徴と集約特徴との照合方法は、集約特徴と照合する対象が、インスタンス領域の局所特徴ではなく、フレーム画像の局所特徴であるという点が、第1特徴照合集計部15と異なるだけであるため、詳細な説明は省略する。
また、第2特徴照合集計部18は、フレーム画像から抽出された局所特徴と集約特徴DB31に記憶されている集約特徴との照合結果に基づいて、各映像における各集約特徴の出現回数を集計し、映像特徴DB34として作成し、所定の記憶領域に記憶する。図8に、映像特徴DB34のデータ構造の一例を示す。図8の例では、映像の識別番号(映像1,・・・,映像v)と、各映像における各集約特徴の出現回数KFとが対応付けられたデータ構造となっている。
識別性度合計算部19は、映像特徴DB34を参照し、各集約特徴jの映像の識別性度合を示す指標IDF(γ)(Inverse Document Frequency)を、下記(1)式に基づいて計算する。
ここで、Nは映像特徴DB34内の全映像数、nは映像特徴DB34内の全映像の中で集約特徴jを含む映像数であり、映像特徴DB34において、集約特徴jの出現回数KFが1以上となっている映像をカウントすることにより求めることができる。集約特徴jが映像特徴DB34において高い頻度で出現している場合には、集約特徴jはインスタンスに対する識別能力が低い集約特徴であるとみなせるため、IDF(γ)は小さくなる。逆に、集約特徴jの映像特徴DB34における出現頻度が低い場合には、集約特徴jはインスタンスに対する識別能力が高い集約特徴であるとみなせるため、IDF(γ)は大きくなる。
γは正の整数値のパラメータで、γが大きいほど識別性の評価が厳しくなる。γ≧2の場合、(1)式内のlogの中が負になる可能性があるが、その場合のIDF(γ)は0とする。また、IDF(γ)が負になる場合もIDF(γ)=0とする。理論的観点から言うと、識別性の低い集約特徴(局所特徴)は確率的検索モデルの背後にある仮定に反する性質を持つ事が多い。また実験からこの様な集約特徴(局所特徴)を排除する事が検索精度の向上に不可欠である事がわかっている。そこで、例えばγ=3とすることにより、インスタンスに対する識別性の低い集約特徴を排除する。このように、識別性の低い集約特徴を排除することを、集約特徴の枝刈り(ステミング)と呼ぶ。
識別性度合計算部19は、集約特徴DB31に記憶されている集約特徴(特徴1,・・・,特徴j)の全てについてIDF(γ)を計算し、計算結果を識別性度合DB35として作成し、所定の記憶領域に記憶する。図9に、識別性度合DB35のデータ構造の一例を示す。図9の例では、集約特徴の識別番号(特徴1,・・・,特徴j)と、計算されたとIDF(γ)とが対応付けられたデータ構造になっている。
検索ランキング部20は、各インスタンスに対してそのインスタンスが含まれている可能性のある映像候補を、入力された映像群の中から検索し、映像候補をランキングする。具体的には、まず、検索ランキング部20は、インスタンス特徴DB32からインスタンスqのインスタンス画像における各集約特徴の出現回数kf,・・・,kfを取得する。また、検索ランキング部20は、インスタンス領域特徴DB33からインスタンスqのマスクされたインスタンス画像mにおける各集約特徴の出現回数mkf,・・・,mkfを取得する。また、検索ランキング部20は、映像特徴DB34から映像vにおける各集約特徴の出現回数KF,・・・,KFを取得する。さらに、検索ランキング部20は、識別性度合DB35から各集約特徴の識別性度合IDF(γ),・・・,IDF(γ)を取得する。そして、検索ランキング部20は、下記(2)式に示すような、マスクされたインスタンス画像mの効果を考慮したインスタンスqに対する映像vの評価値BM25M(q,m,v)を計算する。
ここで、k、k、b、b、及びαは設定パラメータで、例えば、k=2、k=0.5、b=b=0.75、α=2とすることができる。またvlは映像長(video length)、avvlは平均映像長(average video length)を意味し、vlは映像vに対応付けられた各集約特徴の出現回数KFの和、avvlは映像特徴DB34内における各映像のvlの平均である。またmlはマスクされたインスタンス画像長(masked length)、avmlはその平均長(average masked length)を意味し、mlはマスクされたインスタンス画像m内における各集約特徴の出現回数mkfの和、avmlはインスタンス領域特徴DB33内のマスクされたインスタンス画像全てにおけるmlの平均である。また、Σqj,KFj>0はインスタンスqの集約特徴(kf>0の集約特徴)の内、映像vに出現している集約特徴に関する和を意味する。
(2)式に示す評価値BM25Mは、テキスト検索分野でよく用いられるBM25(「S. E. Robertson et al., “Some Simple Effective Approximations to the 2-Poisson Model for Probabilistic Weighted Retrieval.”, In Proc. of SIGIR'04, 1994.」参照)に、マスクされたインスタンス画像の効果を考慮したランキング手法であり、クエリを構成する特徴のある部分を強調し、その重みを検索に反映している。BM25MはBM25の効果に加え、目的のインスタンスに対する重要度が高い集約特徴として、インスタンス領域から抽出された局所特徴を多く含む映像にハイスコアを与える。
検索ランキング部20は、マスクされたインスタンス画像mの効果を考慮したインスタンスqに対する各映像(映像1,・・・,映像v)の評価値BM25Mをそれぞれ計算し、評価値BM25Mの降順で映像をランキングした検索結果を作成する。検索結果は、インスタンスの各々(インスタンス1,・・・,インスタンスq)について作成する。図10に、検索結果のデータ構造の一例を示す。図10では、各インスタンスの識別番号(インスタンス1,・・・,インスタンスq)と、評価値BM25Mの降順で並べられた映像とが対応付けられたデータ構造となっている。
なお、検索結果は、上記のようにランキング形式にする場合に限定されず、評価値が最大となる映像のみを検索結果としてもよいし、評価値が所定値以上となる映像をランダムに並べた検索結果としてもよい。また、検索結果を、映像のファイル名としてもよいし、映像のファイル名とBM25Mの値としてもよい。検索結果は、BM25Mの値に基づくものであれば、様々な形態をとることが可能である。
検索結果出力部21は、検索ランキング部20で作成された検索結果を出力する。
次に、第1の実施の形態に係る映像検索装置10の作用について説明する。映像検索装置10に、複数のインスタンスを示す複数のインスタンス画像群が入力されると、映像検索装置10において、図11に示す映像検索処理ルーチンが実行される。
ステップ100で、インスタンス画像特徴抽出部11が、映像検索装置10に入力されたインスタンス画像群を受け付け、各インスタンス画像から特徴点を検出し、検出した特徴点の特徴量を記述した特徴ベクトルを局所特徴として抽出する。
次に、ステップ102で、特徴集約集計部12が、上記ステップ100で抽出された局所特徴から、重複している局所特徴を一つに集約し、集約した局所特徴を集約特徴とした集約特徴DB31を作成し、所定の記憶領域に記憶する。また、特徴集約集計部12が、集約特徴に基づいて、各インスタンスの特徴として、各インスタンス画像群における各集約特徴の出現回数kfを示すインスタンス特徴DB32を作成し、所定の記憶領域に記憶する。
次に、ステップ104で、マスキング処理部13が、映像検索装置10に入力されたマスク画像群を受け付け、上記ステップ100で受け付けたインスタンス画像の各々に、対応するマスク画像を適用して、マスクされたインスタンス画像を作成する。次に、ステップ106で、インスタンス領域特徴抽出部14が、上記ステップ104で作成された各マスクされたインスタンス画像から局所特徴を抽出する。
次に、ステップ108で、第1特徴照合集計部15が、上記ステップ106でマスクされたインスタンス画像から抽出された各局所特徴と、上記ステップ102で記憶された集約特徴DB31内の各集約特徴とを、特徴ベクトル間の類似度に基づいて照合する。そして、第1特徴照合集計部15が、照合結果に基づいて、マスクされたインスタンス画像における各集約特徴の出現回数mkfを示すインスタンス領域特徴DB33を作成し、所定の記憶領域に記憶する。
次に、ステップ110で、フレーム画像抽出部16が、映像検索装置10に入力された映像群を受け付け、各映像からフレーム画像を抽出する。次に、ステップ112で、フレーム画像特徴抽出部17が、上記ステップ110で抽出された各フレーム画像から局所特徴を抽出する。
次に、ステップ114で、第2特徴照合集計部18が、上記ステップ112でフレーム画像から抽出された各局所特徴と、上記ステップ102で記憶された集約特徴DB31内の各集約特徴とを、特徴ベクトル間の類似度に基づいて照合する。そして、第2特徴照合集計部18が、照合結果に基づいて、各映像における各集約特徴の出現回数KFを示す映像特徴DB34を作成し、所定の記憶領域に記憶する。
次に、ステップ116で、識別性度合計算部19が、映像特徴DB34を参照し、集約特徴jの識別性度合IDF(γ)を、集約特徴DB31に記憶されている集約特徴(特徴1,・・・,特徴j)の全てについて計算し、各集約特徴の識別性度合を示す識別性度合DB35を作成し、所定の記憶領域に記憶する。
次に、ステップ118で、検索ランキング部20が、インスタンス特徴DB32からインスタンスqのインスタンス画像における各集約特徴の出現回数kf,・・・,kfを取得し、インスタンス領域特徴DB33からインスタンスqのマスクされたインスタンス画像mにおける各集約特徴の出現回数mkf,・・・,mkfを取得し、映像特徴DB34から映像vにおける各集約特徴の出現回数KF,・・・,KFを取得し、識別性度合DB35から各集約特徴の識別性度合IDF(γ),・・・,IDF(γ)を取得する。そして、検索ランキング部20が、マスクされたインスタンス画像mの効果を考慮したインスタンスqに対する各映像の評価値BM25Mを計算し、評価値BM25Mの降順で映像をランキングした検索結果を作成する。検索結果は、各インスタンスについて作成する。
次に、ステップ120で、検索結果出力部21が、上記ステップ118で作成された検索結果を出力して、映像検索処理ルーチンを終了する。
以上説明したように、第1の実施の形態に係る映像検索装置によれば、マスクされたインスタンス画像、すなわちインスタンス領域から抽出された特徴を、目的のインスタンスに対する重要度が高い特徴としたBM25Mを評価値として用いることにより、より高精度にインスタンスを示す映像を検索することができる。
<第2の実施の形態>
第2の実施の形態では、既にインスタンス特徴DB32に所定数のデータが蓄積されている状態で、新しく追加されたインスタンス画像をクエリとして映像を検索する場合について説明する。なお、第2の実施の形態に係る映像検索装置について、第1の実施の形態に係る映像検索装置10と同一の構成については、同一符号を付して詳細な説明を省略する。
第2の実施の形態に係る映像検索装置210は、CPUと、RAMと、後述する映像検索処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成されている。このコンピュータは、機能的には、図12に示すように、インスタンス画像特徴抽出部11、特徴集約集計部212、マスキング処理部13、インスタンス領域特徴抽出部14、第1特徴照合集計部215、フレーム画像抽出部16、フレーム画像特徴抽出部17、第2特徴照合集計部218、識別性度合計算部219、検索ランキング部20、及び検索結果出力部21を含んだ構成で表すことができる。また、映像検索装置210には、集約特徴DB31、インスタンス特徴DB32、インスタンス領域特徴DB33、映像特徴DB34、識別性度合DB35、及び追加特徴DB36を記憶する所定の記憶領域が設けられている。
特徴集約集計部212は、インスタンス画像特徴抽出部11で抽出された新しいインスタンス画像の局所特徴を受け取り、集約特徴DB31を参照して、重複している局所特徴を排除し、新たに追加された追加特徴を抽出する。ここでは、インスタンスq+1を示すインスタンス画像群が新たに入力され、追加特徴j+1が追加された場合について説明する。特徴集約集計部212は、追加特徴j+1を、集約特徴DB31と同じデータ構造の追加特徴DB36に記憶すると共に、集約特徴DB31を追加特徴j+1の追加分だけ更新する。図13に、追加特徴DB36の一例を、図14に、更新された集約特徴DB31の一例を示す。
また、特徴集約集計部212は、追加されたインスタンスq+1及び追加特徴j+1により、インスタンス特徴DB32を更新する。図15に、更新されたインスタンス特徴DB32の一例を示す。図15の例では、更新前のインスタンス特徴DB32(図5)に、追加特徴j+1の列及びインスタンスq+1の行が追加されている。なお、追加特徴j+1は新たに追加された集約特徴であるため、インスタンス1,・・・,インスタンスqについての出現回数kfj+1は0である。
第1特徴照合集計部215は、マスクされたインスタンス画像から抽出された局所特徴と追加特徴DB36に記憶されている追加特徴との照合結果に基づいて、インスタンス領域特徴DB33を更新する。局所特徴と追加特徴との照合方法は、第1の実施の形態の第1特徴照合集計部15における局所特徴と集約特徴との照合方法と同様である。インスタンス領域特徴DB33の更新では、各マスクされたインスタンス画像における追加特徴j+1の出現回数mkfj+1を集計し、追加特徴j+1の列をインスタンス領域特徴DB33に追加する。
第2特徴照合集計部218は、フレーム画像から抽出された局所特徴と追加特徴DB36に記憶されている追加特徴との照合結果に基づいて、映像特徴DB34を更新する。局所特徴と追加特徴との照合方法は、第1の実施の形態の第2特徴照合集計部18における局所特徴と集約特徴との照合方法と同様である。映像特徴DB34の更新では、各映像における追加特徴j+1の出現回数KFj+1を集計し、追加特徴j+1の列を映像特徴DB34に追加する。
識別性度合計算部219は、映像特徴DB34に追加された追加特徴j+1の出現回数KFj+1を用いて、追加特徴j+1の識別性度合IDFj+1(γ)を計算し、追加特徴j+1の列を識別性度合DB35に追加する。
次に、第2の実施の形態に係る映像検索装置210の作用について、第1の実施の形態と異なる点について説明する。
図11の映像検索処理ルーチンのステップ102では、特徴集約集計部212が、ステップ100で抽出された新しいインスタンス画像の局所特徴から、集約特徴DB31を参照して追加特徴を抽出し、追加特徴DB36に記憶すると共に、集約特徴DB31を新たな追加特徴の追加分だけ更新する。また、特徴集約集計部212が、新たなインスタンス及び追加特徴の追加分だけ、インスタンス特徴DB32を更新する。
ステップ108では、第1特徴照合集計部215が、ステップ106でマスクされたインスタンス画像から抽出された局所特徴と、上記ステップ102で追加特徴DB36に記憶された追加特徴との照合結果に基づいて、追加特徴の追加分だけ、インスタンス領域特徴DB33を更新する。
ステップ114では、第2特徴照合集計部218が、ステップ112でフレーム画像から抽出された局所特徴と、上記ステップ102で追加特徴DB36に記憶された追加特徴との照合結果に基づいて、追加特徴の追加分だけ、映像特徴DB34を更新する。
ステップ116では、識別性度合計算部219が、ステップ114で映像特徴DB34に追加された追加特徴の識別性度合を計算し、追加特徴の追加分だけ、識別性度合DB35を更新する。
後段の処理では、上記のように更新された各データベースを参照して、第1の実施の形態と同様に評価値BM25Mを計算して、検索結果を作成すればよい。
以上説明したように、第2の実施の形態に係る映像検索装置によれば、インスタンス特徴DBに所定数以上のデータが蓄積されている場合には、新たに追加されたインスタンス画像について処理するだけで、第1の実施の形態と同様に、より高精度にインスタンスを示す映像を検索することができる。
<評価結果>
ここで、TRECVID2012のインスタンス検索タスクのデータセットを使用した検索精度の評価結果について説明する。TRECVIDは毎年行われている映像検索分野のコンペティションで、アメリカのNIST(National Institute of Standards and Technology)が主催している。TRECVID2012のインスタンス検索タスクでは21個のインスタンスが用意され、それぞれに平均約5枚のインスタンス画像及びマスク画像が付与されている。そして約7万7千本の映像データベース(Web上のConsumer Generated Media(CGM))が検索対象になる。検索結果ランキングの精度は、Precision@10,20,100及びMean Average Precision(MAP)という指標で評価した。MAPは下記(3)式で定義される。
ここで|Q|は全インスタンス数、|R|はインスタンスqの正解映像数、jは映像の検索結果ランク、rel(q,j)はランクjの映像がqに対して正解であれば1を、不正解であれば0を返す関数である。c(q,j)はランク1からランクjまでに存在した正解映像の数である。全てのインスタンスに対する検索結果において、ランク1から順に正解映像が並んでいる場合、そのシステムの検索精度はMAP=1(最高値)である。
図16に検索精度の評価結果を示す。KF−IDFは識別性が高い集約特徴が多く含まれている映像を正解とする手法(テキスト検索におけるTF−IDFによるランキング手法に対応)、VSMは集約特徴のKF−IDFを重みとする、qとvとの特徴ベクトル間のコサイン類似度の降順で映像をランキングする手法(テキスト検索におけるTF−IDFで重み付けされたベクトル空間法に対応)である。BM25はマスクされたインスタンス画像の局所特徴、すなわちインスタンス領域の局所特徴を考慮しない確率的検索手法であり、BM25Mが本実施の形態の手法である。マスクされたインスタンス画像の局所特徴を考慮することで、ランキングの精度が改善されることがわかる。BM25とBM25MとのMAPの差は危険度5%水準で有意であることを確認している。
今後、映像メディアは録画や記録デバイス、ソーシャルネットワーキングサービス等の発達により爆発的に増加することが予想され、その様な状況に対処しうるロバストな映像検索技術が求められているが、本実施の形態の手法を使用することで、大規模映像データベースからの高精度なインスタンス検索を実現することが可能になる。
例えば、旅先で目にした、名前がわからない物体を検索したい場合、従来のテキスト検索ではそもそも名前がわからないためユーザの検索要求を満たすことができなかった。しかしながら、デジタルカメラやスマートフォンでその物体の写真を取り、物体の場所を指し示す情報と共にインスタンス検索システムに投入すれば、そのインスタンスが映る様々なシチュエーション下での映像を検索することが可能になる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記各実施の形態では、インスタンスの検索対象の画像を映像とする場合について説明したが、検索対象の画像を静止画像とした場合にも、本発明を適用可能である。この場合、例えば10000枚の静止画像を検索対象として入力した場合、映像中の集約特徴の出現回数KFを静止画像中の集約特徴の出現回数KF’に、映像中のKFの総和であるvlを静止画像中の集約特徴の出現回数の総和であるvl’に、vlの平均値であるavdlをvl’の平均値であるavdl’に置き換え、上記のBM25Mを適用すればよい。IDF(γ)は10000枚の静止画像集合の中で(1)式により計算される。
また、検索対象を静止画像とした場合には、検索結果として、静止画像のファイル名や、静止画像のファイル名とBM25Mの値など、BM25Mの値に基づく様々な形態の検索結果を出力することができる。さらに、検索対象を映像及び静止画像の両方とした場合、検索結果として、映像と静止画像とが混在したものを出力してもよい。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10、210 映像検索装置
11 インスタンス画像特徴抽出部
12、212 特徴集約集計部
13 マスキング処理部
14 インスタンス領域特徴抽出部
15、215 第1特徴照合集計部
16 フレーム画像抽出部
17 フレーム画像特徴抽出部
18、218 第2特徴照合集計部
19、219 識別性度合計算部
20 検索ランキング部
21 検索結果出力部
31 集約特徴DB
32 インスタンス特徴DB
33 インスタンス領域特徴DB
34 映像特徴DB
35 識別性度合DB
36 追加特徴DB

Claims (6)

  1. クエリとなるインスタンスを含むインスタンス画像、前記インスタンス画像内の前記インスタンスを示す領域、及び検索対象となる複数のフレーム画像からなる画像群の各フレーム画像から複数の特徴を抽出する特徴抽出手段と、
    前記特徴抽出手段によりインスタンス画像から抽出された複数の特徴から、重複する特徴を集約した集約特徴の各々の前記複数のインスタンス画像における前記インスタンス毎の第1出現頻度を集計する特徴集約集計手段と、
    前記集約特徴の各々と前記インスタンスを示す領域から抽出された複数の特徴とを照合し、前記集約特徴の各々の前記インスタンスを示す領域における第2出現頻度を集計する第1特徴照合集計手段と、
    前記集約特徴の各々と前記フレーム画像から抽出された複数の特徴とを照合し、前記集約特徴の各々の前記画像群における第3出現頻度を集計する第2特徴照合集計手段と、
    前記第3出現頻度に基づいて、前記画像群における該集約特徴の出現頻度が低いほど高くなる識別性度合を、前記集約特徴の各々について計算する識別性度合計算手段と、
    前記集約特徴の各々の前記識別性度合、前記第1出現頻度、前記第2出現頻度、及び前記第3出現頻度、前記画像群に含まれる集約特徴の数に関する画像群長、並びに前記インスタンスを示す領域に含まれる集約特徴の数に関する画像長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、前記評価値に基づく検索結果を作成する検索結果作成手段と、
    を含む画像検索装置。
  2. 前記特徴集約集計手段は、検索対象として新たに追加されたインスタンスを含むインスタンス画像から抽出された特徴のうち、前記集約特徴に含まれない追加特徴に基づいて、前記第1出現頻度の集計結果を更新し、
    前記第1特徴照合集計手段は、前記追加特徴と前記インスタンス領域から抽出された複数の特徴とを照合し、前記第2出現頻度を更新し、
    前記第2特徴照合集計手段は、前記追加特徴と前記フレーム画像から抽出された複数の特徴とを照合し、前記第3出現頻度を更新し、
    前記識別性度合計算手段は、更新された前記第3出現頻度に基づいて、前記識別性度合を再計算し、
    前記検索結果作成手段は、再計算された識別性度合、更新された前記第1出現頻度、更新された前記第2出現頻度、及び更新された前記第3出現頻度に基づいて、前記新たに追加されたインスタンスに対する検索結果を作成する
    請求項1記載の画像検索装置。
  3. 前記インスタンス画像に含まれるインスタンスを示す領域に対応したマスク画像を用いて、前記インスタンス画像をマスキングすることにより、前記インスタンスを示す領域を表す画像を作成するマスキング処理手段を含む請求項1または請求項2記載の画像検索装置。
  4. 前記検索結果作成手段は、前記検索結果に前記画像群のファイル名、または前記画像群のファイル名と該画像群の評価値とを含める請求項1〜請求項3のいずれか1項記載の画像検索装置。
  5. 特徴抽出手段と、特徴集約集計手段と、第1特徴照合集計手段と、第2特徴照合集計手段と、識別性度合計算手段と、検索結果作成手段とを含む画像検索装置における画像検索方法であって、
    前記特徴抽出手段が、クエリとなるインスタンスを含むインスタンス画像、前記インスタンス画像内の前記インスタンスを示す領域、及び検索対象となる複数のフレーム画像からなる画像群の各フレーム画像から複数の特徴を抽出し、
    前記特徴集約集計手段が、前記特徴抽出手段によりインスタンス画像から抽出された複数の特徴から、重複する特徴を集約した集約特徴の各々の前記インスタンス画像における前記インスタンス毎の第1出現頻度を集計し、
    前記第1特徴照合集計手段が、前記集約特徴の各々と前記インスタンスを示す領域から抽出された複数の特徴とを照合し、前記集約特徴の各々の前記インスタンスを示す領域における第2出現頻度を集計し、
    前記第2特徴照合集計手段が、前記集約特徴の各々と前記フレーム画像から抽出された複数の特徴とを照合し、前記集約特徴の各々の前記画像群における第3出現頻度を集計し、
    前記識別性度合計算手段が、前記第3出現頻度に基づいて、前記画像群における該集約特徴の出現頻度が低いほど高くなる識別性度合を、前記集約特徴の各々について計算し、
    前記検索結果作成手段が、前記集約特徴の各々の前記識別性度合、前記第1出現頻度、前記第2出現頻度、及び前記第3出現頻度、前記画像群に含まれる集約特徴の数に関する画像群長、並びに前記インスタンスを示す領域に含まれる集約特徴の数に関する画像長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、前記評価値に基づく検索結果を作成する
    画像検索方法。
  6. コンピュータを、請求項1〜請求項4のいずれか1項記載の画像検索装置を構成する各手段として機能させるための画像検索プログラム。
JP2013108047A 2013-05-22 2013-05-22 画像検索装置、方法、及びプログラム Active JP5979444B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013108047A JP5979444B2 (ja) 2013-05-22 2013-05-22 画像検索装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013108047A JP5979444B2 (ja) 2013-05-22 2013-05-22 画像検索装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2014229063A true JP2014229063A (ja) 2014-12-08
JP5979444B2 JP5979444B2 (ja) 2016-08-24

Family

ID=52128861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013108047A Active JP5979444B2 (ja) 2013-05-22 2013-05-22 画像検索装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5979444B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028700A (ja) * 2017-07-28 2019-02-21 日本電信電話株式会社 検証装置、方法、及びプログラム
JP2021005417A (ja) * 2020-10-02 2021-01-14 日本電信電話株式会社 検証装置、方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008242965A (ja) * 2007-03-28 2008-10-09 Kddi Corp 動画像提示システム
JP2011107795A (ja) * 2009-11-13 2011-06-02 Hitachi Ltd 画像検索システム
JP2013092941A (ja) * 2011-10-26 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> 画像検索装置、方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008242965A (ja) * 2007-03-28 2008-10-09 Kddi Corp 動画像提示システム
JP2011107795A (ja) * 2009-11-13 2011-06-02 Hitachi Ltd 画像検索システム
JP2013092941A (ja) * 2011-10-26 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> 画像検索装置、方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016021876; 村田 眞哉: '画像をクエリとしたインスタンス映像検索' 電子情報通信学会技術研究報告 Vol.112 No.441, 20130214, 215-219ページ, 一般社団法人電子情報通信学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028700A (ja) * 2017-07-28 2019-02-21 日本電信電話株式会社 検証装置、方法、及びプログラム
JP2021005417A (ja) * 2020-10-02 2021-01-14 日本電信電話株式会社 検証装置、方法、及びプログラム
JP7016130B2 (ja) 2020-10-02 2022-02-04 日本電信電話株式会社 検証装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP5979444B2 (ja) 2016-08-24

Similar Documents

Publication Publication Date Title
US10394878B2 (en) Associating still images and videos
US10599709B2 (en) Object recognition device, object recognition method, and program for recognizing an object in an image based on tag information
JP5621897B2 (ja) 処理方法、コンピュータプログラム及び処理装置
CN104991959B (zh) 一种基于内容检索相同或相似图像的方法与系统
US9747305B2 (en) Image search device, image search method, program, and computer-readable storage medium
CN110390044B (zh) 一种相似网络页面的搜索方法及设备
US20140122470A1 (en) Hierarchical ranking of facial attributes
CN104991954B (zh) 基于图像搜索的购物搜索系统及其实现方法
JP5121917B2 (ja) 画像検索装置、画像検索方法及びプログラム
US20110299743A1 (en) Scalable face image retrieval
CN102549603A (zh) 基于相关性的图像选择
JP6173754B2 (ja) 画像検索システム、画像検索装置および画像検索方法
JP5979444B2 (ja) 画像検索装置、方法、及びプログラム
JP6062981B2 (ja) 映像検索装置、方法、及びプログラム
JP6017277B2 (ja) 特徴ベクトルの集合で表されるコンテンツ間の類似度を算出するプログラム、装置及び方法
JP5851381B2 (ja) 画像検索装置、方法、及びプログラム
JP2015166978A (ja) 画像検索装置及び画像検索プログラム
JP6314071B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5833499B2 (ja) 高次元の特徴ベクトル集合で表現されるコンテンツを高精度で検索する検索装置及びプログラム
Chu et al. Predicting occupation from images by combining face and body context information
Yuasa et al. Keypoint reduction for smart image retrieval
Peng et al. Deepcamera: A unified framework for recognizing places-of-interest based on deep convnets
JP2016103084A (ja) 画像検索装置、及び画像検索システム
CN110032652B (zh) 媒体文件查找方法和装置、存储介质及电子装置
Jaybhaye et al. Image re-ranking using sift feature

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160713

R150 Certificate of patent or registration of utility model

Ref document number: 5979444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250