JP5946315B2 - 画像検索システム - Google Patents
画像検索システム Download PDFInfo
- Publication number
- JP5946315B2 JP5946315B2 JP2012095036A JP2012095036A JP5946315B2 JP 5946315 B2 JP5946315 B2 JP 5946315B2 JP 2012095036 A JP2012095036 A JP 2012095036A JP 2012095036 A JP2012095036 A JP 2012095036A JP 5946315 B2 JP5946315 B2 JP 5946315B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- feature points
- feature
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
このような観点から、携帯電話で撮影した画像に類似する画像をデータベースから抽出するシステムとして例えば、特許文献1に開示された「情報処理装置および携帯端末」がある。
また、特許文献1では、「画像」に動画像が含まれるか否かが明示されていない。仮に動画像が含まれるとしてもどのような処理がなされるのか言及がない。もし動画像も検索対象に含めるように機能を拡張しようとすると、人間が領域を指定する点がネックとなる。
このような点に鑑み、本発明は撮影された画像全体を検索キーとしても検索の精度を落とさず、静止画像だけでなく動画像も対象とする動画検索サービスを提供することを目的とする。
ユーザの入力を受け付ける入力手段と、
撮像手段により得られた静止画像又は動画像(以下、「撮影画像」)を表示する出力手段と、
表示された撮影画像の特徴点を抽出する特徴点抽出手段と、
予め収集されている画像群の特徴点が格納されている原画像特徴点データベースと、
前記抽出された撮影画像の特徴点と前記原画像特徴点データベースから取り出した特徴点と照合し、条件に合う画像(以下、「当たり画像」)を特定する情報を取り出す特徴点照合手段と、
当たり画像を特定する情報に基づいて、その当たり画像に関連する情報を取得する画像関連情報取得手段と、
を備えを備え、前記特徴点抽出手段は、動画像を特徴点抽出対象とする場合、複数枚の静止画像をとり、各静止画像の特徴点を抽出し、一連の静止画像の特徴点を集めて動画像の特徴点とすることを特徴とする。
ここで、「撮像手段」とは、携帯端末に内蔵されているカメラ機能を想定している。このような構成による発明の目的は、携帯端末に映し出された画像と類似する画像を登録されている原画像群から探しだすことであり、さまざまな応用が考えられる。第2の実施形態で記載した営業担当者が客先で本システムを利用してプレゼンテーションをするのは応用例の一つである。
「当たり画像を特定する情報」とは、画像IDあるいはhash文字列などをいう。
本発明では、検索対象が動画像である場合、複数枚の静止画像をとり、各静止画像の特徴点を集めて動画像の特徴点とする。これにより、本発明は静止画像だけでなく動画像にも対応できることになり、例えばテレビ画面を撮影し、この特徴点からどのテレビ局の何の番組の画面であるかを判定することも可能である。
前記携帯端末は、
ユーザの入力を受け付ける入力手段と、
撮像手段により得られた撮影画像を表示する出力手段と、
表示された撮影画像の特徴点を抽出する特徴点抽出手段と、
抽出された撮影画像の特徴点を前記サーバに送信して当たり画像の特定を要求する画像検索要求送信手段と、
検索結果を受信する画像検索結果受信手段と
当たり画像に関連付けられて蓄積されている情報を取得する画像関連情報取得手段と、
を備え、前記特徴点抽出手段は、動画像を特徴点抽出対象とする場合、複数枚の静止画像をとり、各静止画像の特徴点を抽出し、一連の静止画像の特徴点を集めて動画像の特徴点とするとともに、
前記サーバは、
原画像の特徴点が格納されている原画像特徴点データベースと、
前記画像検索装置から受信した特徴点と前記原画像特徴点データベースから取り出した特徴点とを照合し、当たり画像を取り出す特徴点照合手段と、
を備えることを特徴とするものである。
このように、処理負荷のかかる特徴点の照合処理はサーバが担うので、大量の画像データも処理可能となり検索精度が高まる。
つまり、予め特徴点集合を自動作成する機能を備えているのであるから、携帯端末の操作時にリアルタイムの特徴点照合が行えることになる。
このように位置関係保存の判定処理を併用すれば、抽出結果の精度を高めることができる。撮影画像の特徴点と原画像の特徴点との距離の比較だけでは、抽出結果にノイズを含むおそれがあるからである。
「位置関係保存の判定」とは、距離的に近いと判定された撮影画像の特徴点の集合と候補画像側の特徴点の集合とのそれぞれから対応する1個の特徴点を取り出し、各集合の重心と取り出した特徴点とのベクトルを基準として他の特徴点が左右いずれの側にあるかを調べ、各集合から取り出した対応する特徴点が同じ側にあれば点数化し、点数が所定の値以上であれば位置関係が保存されていると判定することをいう。
そのため、本発明は営業支援ツールとして営業担当者が客先での商品検索及び関連情報入手に利用すると効果的である。例えば営業担当者が客先で本システムを利用してプレゼンテーションをするのも応用例の一つである。従来の画像とその関連情報とが混然一体となった営業用資料では分厚いカタログになってしまって手軽には持ち運べないし、また混乱・手落ちも発生しやすい。そこで情報を自分の携帯端末と簡単なパンフレットとに分割するわけである。この両者を相互補完的に使用することによって営業効率を上げることができる。
また本発明では、データベースには画像そのものではなくその特徴点が格納されている。その結果、著作権の問題が回避でき、またプライバシーに係わるような営業にも対応できる。
以下、図面を参照しながら本発明の一実施の形態のシステム(以下、「本システム」)について説明する。
携帯端末1は、入力手段4と、出力手段5と、撮像手段6と、記憶手段7と、処理手段8と、図示しない通信インターフェース手段を有する。
出力手段5はディスプレイ画面が必須であり、適宜スピーカも含まれる。
撮像手段6は、カメラレンズ及び撮像素子であり、本システムで用いられる携帯端末はこのような画像撮影機能が必須である。
特徴点抽出手段9は、撮像手段6によって画面5上に映し出された撮影画像から、特徴点を抽出する。
画像検索要求送信手段10は、抽出された撮影画像の特徴点をサーバ2に送信する。この特徴点は画像検索のための検索キーとなるものである。検索キーとするのは特徴点であって撮影画像自体ではない。直接画像を送信すれば、著作権上の問題が発生したり、人物や人家が写ったりしているとプライバシー侵害のおそれも生ずるからである。
画像検索結果受信手段11は、サーバ2において検索キーに相当すると判定された特徴点が抽出されたならば、その特徴点に対応する画像に関連する情報、つまりユーザが撮影した画像と関連あると考えられる情報が送信されてくるので、これを受信する。例えば、ある店の入り口を撮影した場合、その店のWebサイトのURLを受信する、といったことが考えられる。
画像関連情報取得手段12は、サーバ2から送信された情報に基づいて、自分が撮影した画像に関連する情報にアクセスする手段である。例えば、サーバ2からURLが送信されたならば、そのURLに基づいて該当するWebサイトにアクセスする。
原画像情報記憶手段15には、原画像特徴点データベース(以下、「特徴点DB」)16と特徴点インデックスデータベース(以下、「インデックスDB」)17と原画像関連情報データベース(以下、「関連情報DB」)18が含まれる。これらのデータベースについては後で説明する。
特徴点作成手段19は、原画像の特徴点と、照合時探索用のインデックスを作成して特徴点DB16とインデックスDB17に登録しておく。
検索キー受信手段20は、携帯端末1から画像検索キーである特徴点情報を受信する。
特徴点照合手段21は、受信した検索キーを、予め特徴点DB16に登録された原画像の特徴点と照合し、最も近い特徴点を最も多く持つ原画像を、当たり画像とする。
当たり画像情報送信手段22は、当たり画像に関する情報、例えばURLを関連情報DB18から取り出して携帯端末1に送信する。
サーバ2側で、原画像の特徴点と、照合時探索用のインデックスを作成しておく(ステップS1)。この処理は、ステップS2以降の処理とは独立に行われ、システム運用までに行われるとともに、システム運用開始後も適宜更新処理がなされる。
特徴点抽出には、たとえば公知のORB(Oriented FAST and Rotated BRIEF)アルゴリズムを使用する。
(詳細は、http://www.willowgarage.com/papers/orb-efficient-alternative-sift-or-surfなどを参照)
数千〜数万の原画像の特徴点を取って特徴点DB16及びインデックスDB17に格納する。このように特徴点の抽出をあらかじめ行っておくので特徴点照合処理が高速化できる。
さらに、縮小画像から取得した特徴点の数と特徴点ベクトルの値、および拡大画像から取得した特徴点の数と特徴点ベクトルの値も有する。
ここで注意することは原画像そのもののデータは持っていないことである。特徴点ベクトルは16方向あり、それぞれ1組のX座標とY座標の値を持つので、特徴点ベクトルの値は各特徴点につき合計32個ある。ベクトルを16方向と細かくとったことと、特徴点ベクトルの値の型をintとしたことによって、検索のスピードと精度を高めることができる。
この実施形態ではORBアルゴリズムを使用するが、このアルゴリズムはサイズの変化に弱いという欠点がある。この欠点を補い精度を維持するために、原画像だけでなく縮小画像および拡大画像の特徴点も同時にデータベースに格納しておく。縮小画像および拡大画像の特徴点も必要なのは、被写体が同じであっても、解像度によって特徴点の個数や抽出される特徴点が異なってくるからである。
抽出された特徴点は画像検索キーとしてサーバ2に送信される(ステップS3)。
図4にしたがい、特徴点の照合処理を説明する。
原画像の個数をJ個とし、ステップS101でループ変数jを1に初期化する。次に特徴点DB16から原画像の特徴点データを取り出して(ステップS102)、検索キーの各特徴点にユークリッド距離が最も近い特徴点の個数を点数化し、記憶手段13に中間処理結果として格納する(ステップS103)。格納する情報は、検索キーのどの特徴点がどの原画像のどの特徴点と対応するかであり、位置関係保存の判定処理で参照される。ステップS104では、j=Jであるかを判定し、j=Jでなければ、ループ変数jに1を加算し(ステップS105)、ステップS102へ戻って同様に処理を繰り返す。
j=Jであれば、中間処理結果から最も点数の高い原画像を候補画像としてK個抽出する(ステップS106)。ここまでは、ノイズ除去は考慮しない。つまり全データをシグナル(=本来のデータ)とみなして処理するので候補画像は多めに採用されることになる。
この処理は、対応関係をよりグローバルにチェックする処理といえる。ノイズにはグローバルな法則性はないと考えられるから、ノイズがあるために採用されることになった画像はこの段階で排除されることになる。
先ずステップS107で、ループ変数kを1に初期化する。このkは、前段で設定された採用候補画像数=Kまで、後段でカウントアップされていくことになる。あわせてステップS107では、カウンタ変数iを0に初期化する。
次にステップS108で、抽出した原画像について、最も点数の高い順に位置関係の保存を調べる。即ち、携帯端末1で撮影された撮影画像の特徴点と特定の候補画像内の特徴点を1対1で対応付ける。ここで対応づけられた特徴点集合に於いて、撮影画像側の特徴点集合をサブセットAとし、候補画像側の特徴点集合をサブセットBとする。サブセットAはステップS103において中間処理結果として格納された検索キーの特徴点の集合であり、サブセットBはある原画像の特徴点の集合である。
サブセットAおよびサブセットBのそれぞれについて、特徴点の位置から重心Ga,Gbを計算する。
次に、サブセットA側から2点を取り、点1A、点2Aとする。点1A、点2Aに対応するサブセットB内の点を点1B、点2Bとする。重心Ga―>点1Aに対する点2Aの左右の位置と、重心Gb―>点1Bに対する点2Bの左右の位置が同じかを調べる。これを全ての2点の組み合わせで調べ、一致している個数の全体に対する割合を計算する。この割合が予め設定してあった閾値以上であれば、位置関係が保存されていると判定する。つまりその候補画像は、ノイズチェックもパスしたことになる。
k=Kであれば(ステップS110でYes),位置関係保存のチェックにパスした原画像があるか否かを判定する(ステップS112)。パスした原画像があれば(ステップS112でYes),i個の原画像の中でステップS108における一致率が最も高いものを当たり画像とする(ステップS113)。
パスした原画像が一つもなければ(ステップS112でNo)、当たり画像はないとみなしてもよいが、次のようにユーザに当たり画像を提示してもよい(ステップS114)。すなわち、K個の中から予め定めてある上限値K2までを当たり画像と見なす(K>K2>=1)。K2個選ぶ基準については予めルールを決めておく。ステップS103で得られた点数を重視するか、あるいはステップS108で得られた一致率を重視するかなどである。
携帯端末1は、 サーバ2から受信した情報にもとづいて、撮影画像に関連する情報の提供を受ける(ステップS6)。例えば、提供を受けた情報がURLであれば、このURLに基づいてWebサーバ3にアクセスしてWebページを取得して画面に表示させる。
このように本システムは、携帯端末のカメラで撮影した画像について、関連する情報をその場で取得し表示させることができるので、ビジネス、教育、娯楽などさまざまな場面で活用することが期待される。
以下、本発明の第2の実施の形態のシステムについて説明する。
このシステムは第1の実施の形態と比べ、携帯端末において画像の撮影、特徴点の抽出、登録済原画像の特徴点との照合、当たり画像のID取り出しまでを行い、サーバには当たり画像に関する情報の問い合わせのみを行う点で第1の実施形態と相違する。
以下、図面を参照しながら主に第1の実施形態との相違点を説明する。図中、第1の実施形態と機能が同じものには同一の符号を付する。
本システムは、図5に示すように、ユーザが使用する携帯端末101と画像検索を利用した情報提供サービスを行うサーバ102と、適宜外部のWebサーバ3とから構成され、それぞれがインターネットNなどの通信ネットワークを介して接続している。
携帯端末101は、入力手段4と、出力手段5と、撮像手段6と、記憶手段103と、処理手段104と、図示しない通信インターフェース手段を有する。
原画像情報記憶手段105には、原画像特徴点データベース(以下、「特徴点DB」)106が含まれる。特徴点DB106については後で説明する。
特徴点抽出手段107は、撮像手段6によって画面5上に映し出された撮影画像から、特徴点を抽出する。
特徴点照合手段108は、撮影画像から抽出した特徴点を、予め特徴点DB106に登録された原画像の特徴点と照合し、最も近い特徴点を最も多く持つ原画像を当たり画像とする。
当たり画像情報取得手段109は、当たり画像に関する情報をサーバ102に要求し、受信する。
画像関連情報取得手段110は、サーバ102から送信された情報に基づいて、自分が撮影した画像に関連する情報にアクセスする手段である。例えば、サーバ102からURLが送信されたならば、そのURLに基づいて該当するWebサーバ3にアクセスし、取得したWebページを画面5に表示させる。
処理手段112には、携帯端末101から要求された当たり画像に関する情報を送信する当たり画像情報送信手段114を有する。
アプリとともに、原画像の特徴点を格納した特徴点DB106を記憶手段103に格納しておく(ステップS201)。特徴点DB106の格納は、ステップS202以降の処理とは独立に行われ、アプリの実装時に行われるとともに、適宜更新も可能である。このように、予め特徴点集合を準備しているので、リアルタイムに特徴点の照合が行える。
ただし原画像の個数は、携帯端末101のメモリ容量およびCPUの能力を考慮すると、50〜60個くらいが適当である。
この実施形態では、第1の実施形態と異なりインデックスDBは予め作成しない。原画像の個数も50個程度と少ないことから、撮影画像の特徴点と照合する際、原画像の特徴点データを読み込んだ時にインデックスを作成してメモリ上に持つようにする。
撮影画像の特徴点と登録された原画像の特徴点と照合する(ステップS203)。
各特徴点に対して、最も近い特徴点を多数持つ原画像データを候補画像として抽出した後、各候補画像について位置関係保存の判定を行い、当たり画像を決定する(ステップS204)のは、第1の実施形態と同様である。
サーバ102は受信したIDに応じた当たり画像の情報を原画像関連情報記憶手段113から取り出して送信する(ステップS206)。
サーバ102から受信した当たり画像の情報に応じて、コンテンツを表示する(ステップS207)。
普通、営業担当者は商品情報を載せたパンフレットを客先に持参するが、このパンフレットは客によって変わる。そうでなければ分厚いカタログになってしまう。また時間と共に変化する(値段、在庫の有無、情報用サイトのURLなど)。その度に新しいパンフレットを作成するわけにはいかない。そこで本発明を活用することになる。
先ずその客に関連のありそうな商品(50個程度)を撮影して特徴点DB106を作成し、自分の携帯端末101に格納する。もちろん作成済みのものをそのまま利用してもよいし、
作成済みのものをコンパクト化してもよい。あるいは臨機応変に客先を訪問する直前に作成してもよい。このように本願発明のシステムを携帯端末に実装すると、極めてハンディーな営業支援ツールとなるのである。なお原画像を撮影する際は後の画像照合を考慮して、通常の画像・縮小画像・拡大画像の3種類を撮る。更に印刷してその客向けの当座のパンフレットを作成してもよい。商品のパンフレットを原画像にするのは、それが最も変化しにくいからである(パンフレットの更新は、新モデルが追加された時ぐらいで頻繁にはないと考えられる)。関連情報(例:WebサイトのURL)の変化などはパンフレットと無関係に自分の携帯端末だけで吸収しておけばよい。
営業担当者はそのパンフレットと携帯端末を客先に持参する。客先でパンフレットの説明をする際、そのパンフレットの上で携帯端末101のカメラレンズをかざすようにして撮影する。携帯端末101の処理手段104は特徴点の抽出および格納済の特徴点との照合を行い、撮影されたパンフレットはどれかを認識する。認識されたパンフレットに関連するさらに詳しい情報を画面に表示する。
このようにすれば、営業担当者は携帯端末101とせいぜい50商品程度のパンフレットしか持参しなくても、客先で適切かつ詳細な説明をしたり、客の質問に答えたりすることが可能となる。
ここでは、図7の左側に示すような順で出現する静止画像F1、F2、F3及びF4を含む動画像を例に説明する。動画像の場合は、特徴点DB106には各静止画像の特徴点データを格納する。特徴点DB106にはこれら4画像の特徴点データが格納されるとともに、各画像には一意の画像ID(あるいはhash文字列)が対応づけられている。なお、特徴点DB106には静止画像か動画像かを区別する情報は設定されていない。携帯端末101の撮像手段6をこの動画像にかざすと静止画像F1〜F4のそれぞれと同一でなくとも類似した静止画像U1〜U4を取得でき、これら静止画像から抽出した特徴点を特徴点DB106中の特徴点データと照合する。その結果、当たり画像としてF1→F2→F3→F4の順で抽出される。携帯端末101は、サーバ102にこれらの当たり画像の画像IDを送信する。
サーバ102は、図8にデータ格納例を示すような原画像関連情報記憶手段113を参照してF1〜F4に対応する動画像の関連情報を抽出し、携帯端末101に送信する。
図8に示すように携帯端末101の画面には動画像(D1)が表示されていたが、サーバ102から関連情報を受信すると、画面表示を関連情報(D2)に変更する。携帯端末101は画面表示されたURLをもとにWebサーバ3にアクセスなどして当該動画像と関連ある情報を収集することができる。
なお、図8で画像ID欄に1個のIDが登録されているのは原画像が静止画像の場合である。携帯端末101における特徴点抽出と特徴点照合の各処理では撮影画像が静止画像か動画像かは区別せず、サーバ102側で受信した画像IDによって静止画像か動画像かが区別できる。
また、第2の実施形態では、当たり画像に関連する情報をサーバに問い合わせているが、携帯端末に原画像に対応付けて関連情報も格納しておき、当たり画像が見つかれば、この関連情報を参照して画面表示してもよい。
さらに、本願発明の動画検索機能を、例えば現在放送中のテレビ番組を特定するために用いることも可能である。サーバ側で各テレビ局の番組の画像から逐次特徴点を抽出しキューに格納する。一方、あるテレビ番組を見ているユーザは携帯端末のカメラ機能で撮影して特徴点を抽出し、サーバに送信する。サーバは受信した特徴点をキューに格納済の特徴点データと照合し、どのテレビ局が現在放送している番組であるかを特定する。このテレビ番組を特定する機能は、視聴率の推定をはじめ種々の分野での利用が考えうる。
4:入力手段、5:出力手段6:撮像手段、7:記憶手段、8:処理手段、
9:特徴点抽出手段、10:画像検索要求送信手段、11:画像検索結果受信手段、
12:画像関連情報取得手段、13:記憶手段、14:処理手段、
15:原画像情報記憶手段、
16:原画像特徴点データベース(特徴点DB)、
17:特徴点インデックスデータベース(インデックスDB)、
18:原画像関連情報データベース(関連情報DB)、
19:特徴点作成手段、20:検索キー受信手段、21:特徴点照合手段、
22:当たり画像情報送信手段
101:携帯端末、102:サーバ、103:記憶手段、104:処理手段、
105:原画像情報記憶手段、106:原画像特徴点データベース(特徴点DB)、
107:特徴点抽出手段、108:特徴点照合手段、109:当たり画像情報取得手段、110:画像関連情報取得手段、111:記憶手段、112:処理手段、
113:原画像関連情報記憶手段、114:当たり画像情報送信手段、
N:インターネット
Claims (2)
- ユーザの入力を受け付ける入力手段と、
撮像手段により得られた静止画像又は動画像(以下、「撮影画像」)を表示する出力手段と、
表示された撮影画像の特徴点を抽出する特徴点抽出手段と、
予め収集されている画像群の特徴点が格納されている原画像特徴点データベースと、
前記抽出された撮影画像の特徴点と前記原画像特徴点データベースから取り出した特徴点と照合し、条件に合う画像(以下、「当たり画像」)を特定する情報を取り出す特徴点照合手段と、
当たり画像を特定する情報に基づいて、その当たり画像に関連する情報を取得する画像関連情報取得手段と、を備え、
前記特徴点抽出手段は、動画像を特徴点抽出対象とする場合、複数枚の静止画像をとり、各静止画像の特徴点を抽出し、一連の静止画像の特徴点を集めて動画像の特徴点とする、ことを特徴とする画像検索システム。 - サーバと携帯端末が通信ネットワークを介して接続され、
前記携帯端末は、
ユーザの入力を受け付ける入力手段と、
撮像手段により得られた撮影画像を表示する出力手段と、
表示された撮影画像の特徴点を抽出する特徴点抽出手段と、
抽出された撮影画像の特徴点を前記サーバに送信して当たり画像の特定を要求する画像検索要求送信手段と、
検索結果を受信する画像検索結果受信手段と
当たり画像を特定する情報に基づいて、関連情報を取得する画像関連情報取得手段と、
を備え、前記特徴点抽出手段は、動画像を特徴点抽出対象とする場合、複数枚の静止画像をとり、各静止画像の特徴点を抽出し、一連の静止画像の特徴点を集めて動画像の特徴点とするとともに、
前記サーバは、
原画像の特徴点が格納されている原画像特徴点データベースと、
前記携帯端末から受信した特徴点と前記原画像特徴点データベースから取り出した特徴点とを照合し、当たり画像を特定する情報を取り出す特徴点照合手段と、
を備えることを特徴とする画像検索システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012095036A JP5946315B2 (ja) | 2012-04-18 | 2012-04-18 | 画像検索システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012095036A JP5946315B2 (ja) | 2012-04-18 | 2012-04-18 | 画像検索システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013222406A JP2013222406A (ja) | 2013-10-28 |
JP5946315B2 true JP5946315B2 (ja) | 2016-07-06 |
Family
ID=49593299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012095036A Active JP5946315B2 (ja) | 2012-04-18 | 2012-04-18 | 画像検索システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5946315B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015178014A1 (ja) * | 2014-05-23 | 2015-11-26 | 株式会社スプリックス | 学習支援システム、学習支援サーバ、学習支援方法、及び学習支援プログラム |
KR101531530B1 (ko) * | 2014-12-31 | 2015-06-25 | (주)스타넥스 | 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치 |
JP6514632B2 (ja) * | 2015-12-22 | 2019-05-15 | Kddi株式会社 | 情報処理システム、情報処理方法、情報処理装置、サーバ及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4413633B2 (ja) * | 2004-01-29 | 2010-02-10 | 株式会社ゼータ・ブリッジ | 情報検索システム、情報検索方法、情報検索装置、情報検索プログラム、画像認識装置、画像認識方法および画像認識プログラム、ならびに、販売システム |
CN101010693A (zh) * | 2005-06-30 | 2007-08-01 | 奥林巴斯株式会社 | 检索系统及检索方法 |
US7764849B2 (en) * | 2006-07-31 | 2010-07-27 | Microsoft Corporation | User interface for navigating through images |
JP4988408B2 (ja) * | 2007-04-09 | 2012-08-01 | 株式会社デンソー | 画像認識装置 |
JP5249088B2 (ja) * | 2009-03-03 | 2013-07-31 | Kddi株式会社 | 画像検索システム |
JP2010205121A (ja) * | 2009-03-05 | 2010-09-16 | Sony Ericsson Mobile Communications Ab | 情報処理装置および携帯端末 |
-
2012
- 2012-04-18 JP JP2012095036A patent/JP5946315B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013222406A (ja) | 2013-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10891671B2 (en) | Image recognition result culling | |
CN106462728B (zh) | 用于基于图像特征的识别的系统和方法 | |
US12038977B2 (en) | Visual recognition using user tap locations | |
US9076069B2 (en) | Registering metadata apparatus | |
CN109871815B (zh) | 一种查询监控信息的方法及装置 | |
WO2017000109A1 (zh) | 搜索方法、搜索装置、用户设备和计算机程序产品 | |
US8805123B2 (en) | System and method for video recognition based on visual image matching | |
JP5395920B2 (ja) | 検索装置、検索方法、検索プログラム、及びそのプログラムを記憶するコンピュータ読取可能な記録媒体 | |
WO2013159722A1 (en) | Systems and methods for obtaining information based on an image | |
JP2008090838A (ja) | 画像取込及び識別のためのシステム及び方法 | |
US20140223319A1 (en) | System, apparatus and method for providing content based on visual search | |
JP5808371B2 (ja) | 画像認識装置、画像認識方法及び画像認識プログラム | |
US11275780B2 (en) | Image search device, image search method, electronic device and control method therefor | |
US20160267186A1 (en) | Apparatus and method for determining user attention using a deep-content-classification (dcc) system | |
JP5946315B2 (ja) | 画像検索システム | |
CN110263830B (zh) | 图像处理方法、装置和系统及存储介质 | |
WO2022140879A1 (zh) | 一种身份识别方法、终端、服务器及系统 | |
US20180189602A1 (en) | Method of and system for determining and selecting media representing event diversity | |
KR20200023095A (ko) | 상품 정보 관리 방법 및 이를 지원하는 서비스 장치 | |
Çalışır et al. | Mobile multi-view object image search | |
JP6420162B2 (ja) | 画像検索装置、画像検索方法および画像検索プログラム | |
KR20200024540A (ko) | 이미지 검색을 위한 요약 정보 제공 방법 및 이를 지원하는 서비스 장치 | |
JP2020035086A (ja) | 情報処理システム、情報処理装置およびプログラム | |
JP5967036B2 (ja) | 画像検索システム、情報処理装置及びプログラム | |
Lin et al. | Smartphone landmark image retrieval based on Lucene and GPS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5946315 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |