JP6179592B2 - 画像認識装置、その処理方法、およびプログラム - Google Patents
画像認識装置、その処理方法、およびプログラム Download PDFInfo
- Publication number
- JP6179592B2 JP6179592B2 JP2015519809A JP2015519809A JP6179592B2 JP 6179592 B2 JP6179592 B2 JP 6179592B2 JP 2015519809 A JP2015519809 A JP 2015519809A JP 2015519809 A JP2015519809 A JP 2015519809A JP 6179592 B2 JP6179592 B2 JP 6179592B2
- Authority
- JP
- Japan
- Prior art keywords
- target object
- image recognition
- processing
- detection target
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 35
- 238000012545 processing Methods 0.000 claims description 437
- 238000001514 detection method Methods 0.000 claims description 319
- 238000000034 method Methods 0.000 claims description 133
- 230000008569 process Effects 0.000 claims description 98
- 239000003550 marker Substances 0.000 claims description 82
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 40
- 238000003384 imaging method Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000013566 allergen Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- 241000556720 Manga Species 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 208000026935 allergic disease Diseases 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
Description
たとえば、レストランのメニューや、カタログ通販で利用されるカタログ掲載アイテムを認識させる場合に、対象アイテムの写真が小さかったり、ほとんど模様のない真っ白なアイテムだったり、写真すらなく、文字列でリスト表示されるだけだったりすることがあり、そのため、そのアイテムの撮影画像や、登録画像から、認識精度を保つのに十分な量の特徴情報を取得できず、一部のアイテムが認識困難になってしまうという課題があった。
検出対象オブジェクトの撮影画像における位置を画像認識により特定するオブジェクト特定手段と、
前記検出対象オブジェクトと、前記撮影画像に含まれていて商品またはサービスを示す処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、特定された前記位置に対応する処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する処理手段と、を備え、
前記検出対象オブジェクトは、前記処理対象オブジェクトの一部を含む。
画像認識装置が、
検出対象オブジェクトの撮影画像における位置を画像認識により特定し、
前記検出対象オブジェクトと、前記撮影画像に含まれていて商品またはサービスを示す処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、特定された前記位置に対応する処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行し、
前記検出対象オブジェクトは、前記処理対象オブジェクトの一部を含む処理方法である。
検出対象オブジェクトの撮影画像における位置を画像認識により特定する手順、
前記検出対象オブジェクトと、前記撮影画像に含まれていて商品またはサービスを示す処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、特定された前記位置に対応する処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する手順、をコンピュータに実行させるためのプログラムであり、
前記検出対象オブジェクトは、前記処理対象オブジェクトの一部を含む。
図1は、本発明の実施の形態に係る画像認識装置を用いたシステムの一例として、通信販売システム1の構成例を示すブロック図である。
本実施形態の通信販売システム1は、ユーザが利用する携帯端末であるスマートフォン10と、スマートフォン10とネットワーク3を介して通信可能なサーバ装置60と、サーバ装置60に接続されるデータベース50(図中、「DB」と示す)と、を備える。
本発明の実施の形態に係る画像認識装置100は、撮影対象内に、処理対象オブジェクトに応じて所定の配置で設定され、かつ、処理対象オブジェクトに応じた特徴を有する検出対象オブジェクトの、撮影画像内での位置を、画像認識により、特定するオブジェクト特定部102と、撮影対象内の検出対象オブジェクトの位置情報と、撮影対象に応じて所定の配置で設定され、かつ、撮影対象に応じた特徴を有する処理対象オブジェクトとを関連付けるブジェクト位置データに基づいて、オブジェクト特定部102により特定された検出対象オブジェクトの撮影画像内での位置から、関連する撮影画像内の処理対象オブジェクトを特定し、特定された処理対象オブジェクトに割り当てられた処理を実行する処理部104と、を備える。
撮影対象とは、ユーザ等が、スマートフォン10等の端末を用いて撮影しようとする対象である。上述したように撮影対象は、たとえば、通販カタログ等の冊子の紙面等である。撮影対象には、ユーザが撮影対象を見て認知する対象が含まれていて、たとえば、カタログに掲載されている商品等が認知対象にあたる。
ここで、撮影対象の一部分を撮影した撮影画像の場合、検出対象オブジェクトの撮影画像内の位置から特定できる処理対象オブジェクトのうち、撮影対象に含まれるが、撮影画像には含まれない処理対象オブジェクトも特定できてもよい。なお、オブジェクト位置データは、検出対象オブジェクトと処理対象オブジェクトとの対応関係を示す紐付け情報を少なくとも含んでいればよい。検出対象オブジェクトと処理対象オブジェクトとの対応関係は、1対1、1対複数、複数対1、および複数対複数の少なくとも一つの関係を有する。
本発明の実施の形態の画像認識装置は、特に、複数の処理対象オブジェクトが並んで配置されているような撮影対象を、少なくとも一部分ずつカメラの向きや位置を変えながら撮影する。そして、スマートフォン10のような携帯サイズの画面をユーザが順次閲覧しながら、処理対象オブジェクトを画像認識のために撮影する。本発明では、ユーザが認知して撮影しているのは、処理対象オブジェクトであるが、画像認識装置100が画像認識により認識するのは検出対象オブジェクトとなる。そして、画像認識装置100は、検出対象オブジェクトが認識できたとき、あたかも、処理対象オブジェクトが認識できたかのように、たとえば、処理対象オブジェクトにマーカを付けて表示する等して、ユーザに通知する。そして、画像認識装置100により特定された処理対象オブジェクトに対応する情報を処理対象オブジェクトと関連付けてスマートフォン10のタッチパネル上に表示したり、スマートフォン10のタッチパネル上で注文等の操作を受け付けたりできる。
本実施形態のサーバ装置60は、データベース50(図1)に接続されるサーバコンピュータやパーソナルコンピュータ、またはそれらに相当する装置により実現することができる。また、仮想サーバなどにより構成されてもよい。
たとえば、本実施形態のスマートフォン10の場合、映像データのサイズは、スマートフォン10の携帯端末サイズの画面に表示されるサイズとなる。
図20(a)に示すように、オブジェクト位置データ118は、一例として、撮影対象内の検出対象オブジェクトIDと、その位置情報(または検出対象オブジェクトに含まれる複数の特徴点の位置)と、検出対象オブジェクトに対応付けられた処理対象オブジェクトIDと、検出対象オブジェクトと処理対象オブジェクトの相対位置(または、検出対象オブジェクトに含まれる複数の特徴点の位置と処理対象オブジェクトとの相対位置)とを対応付けて保持することができる。
(a1)撮影対象内の少なくとも一つの検出対象オブジェクトに対応する画像領域の絶対位置(たとえば、画像領域の所定の位置(重心、中心、端点等)座標等で)を示す情報
(a2)撮影対象内の検出対象オブジェクトに対応する画像領域内に含まれる複数の特徴点の、撮影対象内の絶対位置を(たとえば、座標等で)示す情報
(a3)撮影対象内の複数の検出対象オブジェクトに対応する画像領域同士の相対位置を(たとえば、特徴量と位置関係を示すベクトル量等で)示す情報
(a3)では、たとえば、上記検出対象オブジェクトに対応する画像領域R1およびR2の重心の座標(x1,y1)および(x2,y2)を結ぶ直線の向きと長さを示すベクトルで、画像領域R1およびR2の重心の相対位置を互いに示してもよい。さらに、画像領域R1およびR2の特徴量をそれぞれベクトルに含めてもよい。
(b1)撮影対象内の処理対象オブジェクトの画像領域の絶対位置を(たとえば、画像領域の所定の位置(重心、中心、端点等)座標等で)示す情報
(b2)処理対応オブジェクトに割り当てられた処理を実行する、撮影対象内または撮影画像内の位置を(たとえば、座標等で)示す情報
(b3)撮影対象内の複数の処理対象オブジェクトの画像領域同士の相対位置を(たとえば、特徴量と位置関係を示すベクトル量等で)示す情報
なお、検出対象オブジェクト(または、その画像領域に含まれる複数の特徴点)に一つまたは複数のマーカ(の表示位置)が対応付けられる場合、上述した検出対象オブジェクトの位置を示すいずれかの位置情報と、対応するマーカの表示位置との相対位置をオブジェクト位置データ118に含むことができる。
なお、検出対象オブジェクトまたはマーカ表示位置(処理を実行する位置)は、互いの相対位置以外に、撮影範囲が予め特定可能な場合には、所定の撮影範囲内における配置として保持してもよい。
マーカの情報として、マーカの種類(マーク、テキスト、枠、吹き出し、アイコン、ポップアップウインドウ、操作メニュー、置き換え画像、画像処理等)、表示形式(点滅、3D、ズーム、色替え、アニメーション等)、形状、サイズ、色、柄等のマーカの属性に関する情報をマーカIDまたは画像IDに対応付けてデータベース50に保持することができる。あるいは、特定された処理対象オブジェクトのみをクローズアップするように、特定された処理対象オブジェクト以外をマスクして、特定された処理対象オブジェクトのみをユーザが注視できるようにしてもよい。
さらに、処理対象オブジェクトに対応する処理の付加情報として、マーカである吹き出しや操作メニューに表示されるコンテンツや操作などの情報を、処理対象オブジェクト(商品ID、または画像ID等)、または、処理(マーカID等)に対応付けてデータベース50に保持してもよい。
本実施形態において、処理部104は、撮影画像から複数の処理対象オブジェクトを特定し、複数の処理対象オブジェクトに対応する複数のマーカを同時にスマートフォン10の画面上に表示できることが望ましい。
画像認識装置100の処理部104が、画像認識により撮影対象から抽出された所定の特徴量を有する領域に基づいて、データベース50を検索する。そして、データベース50に検出対象オブジェクトとして保持される処理対象オブジェクトの周囲も含めた領域内に含まれる特徴量と、少なくとも一部が一致する特徴量を有する撮影画像内の検出対象オブジェクトがあった場合、処理部104が、オブジェクト位置データに基づき、撮影画像内の検出対象オブジェクトの特徴量を有する画像領域の位置から、相対位置にある、処理対象オブジェクトを特定する。そして、処理部104が、特定された処理対象オブジェクトに割り当てられた処理、たとえば、マーカ表示処理を行うためのマーカの表示位置を取得することができる。そして、処理部104は、取得した表示位置に、処理対象オブジェクトに対応するマーカを表示する。
たとえば、処理対象オブジェクトの特徴量が少ない場合について説明する。図7(a)に示すように、処理対象オブジェクト130において、所定の特徴量を有する特徴点がa1のみの場合、処理対象オブジェクト130の認識精度が低下することが考えられる。また、処理対象オブジェクト130のサイズが小さい場合にも、特徴量が少ない、または特徴点がない等の理由で、認識が困難になることが考えられる。そこで、本実施形態では、処理対象オブジェクト130の周囲も含めた領域132まで、処理対象オブジェクト130に対応付ける検出対象オブジェクトの領域の範囲を広げる。検出対象オブジェクトとしての領域132は、認識精度が所定以上となる特徴量を有するように決めるのが望ましい。
本実施形態において、データベース50は、処理対象オブジェクトの周囲も含めた領域内に含まれる特徴点、およびその相対位置(撮影対象(撮影画像)内の検出対象オブジェクトの情報)と、処理対象オブジェクトに対応するマーカの表示位置を予めオブジェクト位置データに保持する。
処理部104は、図7(c)に示すように、取得した表示位置138を基準として、処理対象オブジェクト130に対応するマーカ136を撮影範囲134内に表示する。
(a)撮影画像から一定の認識精度が得られる特徴量を有する領域を画像認識により抽出する機能
(b)撮像画像から抽出された領域の特徴情報を、データベース50の検出対象オブジェクトの特徴情報と照合する。そして、閾値以上、一致する検出対象オブジェクトがあったとき、撮影画像に検出対象オブジェクトが含まれることを認識する機能
(c)オブジェクト位置データに基づき、撮影画像に含まれると認識された検出対象オブジェクトの位置から、相対位置にある処理対象オブジェクトを特定する機能
(d)特定された処理対象オブジェクトに割り当てられた処理として、マーカ表示処理のためのマーカの表示位置を取得する機能
(e)取得した表示位置に、処理対象オブジェクトに対応するマーカを表示する機能
なお、上記(c)、(d)の代わりに、(b)で認識された検出対象オブジェクトの位置から、処理対象オブジェクトに割り当てられた処理を特定する機能としてもよい。すなわち、処理対象オブジェクトを特定せずに、処理だけ行ってもよい。
(1)全ての機能をスマートフォン10で実現する。
(2)機能(a)をスマートフォン10で実現し、結果をサーバ装置60に送信し、機能(b)〜(e)をサーバ装置60で実現する。
(3)機能(a)〜(b)をスマートフォン10で実現し、結果をサーバ装置60に送信し、機能(c)〜(e)をサーバ装置60で実現する。
(4)機能(a)〜(c)をスマートフォン10で実現し、結果をサーバ装置60に送信し、機能(d)〜(e)をサーバ装置60で実現する。
(5)機能(a)〜(d)をスマートフォン10で実現し、結果をサーバ装置60に送信し、機能(e)をサーバ装置60で実現する。
(6)全ての機能をサーバ装置60で実現する。
(7)機能(a)をサーバ装置60で実現し、抽出された領域をサーバ装置60から受信し、機能(b)〜(e)をスマートフォン10で実現する。
(8)少なくとも機能(b)をサーバ装置60で実現し、特定された検出対象オブジェクトをサーバ装置60から受信し、機能(c)と(e)をスマートフォン10で実現する。
(9)少なくとも機能(b)および(c)をサーバ装置60で実現し、特定された処理対象オブジェクトをサーバ装置60から受信し、機能(d)と(e)をスマートフォン10で実現する。
(10)少なくとも機能(d)をサーバ装置60で実現し、マーカ表示位置をサーバ装置60から受信し、機能(e)をスマートフォン10で実現する。
画像認識装置100は、処理部104が表示した処理対象オブジェクトに対応するマーカのユーザインタフェース機能を用いたユーザの操作を受け付ける受付部をさらに備えてもよい。
本実施形態のコンピュータプログラムは、画像認識装置100を実現させるためのコンピュータに、撮影対象内に、処理対象オブジェクトに応じて所定の配置で設定され、かつ、処理対象オブジェクトに応じた特徴を有する検出対象オブジェクトの、撮影画像内での位置を、画像認識により、特定する手順、撮影対象内の検出対象オブジェクトと、撮影対象に応じて所定の配置で設定され、かつ、撮影対象に応じた特徴を有する処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、特定された検出対象オブジェクトの撮影画像内での位置から、その相対位置にある、撮影画像内の処理対象オブジェクトを特定し、特定された処理対象オブジェクトに割り当てられた処理を実行する手順、を実行させるように記述されている。
したがって、上記処理を実行する手順に替えて、たとえば、本発明のコンピュータプログラムは、コンピュータに、撮影対象内の検出対象オブジェクトの位置情報と、撮影対象に応じて所定の配置で設定され、かつ、撮影対象に応じた特徴を有する処理対象オブジェクトとを関連付けるオブジェクト位置データに基づいて、特定された検出対象オブジェクトの撮影画像内での位置から、関連する撮影画像内の前記処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行するように記述されてもよい。
本発明の実施の形態に係る画像認識装置100の処理方法は、画像認識装置100が、撮影対象内に、処理対象オブジェクトに応じて所定の配置で設定され、かつ、処理対象オブジェクトに応じた特徴を有する検出対象オブジェクトの、撮影画像内での位置を、画像認識により、特定し(ステップS11)、撮影対象内の検出対象オブジェクトと、撮影対象に応じて所定の配置で設定され、かつ、撮影対象に応じた特徴を有する処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、特定された検出対象オブジェクトの撮影画像内での位置から、その相対位置にある、撮影画像内の処理対象オブジェクトを特定し(ステップS13)、特定された処理対象オブジェクトに割り当てられた処理を実行する(ステップS15)。
本発明の実施の形態に係る画像認識装置は、上記実施形態の画像認識装置100とは、撮影対象内において、認識しやすい領域を検出対象オブジェクトとして用いる点で相違する。本実施形態の画像認識装置は、図3の上記実施形態の画像認識装置100と同様な構成を有するので、以下、図3を用いて説明する。本実施形態は、上記実施形態とは、データベース50に保持される検出対象オブジェクトが異なる。
処理対象オブジェクトとしてたとえば、4つの画像が隣接しているとする。各画像の特徴点は複数存在する。たとえば、図10(a)に示すように、マーカ136Aで示される処理対象オブジェクトに対応する特徴点は、a11〜a13である。マーカ136Bで示される処理対象オブジェクトに対応する特徴点は、b1〜b3である。マーカ136Cで示される処理対象オブジェクトに対応する特徴点は、c1〜c4である。マーカ136Dで示される処理対象オブジェクトに対応する特徴点は、d1〜d3である。
ここで、領域142は、特徴量が閾値以上、または尤度が閾値以上の特徴点を含む領域である。
本実施形態の画像認識装置100において、オブジェクト特定部102が、認識用の領域142内の少なくとも一部の特徴情報を、画像認識により抽出する。そして、オブジェクト特定部102が、画像認識により抽出された特徴情報に基づいて、データベース50を検索する。そして、オブジェクト特定部102が、撮影画像内の特徴情報が閾値以上一致する特徴情報を有する検出対象オブジェクトをデータベース50内に見つけたとき、その検出対象オブジェクトを特定する。そして、処理部104が、オブジェクト位置データに基づき、その検出対象オブジェクトの位置から、相対位置にある、処理対象オブジェクトを特定する。そして、処理部104が、特定された処理対象オブジェクトに割り当てられたマーカ表示処理のための表示位置を取得する。そして、処理部104、取得した表示位置に、処理対象オブジェクトに対応するマーカを表示する。
複数の処理対象オブジェクトに対応する検出対象オブジェクトとして、共通の領域の特徴情報を用いることができるので、処理対象オブジェクト毎に画像の特徴情報をデータベース50に保持する場合に比較して、必要な記憶容量をさらに削減することができる。
本発明の実施の形態に係る画像認識装置は、上記実施形態の画像認識装置100とは、画像内で隣接する複数の処理対象オブジェクトを含む領域を、検出対象オブジェクトとして用いる点で相違する。本実施形態の画像認識装置は、図3の上記実施形態の画像認識装置100と同様な構成を有するので、以下、図3を用いて説明する。本実施形態は、上記実施形態とは、データベース50に保持される検出対象オブジェクトが異なる。
さらに、本発明の実施の形態に係る画像認識装置において、検出対象オブジェクトは、複数の処理対象オブジェクト(の相対位置)に紐付けられる。
本実施形態の画像認識装置100において、オブジェクト特定部102が、データベース50を検索し、撮影画像から画像認識により抽出された、一定の認識精度が得られる特徴量を有する領域の特徴情報と少なくとも一部が一致する検出対象オブジェクトを見つける。そして、処理部104が、撮影対象内で隣接する複数の処理対象オブジェクト(図では、ソファ、コーヒーテーブル、チェアの3点)を含む隣接対象物領域242内に含まれる検出対象オブジェクト(たとえば、複数の特徴点、およびその相対位置)と、処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づき、見つかった検出対象オブジェクトの位置から、相対位置にある、処理対象オブジェクトを特定する。そして、処理部104が、特定された処理対象オブジェクトに割り当てられたマーカ表示処理のためのマーカの表示位置を取得する。そして、処理部104が、取得した表示位置に、処理対象オブジェクトに対応するマーカ230A〜230Cを表示する。
本発明の実施の形態に係る画像認識装置は、上記実施形態の画像認識装置100とは、撮影対象内に認識用に埋め込まれた検出対象オブジェクトを用いる点で相違する。本実施形態の画像認識装置は、図3の上記実施形態の画像認識装置100と同様な構成を有するので、以下、図3を用いて説明する。本実施形態は、上記実施形態とは、データベース50に保持される検出対象オブジェクトが異なる。
本実施形態の画像認識装置100において、オブジェクト特定部102が、データベース50を検索し、画像認識により抽出された、一定の認識精度が得られる特徴量を有する領域と少なくとも一部が一致する検出対象オブジェクトを見つける。そして、処理部104が、撮像部による撮影画面内に、少なくとも一部が含まれるように、撮影対象内に予め埋め込まれた認識用の検出対象オブジェクトと、処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づき、見つかった検出対象オブジェクトの位置から、相対位置にある処理対象オブジェクトを特定する。そして、処理部104が、特定された処理対象オブジェクトに割り当てられたマーカ表示処理のためのマーカの表示位置を取得する。そして、処理部104が、取得した表示位置に、処理対象オブジェクトに対応するマーカを表示する。
本発明の実施の形態に係る画像認識装置は、上記実施形態の画像認識装置100とは、撮影対象内に複数の検出対象オブジェクトをある程度万遍なく配置されるように複数設定し、それらの検出対象オブジェクトとの相対位置によって撮影対象内に含まれる全ての処理対象オブジェクトを特定可能にする点で相違する。本実施形態の画像認識装置は、図3の上記実施形態の画像認識装置100と同様な構成を有するので、以下、図3を用いて説明する。本実施形態は、上記実施形態とは、データベース50に保持される検出対象オブジェクトが異なる。
本実施形態の画像認識装置100において、オブジェクト特定部102が、画像の少なくとも一部分を撮像部により撮影した撮影画面内に、一定の認識精度が得られる特徴量を有する領域が少なくとも一部含まれるように選択された領域を検出対象オブジェクトとして設定して保持するデータベース50を検索する。
図17に示すように、撮影対象(カタログ7)内に複数の処理対象オブジェクト140A、140B、140C、140D、260A、260B、260C、420A、420B、420Cが含まれている時、撮影対象内に複数の検出対象オブジェクト410A、410B、410C、410D、410E、410Fが配置される。このように、撮影対象の中に、検出対象オブジェクトは万遍なく配置される。
また、上記実施形態で説明した認識用の検出対象オブジェクトを、同様に、撮影対象内に万遍なく配置することができる。
本発明の実施の形態に係る画像認識装置は、上記実施形態の画像認識装置100とは、認識対象内のゆがみやすい部分など認識条件が悪化しやすい個所に検出対象オブジェクトを設定しない点で相違する。たとえば、撮影対象が冊子の場合に、綴じ部周辺の湾曲部分(ノド部領域)を除外した領域に検出対象オブジェクトを設定する。
本実施形態の画像認識装置は、図3の上記実施形態の画像認識装置100と同様な構成を有するので、以下、図3を用いて説明する。本実施形態は、上記実施形態とは、データベース50に保持される検出対象オブジェクトが異なる。
図14は、本発明の実施の形態に係る画像認識装置100における検出対象オブジェクトの分布範囲を説明するための図である。
そこで、本実施形態では、冊子250の紙面全体に存在している複数の領域のうち、綴じ部252の周辺のノド部領域254は除外して少なくとも一つの検出対象オブジェクトを設定する。
本発明の実施の形態に係る画像認識装置は、上記実施形態の画像認識装置100とは、複数の処理対象オブジェクトをリスト形式で示した画像の処理対象オブジェクトを個別に特定する点で相違する。
本実施形態の画像認識装置は、図3の上記実施形態の画像認識装置100と同様な構成を有するので、以下、図3を用いて説明する。本実施形態は、上記実施形態とは、データベース50に保持される検出対象オブジェクトが異なる。
図15に示すように、本実施形態の画像認識装置において、画像310が、リスト形式で提示される複数の処理対象オブジェクト(複数の文字列を含む画像)320a、320b、および320cを含んでもよい。本実施形態では、検出対象オブジェクトは、たとえば、複数の処理対象オブジェクト320a、320b、および320cを含むリストの少なくとも一部を含む領域内の特徴情報(たとえば、特徴点と、その位置)とすることができる。あるいは、リスト以外の撮影対象内の領域の特徴情報を検出対象オブジェクトとしてもよい。
処理部104は、上述したように、複数の処理対象オブジェクト320a、320b、および320cを含むリストを含む撮影画像から、各処理対象オブジェクト320a、320b、および320cを特定し、特定した各処理対象オブジェクト320a、320b、および320cに対応する情報をデータベース50から取得する。
処理部104は、取得した各処理対象オブジェクト320a、320b、および320cに対応する情報に基づいて、各処理対象オブジェクト320a、320b、および320cに対する所定の操作を受け付けるためのユーザインタフェースをマーカの表示位置に表示する。
図16(a)は、ドラム型のユーザインタフェース330の例を示す。
処理部104が、複数の処理対象オブジェクト320a、320b、および320cを含む画像から、各文字列320a、320b、および320cを特定し、特定した各処理対象オブジェクト320a、320b、および320cに対応する情報をデータベース50から取得する。たとえば、各処理対象オブジェクトに対応する文字列の情報を取得し、処理部104が、取得した文字列を選択するためのユーザインタフェース330を、リストを含む画像310に重畳して表示する。
このように、本実施形態の画像認識装置によれば、一般的に認識が困難な、処理対象オブジェクトに含まれる複数の文字列などの各要素を、画像から抽出した一定の認識精度が得られる特徴量を有する領域の特徴情報に基づいて、それぞれ特定することが可能になる。
そして、画像認識装置では、たとえば、商品名のリストが提示されたチラシなどを撮影して、リスト中の商品名をユーザインタフェースで提示させることができる。これにより、一般的に操作が困難なリスト中の特定の商品の選択操作が容易になる。
たとえば、図16(a)のユーザインタフェース330において、各要素の選択は、タッチパネル上で、ドラムのスライダをタッチする操作を受け付けることで行ってもよい。または、スマートフォン10の本体を、ドラムの回転方向に前後に倒すことで、ドラムを回転させる操作を受け付けてもよい。
たとえば、撮影対象からスマートフォン10の撮像部30が遠ければ、検出対象オブジェクトは、撮影画像内に小さく写り込み、撮像部30が近ければ大きく写り込む。ここで、撮影画像内に写り込んだ検出対象オブジェクトとは、上述した電子透かしのように、ユーザには見えなくてもよい。その撮影距離に応じて、撮影画像内に写り込んだ検出対象オブジェクトも大きくなり、つまり、検出対象オブジェクトが写り込んだ大きさに応じて、処理対象オブジェクトに対する表示処理の位置とサイズが変化する。さらに、相対位置、またはサイズも変化する。
たとえば、検出対象オブジェクトが撮影画像内で小さく撮影されている場合、対応する処理対象オブジェクトが複数特定される可能性がある。一方、検出対象オブジェクトが撮影画像内で大きくクローズアップされて撮影されている場合は、特定の処理対象オブジェクトのみが特定される可能性がある。そこで、画像認識装置では、撮影画像内の検出対象オブジェクトが小さい場合は、特定された複数の処理対象オブジェクトのグループ毎の大まかな情報を表示する処理等、複数の処理対象オブジェクトをグループとして紐付けられた処理を行い、撮影画像内の検出対象オブジェクトが大きい場合は、特定の処理対象オブジェクトの詳細な情報を表示する処理を行う等、特定される処理対象オブジェクトのグループ属性等に基づいて、処理を変えて実行させてもよい。
なお、本発明においてユーザに関する情報を取得、利用する場合は、これを適法に行うものとする。
1. 画像認識装置が、
撮影対象内に、処理対象オブジェクトに応じて所定の配置で設定され、かつ、前記処理対象オブジェクトに応じた特徴を有する検出対象オブジェクトの、撮影画像内での位置を、画像認識により、特定し、
前記撮影対象内の前記検出対象オブジェクトと、前記撮影対象に応じて所定の配置で設定され、かつ、前記撮影対象に応じた特徴を有する処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、特定された前記検出対象オブジェクトの前記撮影画像内での前記位置から、その前記相対位置にある、前記撮影画像内の前記処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する画像認識装置の処理方法。
2. 画像認識装置が、
撮影対象内に、処理対象オブジェクトに応じて所定の配置で設定され、かつ、前記処理対象オブジェクトに応じた特徴を有する検出対象オブジェクトの、撮影画像内での位置を、画像認識により、特定し、
前記撮影対象内の前記検出対象オブジェクトの位置情報と、前記撮影対象に応じて所定の配置で設定され、かつ、前記撮影対象に応じた特徴を有する処理対象オブジェクトとを関連付けるオブジェクト位置データに基づいて、特定された前記検出対象オブジェクトの前記撮影画像内での位置から、関連する前記撮影画像内の前記処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する画像認識装置の処理方法。
3. 1.または2.に記載の画像認識装置の処理方法において、
前記検出対象オブジェクトは、前記処理対象オブジェクトに応じて、前記撮影対象内の、予め定められた検出しやすい領域を含む画像認識装置の処理方法。
4. 1.乃至3.いずれかに記載の画像認識装置の処理方法において、
前記検出対象オブジェクトは、前記処理対象オブジェクトの周囲を含む領域を、少なくとも一部含む画像認識装置の処理方法。
5. 1.乃至4.いずれかに記載の画像認識装置の処理方法において、
前記検出対象オブジェクトは、複数の前記処理対象オブジェクトに紐付けられる画像認識装置の処理方法。
6. 1.乃至5.いずれかに記載の画像認識装置の処理方法において、
前記検出対象オブジェクトは、少なくとも検出のための情報を含む画像認識装置の処理方法。
7. 1.乃至6.いずれかに記載の画像認識装置の処理方法において、
前記撮影対象が冊子であり、前記検出対象オブジェクトは、前記冊子の綴じ部周辺のノド部領域を除外した領域に含まれる画像認識装置の処理方法。
8. 1.乃至7.いずれかに記載の画像認識装置の処理方法において、
前記処理は、マーカ、吹き出し、メニューの表示、ユーザインタフェース機能の実現、および検出結果のサーバへの送信の少なくとも1つを含む画像認識装置の処理方法。
9. 8.に記載の画像認識装置の処理方法において、
前記処理は、複数の処理対象オブジェクトを選択的に処理可能にするユーザインタフェース機能を実現する処理を含む画像認識装置の処理方法。
10. 1.乃至9.いずれかに記載の画像認識装置の処理方法において、
前記画像認識装置が、
特定される前記検出対象オブジェクトと、当該検出対象オブジェクトから特定される前記処理対象オブジェクトとのスケールの差異に応じて、前記処理対象オブジェクトに割り当てられる処理を制御する画像認識装置の処理方法。
11. 1.乃至10.いずれかに記載の画像認識装置の処理方法において、
前記検出対象オブジェクトは、前記撮影画像内に少なくとも1つ含まれるように、前記撮影対象に配置される画像認識装置の処理方法。
12. 1.乃至11.いずれかに記載の画像認識装置の処理方法において、
前記オブジェクト位置データは、前記検出対象オブジェクトが有する複数の特徴点の前記撮影画像内での位置情報を、前記検出対象オブジェクトの位置を示す情報とし、
前記画像認識装置が、前記オブジェクト位置データに基づいて、特定された前記検出対象オブジェクトの前記複数の特徴点の前記撮影対象内の位置から、前記撮影対象内の前記処理対象オブジェクトを特定する画像認識装置の処理方法。
13. 1.乃至12.いずれかに記載の画像認識装置の処理方法において、
当該画像認識装置は、携帯端末、または、携帯端末と通信可能なサーバ装置、あるいは、それらの組み合わせである画像認識装置の処理方法。
前記撮影対象内の前記検出対象オブジェクトと、前記撮影対象に応じて所定の配置で設定され、かつ、前記撮影対象に応じた特徴を有する処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、特定された前記検出対象オブジェクトの前記撮影画像内での前記位置から、その前記相対位置にある、前記撮影画像内の前記処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する手順、をコンピュータに実行させるためのプログラム。
15. 撮影対象内に、処理対象オブジェクトに応じて所定の配置で設定され、かつ、前記処理対象オブジェクトに応じた特徴を有する検出対象オブジェクトの、撮影画像内での位置を、画像認識により、特定する手順、
前記撮影対象内の前記検出対象オブジェクトの位置情報と、前記撮影対象に応じて所定の配置で設定され、かつ、前記撮影対象に応じた特徴を有する処理対象オブジェクトとを関連付けるオブジェクト位置データに基づいて、特定された前記検出対象オブジェクトの前記撮影画像内での位置から、関連する前記撮影画像内の前記処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する手順、をコンピュータに実行させるためのプログラム。
16. 14.または15.に記載のプログラムにおいて、
前記検出対象オブジェクトは、前記処理対象オブジェクトに応じて、前記撮影対象内の、予め定められた検出しやすい領域を含むプログラム。
17. 14.乃至16.いずれかに記載のプログラムにおいて、
前記検出対象オブジェクトは、前記処理対象オブジェクトの周囲を含む領域を、少なくとも一部含むプログラム。
18. 14.乃至17.いずれかに記載のプログラムにおいて、
前記検出対象オブジェクトは、複数の前記処理対象オブジェクトに紐付けられるプログラム。
19. 14.乃至18.いずれかに記載のプログラムにおいて、
前記検出対象オブジェクトは、少なくとも検出のための情報を含むプログラム。
20. 14.乃至19.いずれかに記載のプログラムにおいて、
前記撮影対象が冊子であり、前記検出対象オブジェクトは、前記冊子の綴じ部周辺のノド部領域を除外した領域に含まれるプログラム。
21. 14.乃至20.いずれかに記載のプログラムにおいて、
前記処理は、マーカ、吹き出し、メニューの表示、ユーザインタフェース機能の実現、および検出結果のサーバへの送信の少なくとも1つを含むプログラム。
22. 21.に記載のプログラムにおいて、
前記処理は、複数の処理対象オブジェクトを選択的に処理可能にするユーザインタフェース機能を実現する処理を含むプログラム。
23. 14.乃至22.いずれかに記載のプログラムにおいて、
前記割り当てられた処理を実行する手順において、前記オブジェクト特定手段により特定される前記検出対象オブジェクトと、当該検出対象オブジェクトから特定される前記処理対象オブジェクトとのスケールの差異に応じて、前記処理対象オブジェクトに割り当てられる処理を制御する手順をさらにコンピュータに実行させるためのプログラム。
24. 14.乃至23.いずれかに記載のプログラムにおいて、
前記検出対象オブジェクトは、前記撮影画像内に少なくとも1つ含まれるように、前記撮影対象に配置されるプログラム。
25. 14.乃至24.いずれかに記載のプログラムにおいて、
前記オブジェクト位置データは、前記検出対象オブジェクトが有する複数の特徴点の前記撮影画像内での位置情報を、前記検出対象オブジェクトの位置を示す情報とし、
前記割り当てられた処理を実行する手順において、前記オブジェクト位置データに基づいて、特定された前記検出対象オブジェクトの前記複数の特徴点の前記撮影対象内の位置から、前記撮影対象内の前記処理対象オブジェクトを特定する手順をさらにコンピュータに実行させるためのプログラム。
26. 14.乃至25.いずれかに記載のプログラムにおいて、
前記コンピュータが当該プログラムを実行することにより実現される画像認識装置は、携帯端末、または、携帯端末と通信可能なサーバ装置、あるいは、それらの組み合わせであるプログラム。
27. 撮影対象内に、処理対象オブジェクトに応じて所定の配置で設定され、かつ、前記処理対象オブジェクトに応じた特徴を有する検出対象オブジェクトの、撮影画像内での位置を、画像認識により、特定するオブジェクト特定手段と、
前記撮影対象内の前記検出対象オブジェクトと、前記撮影対象に応じて所定の配置で設定され、かつ、前記撮影対象に応じた特徴を有する処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、前記オブジェクト特定手段により特定された前記検出対象オブジェクトの前記撮影画像内での前記位置から、その前記相対位置にある、前記撮影画像内の前記処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する処理手段と、
を備える画像認識装置。
28. 撮影対象内に、処理対象オブジェクトに応じて所定の配置で設定され、かつ、前記処理対象オブジェクトに応じた特徴を有する検出対象オブジェクトの、撮影画像内での位置を、画像認識により、特定するオブジェクト特定手段と、
前記撮影対象内の前記検出対象オブジェクトの位置情報と、前記撮影対象に応じて所定の配置で設定され、かつ、前記撮影対象に応じた特徴を有する処理対象オブジェクトとを関連付けるオブジェクト位置データに基づいて、前記オブジェクト特定手段により特定された前記検出対象オブジェクトの前記撮影画像内での位置から、関連する前記撮影画像内の前記処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する処理手段と、
を備える画像認識装置。
29. 27.または28.に記載の画像認識装置において、
前記検出対象オブジェクトは、前記処理対象オブジェクトに応じて、前記撮影対象内の、予め定められた検出しやすい領域を含む画像認識装置。
30. 27.乃至29.いずれかに記載の画像認識装置において、
前記検出対象オブジェクトは、前記処理対象オブジェクトの周囲を含む領域を、少なくとも一部含む画像認識装置。
31. 27.乃至30.いずれかに記載の画像認識装置において、
前記検出対象オブジェクトは、複数の前記処理対象オブジェクトに紐付けられる画像認識装置。
32. 27.乃至31.いずれかに記載の画像認識装置において、
前記検出対象オブジェクトは、少なくとも検出のための情報を含む画像認識装置。
33. 27.乃至32.いずれかに記載の画像認識装置において、
前記撮影対象が冊子であり、前記検出対象オブジェクトは、前記冊子の綴じ部周辺のノド部領域を除外した領域に含まれる画像認識装置。
34. 27.乃至33.いずれかに記載の画像認識装置において、
前記処理は、マーカ、吹き出し、メニューの表示、ユーザインタフェース機能の実現、および検出結果のサーバへの送信の少なくとも1つを含む画像認識装置。
35. 34.に記載の画像認識装置において、
前記処理は、複数の処理対象オブジェクトを選択的に処理可能にするユーザインタフェース機能を実現する処理を含む画像認識装置。
36. 27.乃至35.いずれかに記載の画像認識装置において、
前記処理手段は、前記オブジェクト特定手段により特定される前記検出対象オブジェクトと、当該検出対象オブジェクトから特定される前記処理対象オブジェクトとのスケールの差異に応じて、前記処理対象オブジェクトに割り当てられる処理を制御する画像認識装置。
37. 27.乃至36.いずれかに記載の画像認識装置において、
前記検出対象オブジェクトは、前記撮影画像内に少なくとも1つ含まれるように、前記撮影対象に配置される画像認識装置。
38. 27.乃至37.いずれかに記載の画像認識装置において、
前記オブジェクト位置データは、前記検出対象オブジェクトが有する複数の特徴点の前記撮影画像内での位置情報を、前記検出対象オブジェクトの位置を示す情報とし、
前記処理手段は、前記オブジェクト位置データに基づいて、特定された前記検出対象オブジェクトの前記複数の特徴点の前記撮影対象内の位置から、前記撮影対象内の前記処理対象オブジェクトを特定する画像認識装置。
39. 27.乃至38.いずれかに記載の画像認識装置において、
当該画像認識装置は、携帯端末、または、携帯端末と通信可能なサーバ装置、あるいは、それらの組み合わせである画像認識装置。
Claims (15)
- 検出対象オブジェクトの撮影画像における位置を画像認識により特定するオブジェクト特定手段と、
前記検出対象オブジェクトと、前記撮影画像に含まれていて商品またはサービスを示す処理対象オブジェクトと、の相対位置を示すオブジェクト位置データに基づいて、特定された前記位置に対応する処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する処理手段と、を備え、
前記検出対象オブジェクトは、前記処理対象オブジェクトの一部を含む、
画像認識装置。 - 請求項1に記載の画像認識装置において、
前記処理は、前記特定した処理対象オブジェクトに関する情報を前記処理対象オブジェクトに重畳して表示させる処理である画像認識装置。 - 請求項1または2に記載の画像認識装置において、
前記検出対象オブジェクトは、前記処理対象オブジェクトに応じて、撮影対象内の、予め定められた検出しやすい領域を含む画像認識装置。 - 請求項1乃至3いずれかに記載の画像認識装置において、
前記検出対象オブジェクトは、前記処理対象オブジェクトの周囲を含む領域を、少なくとも一部含む画像認識装置。 - 請求項1乃至4いずれかに記載の画像認識装置において、
前記検出対象オブジェクトは、複数の前記処理対象オブジェクトに紐付けられる画像認識装置。 - 請求項1乃至5いずれかに記載の画像認識装置において、
前記検出対象オブジェクトは、少なくとも検出のための情報を含む画像認識装置。 - 請求項1乃至6いずれかに記載の画像認識装置において、
撮影対象が冊子であり、前記検出対象オブジェクトは、前記冊子の綴じ部周辺のノド部領域を除外した領域に含まれる画像認識装置。 - 請求項1乃至7いずれかに記載の画像認識装置において、
前記処理は、マーカ、吹き出し、メニューの表示、ユーザインタフェース機能の実現、および検出結果のサーバへの送信の少なくとも1つを含む画像認識装置。 - 請求項8に記載の画像認識装置において、
前記処理は、複数の処理対象オブジェクトを選択的に処理可能にするユーザインタフェース機能を実現する処理を含む画像認識装置。 - 請求項1乃至9いずれかに記載の画像認識装置において、
前記処理手段は、前記オブジェクト特定手段により特定される前記検出対象オブジェクトと、当該検出対象オブジェクトから特定される前記処理対象オブジェクトとのスケールの差異に応じて、前記処理対象オブジェクトに割り当てられる処理を制御する画像認識装置。 - 請求項1乃至10いずれかに記載の画像認識装置において、
前記検出対象オブジェクトは、前記撮影画像内に少なくとも1つ含まれるように、撮影対象に配置される画像認識装置。 - 請求項1乃至11いずれかに記載の画像認識装置において、
前記オブジェクト位置データは、前記検出対象オブジェクトが有する複数の特徴点の前記撮影画像内での位置情報を、前記検出対象オブジェクトの位置を示す情報とし、
前記処理手段は、前記オブジェクト位置データに基づいて、特定された前記検出対象オブジェクトの前記複数の特徴点の撮影対象内の位置から、前記撮影対象内の前記処理対象オブジェクトを特定する画像認識装置。 - 請求項1乃至12いずれかに記載の画像認識装置において、
当該画像認識装置は、携帯端末、または、携帯端末と通信可能なサーバ装置、あるいは、それらの組み合わせである画像認識装置。 - 画像認識装置が、
検出対象オブジェクトの撮影画像における位置を画像認識により特定し、
前記検出対象オブジェクトと、前記撮影画像に含まれていて商品またはサービスを示す処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、特定された前記位置に対応する処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行し、
前記検出対象オブジェクトは、前記処理対象オブジェクトの一部を含む、
画像認識装置の処理方法。 - 検出対象オブジェクトの撮影画像における位置を画像認識により特定する手順、
前記検出対象オブジェクトと、前記撮影画像に含まれていて商品またはサービスを示す処理対象オブジェクトとの相対位置を示すオブジェクト位置データに基づいて、特定された前記位置に対応する処理対象オブジェクトを特定し、特定された前記処理対象オブジェクトに割り当てられた処理を実行する手順、をコンピュータに実行させるためのプログラムであり、
前記検出対象オブジェクトは、前記処理対象オブジェクトの一部を含む、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013115029 | 2013-05-31 | ||
JP2013115029 | 2013-05-31 | ||
PCT/JP2014/063428 WO2014192612A1 (ja) | 2013-05-31 | 2014-05-21 | 画像認識装置、その処理方法、およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017089284A Division JP6659041B2 (ja) | 2013-05-31 | 2017-04-28 | 画像認識装置、その処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014192612A1 JPWO2014192612A1 (ja) | 2017-02-23 |
JP6179592B2 true JP6179592B2 (ja) | 2017-08-16 |
Family
ID=51988645
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015519809A Active JP6179592B2 (ja) | 2013-05-31 | 2014-05-21 | 画像認識装置、その処理方法、およびプログラム |
JP2017089284A Active JP6659041B2 (ja) | 2013-05-31 | 2017-04-28 | 画像認識装置、その処理方法、およびプログラム |
JP2018050901A Active JP6687051B2 (ja) | 2013-05-31 | 2018-03-19 | 画像認識装置、その処理方法、およびプログラム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017089284A Active JP6659041B2 (ja) | 2013-05-31 | 2017-04-28 | 画像認識装置、その処理方法、およびプログラム |
JP2018050901A Active JP6687051B2 (ja) | 2013-05-31 | 2018-03-19 | 画像認識装置、その処理方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10650264B2 (ja) |
JP (3) | JP6179592B2 (ja) |
WO (1) | WO2014192612A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6213177B2 (ja) * | 2013-11-18 | 2017-10-18 | 株式会社リコー | 表示処理装置及び表示処理方法 |
DE102014009686A1 (de) * | 2014-07-02 | 2016-01-07 | Csb-System Ag | Verfahren zur Erfassung schlachttierbezogener Daten an einem Schlachttier |
US10185976B2 (en) * | 2014-07-23 | 2019-01-22 | Target Brands Inc. | Shopping systems, user interfaces and methods |
JP2017033278A (ja) * | 2015-07-31 | 2017-02-09 | 三菱電機ビルテクノサービス株式会社 | 設備管理台帳作成支援システム、設備管理台帳作成支援装置及びプログラム |
US9818038B2 (en) * | 2016-01-06 | 2017-11-14 | Toshiba Tec Kabushiki Kaisha | Image recognition apparatus |
WO2018151008A1 (ja) * | 2017-02-14 | 2018-08-23 | 日本電気株式会社 | 画像認識システム、画像認識方法及び記録媒体 |
CN108510917A (zh) * | 2017-02-27 | 2018-09-07 | 北京康得新创科技股份有限公司 | 基于讲解装置的事件处理方法和讲解装置 |
KR102402096B1 (ko) * | 2017-03-27 | 2022-05-26 | 삼성전자주식회사 | 이미지 내 오브젝트와 관련된 정보를 제공하는 전자 장치 |
US10740613B1 (en) | 2017-04-20 | 2020-08-11 | Digimarc Corporation | Hybrid feature point/watermark-based augmented reality |
US10671847B2 (en) * | 2017-05-23 | 2020-06-02 | Avaya Inc. | Service implementing a work flow based on image analysis |
KR102387767B1 (ko) * | 2017-11-10 | 2022-04-19 | 삼성전자주식회사 | 사용자 관심 정보 생성 장치 및 그 방법 |
JP6839391B2 (ja) * | 2018-03-29 | 2021-03-10 | 京セラドキュメントソリューションズ株式会社 | アイテム管理装置、アイテム管理方法及びアイテム管理プログラム |
KR102468309B1 (ko) * | 2018-04-26 | 2022-11-17 | 한국전자통신연구원 | 영상 기반 건물 검색 방법 및 장치 |
CN111354038B (zh) * | 2018-12-21 | 2023-10-13 | 广东美的白色家电技术创新中心有限公司 | 锚定物检测方法及装置、电子设备及存储介质 |
SG10201913005YA (en) * | 2019-12-23 | 2020-09-29 | Sensetime Int Pte Ltd | Method, apparatus, and system for recognizing target object |
CN111161346B (zh) * | 2019-12-30 | 2023-09-12 | 北京三快在线科技有限公司 | 将商品在货架中进行分层的方法、装置和电子设备 |
JP2021149439A (ja) * | 2020-03-18 | 2021-09-27 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
CN117235831B (zh) * | 2023-11-13 | 2024-02-23 | 北京天圣华信息技术有限责任公司 | 一种零件自动标注方法、装置、设备及存储介质 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09146755A (ja) | 1995-06-16 | 1997-06-06 | Seiko Epson Corp | 端末装置 |
JP2003271942A (ja) * | 2002-03-18 | 2003-09-26 | Ricoh Co Ltd | バーコード記録方法、画像補正方法および画像補正装置 |
JP4247816B2 (ja) * | 2002-11-25 | 2009-04-02 | キャッスルコンピューター株式会社 | 電子広告提供システム |
JP4345622B2 (ja) | 2003-11-05 | 2009-10-14 | オムロン株式会社 | 瞳色推定装置 |
JP2005208706A (ja) | 2004-01-20 | 2005-08-04 | Dainippon Printing Co Ltd | 位置情報取得装置及び方法、並びに、表示メディア作成装置等 |
JP3929450B2 (ja) | 2004-03-30 | 2007-06-13 | 株式会社エム・エム・シー | 商品販売システム、それに用る商品販売用印刷物及びその印刷方法 |
EP1833022A4 (en) * | 2004-12-28 | 2010-07-14 | Fujitsu Ltd | Image processing device for detecting the position of a processing object in a picture |
JP4911903B2 (ja) | 2005-02-21 | 2012-04-04 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 表示装置、表示システム、表示方法、及びプログラム |
US8640959B2 (en) * | 2005-03-18 | 2014-02-04 | The Invention Science Fund I, Llc | Acquisition of a user expression and a context of the expression |
GB2452512B (en) * | 2007-09-05 | 2012-02-29 | Sony Corp | Apparatus and method of object tracking |
JP5596273B2 (ja) | 2008-03-31 | 2014-09-24 | 生活協同組合コープさっぽろ | 商品情報提供サーバ、及び商品情報提供システム |
US20090319388A1 (en) | 2008-06-20 | 2009-12-24 | Jian Yuan | Image Capture for Purchases |
JP2011035800A (ja) | 2009-08-05 | 2011-02-17 | National Institute Of Information & Communication Technology | 電子価格提示システム、電子価格提示装置、及び電子価格提示方法 |
JP5638789B2 (ja) | 2009-11-12 | 2014-12-10 | 株式会社野村総合研究所 | 標識使用方法 |
US8811742B2 (en) * | 2009-12-02 | 2014-08-19 | Google Inc. | Identifying matching canonical documents consistent with visual query structural information |
JP5280475B2 (ja) | 2010-03-31 | 2013-09-04 | 新日鉄住金ソリューションズ株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP2012164157A (ja) * | 2011-02-07 | 2012-08-30 | Toyota Motor Corp | 画像合成装置 |
JP5776218B2 (ja) * | 2011-02-24 | 2015-09-09 | 株式会社大林組 | 画像合成方法 |
JP5664346B2 (ja) | 2011-03-04 | 2015-02-04 | 富士ゼロックス株式会社 | 画像処理装置、情報提供システム及びプログラム |
JP5412457B2 (ja) | 2011-03-29 | 2014-02-12 | 東芝テック株式会社 | 商品購入装置およびプログラム |
JP2013026848A (ja) * | 2011-07-21 | 2013-02-04 | Hitachi Solutions Ltd | 電子透かし広告コンテンツサービスシステム |
KR101964223B1 (ko) * | 2011-10-28 | 2019-04-01 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
-
2014
- 2014-05-21 JP JP2015519809A patent/JP6179592B2/ja active Active
- 2014-05-21 US US14/893,249 patent/US10650264B2/en active Active
- 2014-05-21 WO PCT/JP2014/063428 patent/WO2014192612A1/ja active Application Filing
-
2017
- 2017-04-28 JP JP2017089284A patent/JP6659041B2/ja active Active
-
2018
- 2018-03-19 JP JP2018050901A patent/JP6687051B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2014192612A1 (ja) | 2014-12-04 |
JP6687051B2 (ja) | 2020-04-22 |
US10650264B2 (en) | 2020-05-12 |
JP2018152075A (ja) | 2018-09-27 |
JP6659041B2 (ja) | 2020-03-04 |
JP2017174444A (ja) | 2017-09-28 |
US20160125252A1 (en) | 2016-05-05 |
JPWO2014192612A1 (ja) | 2017-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6179592B2 (ja) | 画像認識装置、その処理方法、およびプログラム | |
US9172879B2 (en) | Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method | |
US20180107876A1 (en) | Method and system for providing augmented reality contents by using user editing image | |
JP2012094138A (ja) | 拡張現実ユーザインタフェース提供装置および方法 | |
JP5948842B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2014017392A1 (ja) | 情報処理装置、そのデータ処理方法、およびプログラム | |
WO2013145566A1 (en) | Information processing apparatus, information processing method, and program | |
CN107341185A (zh) | 信息显示的方法及装置 | |
KR102330637B1 (ko) | 증강현실 포토카드를 제공하는 시스템, 서버, 방법 및 그 기록매체 | |
WO2014017393A1 (ja) | 情報処理装置、そのデータ処理方法、およびプログラム | |
US9607094B2 (en) | Information communication method and information communication apparatus | |
CN103888695B (zh) | 图像处理终端以及图像处理系统 | |
US8941767B2 (en) | Mobile device and method for controlling the same | |
US8866953B2 (en) | Mobile device and method for controlling the same | |
US20170293938A1 (en) | Interactive competitive advertising commentary | |
WO2014027433A1 (ja) | 情報提供装置、情報提供方法、及び、プログラム | |
US10915778B2 (en) | User interface framework for multi-selection and operation of non-consecutive segmented information | |
US10069984B2 (en) | Mobile device and method for controlling the same | |
KR20200008359A (ko) | Mr 콘텐츠 제공 시스템 및 그 방법 | |
US20220343571A1 (en) | Information processing system, information processing apparatus, and method of processing information | |
KR101634431B1 (ko) | 오브젝트의 컨텐츠 제공 방법 및 그 방법을 이용하는 사용자 단말 | |
US20210158595A1 (en) | Information processing apparatus, information processing method, and information processing system | |
KR102020352B1 (ko) | 3d 객체와 마커를 이용한 mr 콘텐츠 제공 장치 및 그 방법 | |
KR20190043001A (ko) | 단말 및 그의 제어 방법 | |
CN105739832A (zh) | 信息处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170113 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170428 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20170512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6179592 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |