JP2015212849A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents
画像処理装置、画像処理方法および画像処理プログラム Download PDFInfo
- Publication number
- JP2015212849A JP2015212849A JP2014094404A JP2014094404A JP2015212849A JP 2015212849 A JP2015212849 A JP 2015212849A JP 2014094404 A JP2014094404 A JP 2014094404A JP 2014094404 A JP2014094404 A JP 2014094404A JP 2015212849 A JP2015212849 A JP 2015212849A
- Authority
- JP
- Japan
- Prior art keywords
- image
- work area
- image processing
- unit
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000004364 calculation method Methods 0.000 claims abstract description 34
- 230000033001 locomotion Effects 0.000 claims description 49
- 238000009826 distribution Methods 0.000 claims description 31
- 230000003287 optical effect Effects 0.000 claims description 18
- 239000003550 marker Substances 0.000 claims description 16
- 230000000295 complement effect Effects 0.000 claims description 8
- 230000033228 biological regulation Effects 0.000 abstract description 4
- 230000001105 regulatory effect Effects 0.000 abstract description 2
- 230000001276 controlling effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 43
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000003190 augmentative effect Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000009434 installation Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、第1の実施形態による画像処理装置3が含まれる画像処理システム10の概略図である。画像処理システム10は、第1カメラ1、第2カメラ2、画像処理装置3、投影部4を有する。画像処置装置3は、第1カメラ1、第2カメラ2、投影部4と有線または無線を介して通信可能に接続される。なお、画像処理装置3は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワーク上のリソースを用いることが可能である。更に、投影部4は、必要に応じて画像処理システム10に含まれれば良く、必ずしも画像処理システム10にとって必要な構成要素ではない(画像処理システム10とは別体でもよい)。なお、第1カメラ1、第2カメラ2、画像処理装置3、投影部4は、例えば、設置面に対向して配置されれば良いが、壁面に対向して配置されても良いし、モバイル端末やウェラブル端末上の任意の位置に配置されても良い。
実施例1においては、例えば、作業対象物体に投影する表示画像を生成する実施例について開示する。この為、実施例1においては、図1の画像処理システム10の投影部4は必ずしも必要としない。
(数1)
Z = b * f / |u − u’|
なお、上述の(数1)において|u − u’|は、同一対象物(例えば、動作部位の一例となるユーザの手指)が撮像された画素の位置ずれを表す視差dに対応する。また、認識部6は、上述の(数1)において、uとu’の値として図5のテーブル50に格納される値(手指座標)を用いることが出来る。例えば、ユーザが人差し指のみを伸ばしている場合は、図5のテーブル50に手指ID1のみにデータが格納される為、当該手指ID1に格納される値を使用すれば良い。図6は、認識部6が算出するカメラ座標系と世界座標系における手指位置のデータ構造の一例を示すテーブルである。図6のテーブル60においては、例えば、人差し指が手ID1かつ手指ID1として、カメラ座標系における手指の座標位置、世界座標系における手指の深度のデータが格納される。
実施例2においては、例えば、実施例1で生成した表示画像を作業対象物体に投影する実施例について説明する。実施例2における画像処理システムの構成は、図1に示す画像処理システム10と同様の為、詳細な説明は省略する。なお、実施例1におけるユーザと実施例2におけるユーザはそれぞれ別のユーザと考えることが出来る。
実施例1では複数のカメラ(ステレオカメラ)を用いた画像処理システム10の構成で実施例を説明したが、ステレオカメラの代わりにカメラ1台と測距センサ1台を用いる場合でも、本発明の実施が可能である為、実施例3おいて説明する。図10は、第2の実施形態による画像処理装置3が含まれる画像処理システム12の概略図である。画像処理システム12は、第1カメラ1、測距センサ11、画像処理装置3、投影部4を有する。画像処置装置3は、第1カメラ1、測距センサ11、投影部4と有線または無線を介して通信可能に接続される。なお、画像処理装置3は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワーク上のリソースを用いることが可能である。更に、投影部4は、必要に応じて画像処理システム12に含まれれば良く、必ずしも必要な構成要素ではない。なお、第1カメラ1、測距センサ11、画像処理装置3、投影部4は、例えば、設置面に対向して配置されれば良いが、壁面に対向して配置されても良いし、モバイル端末やウェラブル端末上の任意の位置に配置されても良い。なお、第1カメラ1、画像処理装置3、投影部4が有する機能は実施例1と同様である為、詳細な説明は省略する。
図11は、一つの実施形態による画像処理装置3として機能するコンピュータのハードウェア構成図である。図11に示す通り、画像処理装置3は、コンピュータ100、およびコンピュータ100に接続する入出力装置(周辺機器)を含んで構成される。
第1カメラ1と第2カメラ2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。第1カメラ1と第2カメラ2の機能は、上述の実施例1〜実施例3と同様の機能の為、詳細な説明は省略する。測距センサ11は、例えば、レーザー光の往復時間から深度を計測するTOF形式を用いるセンサや、特定のパターンのレーザー光線を対象に照射した際の光のパターンの歪みを計測するパターン照射方式を用いるセンサである、測距センサ11の機能は上述の実施例3の機能と同等の為、詳細な説明は省略する。投影部4は、例えば、プロジェクタなどの表示デバイスである。投影部4は、例えば、作業対象物体の付加情報(例えば、熟練ユーザが実施した作業内容)を含む表示画像を表示する。投影部4は、表示画像を、例えば、投影面の一例となるユーザの作業対象物体に重畳して投影する。なお、投影部4の機能は、上述の実施例1〜実施例3と同様の機能の為、詳細な説明は省略する。
(付記1)
ユーザの動作部位を含む実画像を取得する取得部と、
前記実画像から前記動作部位を認識する認識部と、
前記動作部位の位置に基づいて前記実画像の作業領域を規定する規定部と、
前記作業領域の第1画像特徴量を算出する算出部と、
前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成する生成部
を備えることを特徴とする画像処理装置。
(付記2)
前記動作部位は、前記ユーザの指先であり、
前記規定部は、前記指先を基点とした所定の面積の領域を前記作業領域として規定することを特徴とする付記1記載の画像処理装置。
(付記3)
前記第1画像特徴量は、前記作業領域の画素値の勾配、前記作業領域の色相分布、または、前記作業領域の前記画素値であることを特徴とする付記1または付記2記載の画像処理装置。
(付記4)
前記生成部は、前記勾配が所定の第1閾値以上の場合、前記第2特徴量として、前記作業領域に含まれる物体または前記動作部位の輪郭線のみとする前記表示画像を生成することを特徴とする付記3記載の画像処理装置。
(付記5)
前記生成部は、前記色相分布が所定の第2閾値以上の場合、前記第2特徴量として、前記作業領域の色相数を削減した前記表示画像を生成することを特徴とする付記3または付記4記載の画像処理装置。
(付記6)
前記生成部は、前記色相分布が前記第2閾値未満の場合、前記第2特徴量として、前記作業領域の色相を補色にした前記表示画像を生成することを特徴とする付記5記載の画像処理装置。
(付記7)
前記生成部は、前記画素値が所定の第3閾値未満の場合、前記第2特徴量として、前記画素値を増加した前記表示画像を生成することを特徴とする付記3ないし付記5の何れか一つに記載の画像処理装置。
(付記8)
前記取得部は、異なる光軸で撮像される複数の前記実画像を更に取得し、
前記認識部は、前記複数の前記実画像から、前記動作部位の3次元直交座標を認識し、
前記規定部は、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする付記1ないし付記7の何れか一つに記載の画像処理装置。
(付記9)
前記動作部位の3次元直交座標を測距する測距センサを更に備え、
前記規定部は、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする付記1ないし付記7の何れか一つに記載の画像処理装置。
(付記10)
前記表示画像を投影する投影部を更に有し、
前記取得部は、マーカを含む作業対象物体の作業対象物体画像を更に取得し、
前記認識部は、前記マーカに基づいて、前記作業対象物体画像に対応する前記表示画像を認識し、
前記投影部は、前記作業対象物体に前記表示画像を重畳して投影することを特徴とする付記1ないし付記9の何れか一つに記載の画像処理装置。
(付記11)
前記投影部は、前記表示画像と前記作業対象物体の面積を一致させて、前記表示画像を投影することを特徴とする付記10記載の画像処理装置。
(付記12)
前記投影部は、前記表示画像の投影位置を周期的に変化させることを特徴とする付記10記載の画像処理装置。
(付記13)
ユーザの動作部位を含む実画像を取得し、
前記実画像から前記動作部位を認識し、
前記動作部位の位置に基づいて前記実画像の作業領域を規定し、
前記作業領域の第1画像特徴量を算出し、
前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成すること
を含むことを特徴とする画像処理方法。
(付記14)
前記動作部位は、前記ユーザの指先であり、
前記規定することは、前記指先を基点とした所定の面積の領域を前記作業領域として規定することを特徴とする付記13記載の画像処理方法。
(付記15)
前記第1画像特徴量は、前記作業領域の画素値の勾配、前記作業領域の色相分布、または、前記作業領域の前記画素値であることを特徴とする付記13または付記14記載の画像処理方法。
(付記16)
前記生成することは、前記勾配が所定の第1閾値以上の場合、前記第2特徴量として、前記作業領域に含まれる物体または前記動作部位の輪郭線のみとする前記表示画像を生成することを特徴とする付記15記載の画像処理方法。
(付記17)
前記生成することは、前記色相分布が所定の第2閾値以上の場合、前記第2特徴量として、前記作業領域の色相数を削減した前記表示画像を生成することを特徴とする付記15または付記16記載の画像処理方法。
(付記18)
前記生成することは、前記色相分布が前記第2閾値未満の場合、前記第2特徴量として、前記作業領域の色相を補色にした前記表示画像を生成することを特徴とする付記17記載の画像処理方法。
(付記19)
前記生成することは、前記画素値が所定の第3閾値未満の場合、前記第2特徴量として、前記画素値を増加した前記表示画像を生成することを特徴とする付記15ないし付記17の何れか一つに記載の画像処理方法。
(付記20)
前記取得することは、異なる光軸で撮像される複数の前記実画像を更に取得し、
前記認識することは、前記複数の前記実画像から、前記動作部位の3次元直交座標を認識し、
前記規定することは、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする付記13ないし付記19の何れか一つに記載の画像処理方法。
(付記21)
前記動作部位の3次元直交座標を測距することを更に含み、
前記規定することは、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする付記13ないし付記19の何れか一つに記載の画像処理方法。
(付記22)
前記表示画像を投影することを更に含み、
前記取得することは、マーカを含む作業対象物体の作業対象物体画像を更に取得し、
前記認識することは、前記マーカに基づいて、前記作業対象物体画像に対応する前記表示画像を認識し、
前記投影することは、前記作業対象物体に前記表示画像を重畳して投影することを特徴とする付記13ないし付記21の何れか一つに記載の画像処理方法。
(付記23)
前記投影することは、前記表示画像と前記作業対象物体の面積を一致させて、前記表示画像を投影することを特徴とする付記22記載の画像処理方法。
(付記24)
前記投影することは、前記表示画像の投影位置を周期的に変化させることを特徴とする付記22記載の画像処理方法。
(付記25)
コンピュータに
ユーザの動作部位を含む実画像を取得し、
前記実画像から前記動作部位を認識し、
前記動作部位の位置に基づいて前記実画像の作業領域を規定し、
前記作業領域の第1画像特徴量を算出し、
前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成すること
を実行させることを特徴とする画像処理プログラム。
2 第2カメラ
3 画像処理装置
4 投影部
5 取得部
6 認識部
7 規定部
8 算出部
9 生成部
Claims (12)
- ユーザの動作部位を含む実画像を取得する取得部と、
前記実画像から前記動作部位を認識する認識部と、
前記動作部位の位置に基づいて前記実画像の作業領域を規定する規定部と、
前記作業領域の第1画像特徴量を算出する算出部と、
前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成する生成部
を備えることを特徴とする画像処理装置。 - 前記動作部位は、前記ユーザの指先であり、
前記規定部は、前記指先を基点とした所定の面積の領域を前記作業領域として規定することを特徴とする請求項1記載の画像処理装置。 - 前記第1画像特徴量は、前記作業領域の画素値の勾配、前記作業領域の色相分布、または、前記作業領域の前記画素値であることを特徴とする請求項1または請求項2記載の画像処理装置。
- 前記生成部は、前記勾配が所定の第1閾値以上の場合、前記第2特徴量として、前記作業領域に含まれる物体または前記動作部位の輪郭線のみとする前記表示画像を生成することを特徴とする請求項3記載の画像処理装置。
- 前記生成部は、前記色相分布が所定の第2閾値以上の場合、前記第2特徴量として、前記作業領域の色相数を削減した前記表示画像を生成することを特徴とする請求項3または請求項4記載の画像処理装置。
- 前記生成部は、前記色相分布が前記第2閾値未満の場合、前記第2特徴量として、前記作業領域の色相を補色にした前記表示画像を生成することを特徴とする請求項5記載の画像処理装置。
- 前記生成部は、前記画素値が所定の第3閾値未満の場合、前記第2特徴量として、前記画素値を増加した前記表示画像を生成することを特徴とする請求項3ないし請求項5の何れか一項に記載の画像処理装置。
- 前記取得部は、異なる光軸で撮像される複数の前記実画像を更に取得し、
前記認識部は、前記複数の前記実画像から、前記動作部位の3次元直交座標を認識し、
前記規定部は、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする請求項1ないし請求項7の何れか一項に記載の画像処理装置。 - 前記動作部位の3次元直交座標を測距する測距センサを更に備え、
前記規定部は、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする請求項1ないし請求項7の何れか一項に記載の画像処理装置。 - 前記表示画像を投影する投影部を更に有し、
前記取得部は、マーカを含む作業対象物体の作業対象物体画像を更に取得し、
前記認識部は、前記マーカに基づいて、前記作業対象物体画像に対応する前記作業領域を認識し、
前記投影部は、前記作業対象物体に前記表示画像を重畳して投影することを特徴とする請求項1ないし請求項9の何れか一項に記載の画像処理装置。 - ユーザの動作部位を含む実画像を取得し、
前記実画像から前記動作部位を認識し、
前記動作部位の位置に基づいて前記実画像の作業領域を規定し、
前記作業領域の第1画像特徴量を算出し、
前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成すること
を含むことを特徴とする画像処理方法。 - コンピュータに
ユーザの動作部位を含む実画像を取得し、
前記実画像から前記動作部位を認識し、
前記動作部位の位置に基づいて前記実画像の作業領域を規定し、
前記作業領域の第1画像特徴量を算出し、
前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成すること
を実行させることを特徴とする画像処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014094404A JP6417702B2 (ja) | 2014-05-01 | 2014-05-01 | 画像処理装置、画像処理方法および画像処理プログラム |
US14/695,746 US9710109B2 (en) | 2014-05-01 | 2015-04-24 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014094404A JP6417702B2 (ja) | 2014-05-01 | 2014-05-01 | 画像処理装置、画像処理方法および画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015212849A true JP2015212849A (ja) | 2015-11-26 |
JP6417702B2 JP6417702B2 (ja) | 2018-11-07 |
Family
ID=54355242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014094404A Expired - Fee Related JP6417702B2 (ja) | 2014-05-01 | 2014-05-01 | 画像処理装置、画像処理方法および画像処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9710109B2 (ja) |
JP (1) | JP6417702B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016186669A (ja) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法 |
JP2017027311A (ja) * | 2015-07-21 | 2017-02-02 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
JP2017162401A (ja) * | 2016-03-11 | 2017-09-14 | 株式会社富士通アドバンストエンジニアリング | 作業支援プログラム、作業支援方法、情報処理装置、及び作業支援システム |
JP2019045989A (ja) * | 2017-08-30 | 2019-03-22 | キヤノン株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
WO2019155719A1 (ja) * | 2018-02-09 | 2019-08-15 | ソニー株式会社 | キャリブレーション装置とキャリブレーション方法およびプログラム |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9507411B2 (en) * | 2009-09-22 | 2016-11-29 | Facebook, Inc. | Hand tracker for device with display |
US9870068B2 (en) | 2010-09-19 | 2018-01-16 | Facebook, Inc. | Depth mapping with a head mounted display using stereo cameras and structured light |
CA2924622C (en) | 2013-10-23 | 2020-03-10 | Oculus Vr, Llc. | Three dimensional depth mapping using dynamic structured light |
US10521050B2 (en) * | 2014-11-13 | 2019-12-31 | Maxell, Ltd. | Projection video display apparatus and video display method |
BR112017018121A2 (pt) | 2015-02-25 | 2018-04-10 | Facebook Inc | identificação de um objeto em um volume baseada em características de luz refletida pelo objeto |
WO2016154218A1 (en) | 2015-03-22 | 2016-09-29 | Oculus Vr, Llc | Depth mapping with a head mounted display using stereo cameras and structured light |
JP6283329B2 (ja) * | 2015-05-26 | 2018-02-21 | 株式会社オプティム | 拡張現実対象認識装置 |
US10593007B1 (en) * | 2015-06-11 | 2020-03-17 | Digimarc Corporation | Methods and arrangements for configuring industrial inspection systems |
EP3185037B1 (en) * | 2015-12-23 | 2020-07-08 | STMicroelectronics (Research & Development) Limited | Depth imaging system |
JP6857980B2 (ja) * | 2016-08-02 | 2021-04-14 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP2019109709A (ja) * | 2017-12-18 | 2019-07-04 | 株式会社東芝 | 画像処理装置、画像処理方法およびプログラム |
CN111819841B (zh) * | 2018-03-16 | 2023-07-18 | 索尼公司 | 信息处理装置、信息处理方法和存储介质 |
CN110070063B (zh) * | 2019-04-29 | 2020-06-30 | 北京字节跳动网络技术有限公司 | 目标对象的动作识别方法、装置和电子设备 |
JP2021064320A (ja) * | 2019-10-17 | 2021-04-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2021128661A (ja) * | 2020-02-17 | 2021-09-02 | セイコーエプソン株式会社 | 操作検出方法、操作検出装置及び表示システム |
CN112164032B (zh) * | 2020-09-14 | 2023-12-29 | 浙江华睿科技股份有限公司 | 一种点胶方法、装置、电子设备及存储介质 |
US11651120B2 (en) * | 2020-09-30 | 2023-05-16 | GM Global Technology Operations LLC | Method and system of reporting stretching failure in stamping die development |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010079550A (ja) * | 2008-09-25 | 2010-04-08 | Fuji Xerox Co Ltd | 指示システム、指示装置、指示プログラム |
JP2010081504A (ja) * | 2008-09-29 | 2010-04-08 | Fuji Xerox Co Ltd | 画像処理装置、画像処理システム、情報処理システム及び画像処理装置の制御プログラム |
US20100315418A1 (en) * | 2008-02-12 | 2010-12-16 | Gwangju Institute Of Science And Technology | Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality |
JP2012104156A (ja) * | 2010-06-17 | 2012-05-31 | Ns Solutions Corp | 情報処理装置、情報処理方法及びプログラム |
JP2012160079A (ja) * | 2011-02-01 | 2012-08-23 | Toshiba Corp | インターフェイス装置、方法、およびプログラム |
US20130249944A1 (en) * | 2012-03-21 | 2013-09-26 | Sony Computer Entertainment Europe Limited | Apparatus and method of augmented reality interaction |
WO2014045683A1 (ja) * | 2012-09-21 | 2014-03-27 | ソニー株式会社 | 制御装置および記憶媒体 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0780722B2 (ja) | 1989-07-21 | 1995-08-30 | ソマール株式会社 | 徐放性抗菌剤含有成形体 |
JP2001211372A (ja) | 2000-01-27 | 2001-08-03 | Nippon Telegr & Teleph Corp <Ntt> | 映像投影装置 |
JP2001222375A (ja) * | 2000-02-08 | 2001-08-17 | Seiko Epson Corp | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
JP3863809B2 (ja) | 2002-05-28 | 2006-12-27 | 独立行政法人科学技術振興機構 | 手の画像認識による入力システム |
JP2006189712A (ja) | 2005-01-07 | 2006-07-20 | Nippon Telegr & Teleph Corp <Ntt> | 情報提示装置、情報提示方法及びプログラム |
US20070097017A1 (en) * | 2005-11-02 | 2007-05-03 | Simon Widdowson | Generating single-color sub-frames for projection |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
EP1889732A1 (en) * | 2006-08-18 | 2008-02-20 | Setec Oy | Method of superimposing an image onto another, method of personalizing a data carrier using the the method |
US8558804B2 (en) * | 2009-12-14 | 2013-10-15 | Silicon Motion, Inc. | Touch control apparatus and touch point detection method |
US8373654B2 (en) * | 2010-04-29 | 2013-02-12 | Acer Incorporated | Image based motion gesture recognition method and system thereof |
KR101423536B1 (ko) * | 2011-06-14 | 2014-08-01 | 한국전자통신연구원 | 인쇄매체 기반 혼합현실 구현 장치 및 방법 |
US9411432B2 (en) * | 2013-04-18 | 2016-08-09 | Fuji Xerox Co., Ltd. | Systems and methods for enabling gesture control based on detection of occlusion patterns |
-
2014
- 2014-05-01 JP JP2014094404A patent/JP6417702B2/ja not_active Expired - Fee Related
-
2015
- 2015-04-24 US US14/695,746 patent/US9710109B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100315418A1 (en) * | 2008-02-12 | 2010-12-16 | Gwangju Institute Of Science And Technology | Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality |
JP2010079550A (ja) * | 2008-09-25 | 2010-04-08 | Fuji Xerox Co Ltd | 指示システム、指示装置、指示プログラム |
JP2010081504A (ja) * | 2008-09-29 | 2010-04-08 | Fuji Xerox Co Ltd | 画像処理装置、画像処理システム、情報処理システム及び画像処理装置の制御プログラム |
JP2012104156A (ja) * | 2010-06-17 | 2012-05-31 | Ns Solutions Corp | 情報処理装置、情報処理方法及びプログラム |
JP2012160079A (ja) * | 2011-02-01 | 2012-08-23 | Toshiba Corp | インターフェイス装置、方法、およびプログラム |
US20130249944A1 (en) * | 2012-03-21 | 2013-09-26 | Sony Computer Entertainment Europe Limited | Apparatus and method of augmented reality interaction |
WO2014045683A1 (ja) * | 2012-09-21 | 2014-03-27 | ソニー株式会社 | 制御装置および記憶媒体 |
Non-Patent Citations (1)
Title |
---|
福田達郎, 外1名: ""Kinectを用いた手指投下表示型作業支援ソフトの開発"", 第76回(平成26年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6018009041, 11 March 2014 (2014-03-11), pages 4 - 89, ISSN: 0003757134 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016186669A (ja) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法 |
JP2017027311A (ja) * | 2015-07-21 | 2017-02-02 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
JP2017162401A (ja) * | 2016-03-11 | 2017-09-14 | 株式会社富士通アドバンストエンジニアリング | 作業支援プログラム、作業支援方法、情報処理装置、及び作業支援システム |
JP2019045989A (ja) * | 2017-08-30 | 2019-03-22 | キヤノン株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
WO2019155719A1 (ja) * | 2018-02-09 | 2019-08-15 | ソニー株式会社 | キャリブレーション装置とキャリブレーション方法およびプログラム |
JPWO2019155719A1 (ja) * | 2018-02-09 | 2021-02-18 | ソニー株式会社 | キャリブレーション装置とキャリブレーション方法およびプログラム |
JP7294148B2 (ja) | 2018-02-09 | 2023-06-20 | ソニーグループ株式会社 | キャリブレーション装置とキャリブレーション方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6417702B2 (ja) | 2018-11-07 |
US9710109B2 (en) | 2017-07-18 |
US20150317037A1 (en) | 2015-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6417702B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6248533B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6089722B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN108701376B (zh) | 三维图像的基于识别的对象分割 | |
US10410089B2 (en) | Training assistance using synthetic images | |
US11308347B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
TWI419081B (zh) | 提供擴增實境的標籤追蹤方法、系統與電腦程式產品 | |
WO2020035002A1 (en) | Methods and devices for acquiring 3d face, and computer readable storage media | |
US8442269B2 (en) | Method and apparatus for tracking target object | |
US9507437B2 (en) | Algorithms, software and an interaction system that support the operation of an on the fly mouse | |
US10091489B2 (en) | Image capturing device, image processing method, and recording medium | |
US20170243352A1 (en) | 3-dimensional scene analysis for augmented reality operations | |
US10642422B2 (en) | Information processing apparatus, control method for the information processing apparatus, and storage medium | |
US9886769B1 (en) | Use of 3D depth map with low and high resolution 2D images for gesture recognition and object tracking systems | |
JP2016162162A (ja) | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法 | |
JP2014029656A (ja) | 画像処理装置および画像処理方法 | |
US20160140762A1 (en) | Image processing device and image processing method | |
JP5051671B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN116912417A (zh) | 基于人脸三维重建的纹理贴图方法、装置、设备和存储介质 | |
CN109816723A (zh) | 投影控制方法、装置、投影交互系统及存储介质 | |
US20210264660A1 (en) | Scene crop via adaptive view-depth discontinuity | |
EP2509028B1 (en) | Method and system for optically detecting and localizing a two-dimensional, 2D, marker in 2D scene data, and marker therefor | |
US20200167005A1 (en) | Recognition device and recognition method | |
US20240070889A1 (en) | Detecting method, detecting device, and recording medium | |
US20240069647A1 (en) | Detecting method, detecting device, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20160401 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180313 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20180426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6417702 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |