[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015212849A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP2015212849A
JP2015212849A JP2014094404A JP2014094404A JP2015212849A JP 2015212849 A JP2015212849 A JP 2015212849A JP 2014094404 A JP2014094404 A JP 2014094404A JP 2014094404 A JP2014094404 A JP 2014094404A JP 2015212849 A JP2015212849 A JP 2015212849A
Authority
JP
Japan
Prior art keywords
image
work area
image processing
unit
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014094404A
Other languages
English (en)
Other versions
JP6417702B2 (ja
Inventor
源太 鈴木
Genta Suzuki
源太 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014094404A priority Critical patent/JP6417702B2/ja
Priority to US14/695,746 priority patent/US9710109B2/en
Publication of JP2015212849A publication Critical patent/JP2015212849A/ja
Application granted granted Critical
Publication of JP6417702B2 publication Critical patent/JP6417702B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】低コストでユーザの視認性を向上させることが出来る表示画像を生成することが可能となる画像処理装置を提供する。【解決手段】画像処理装置は、ユーザの動作部位を含む実画像を取得する取得部と、実画像から動作部位を認識する認識部と、動作部位の位置に基づいて実画像の作業領域を規定する規定部を備える。更に、当該画像処理装置は、作業領域の第1画像特徴量を算出する算出部と、第1画像特徴量に基づいて、作業領域または動作部位を第2画像特徴量に制御した表示画像を生成する生成部を備える。【選択図】図3

Description

本発明は、例えば、ユーザの作業支援に用いられる表示画像を生成する画像処理装置、画像処理方法および画像処理プログラムに関する。
近年、任意の場所に固定されたカメラ、または自由に移動が可能なカメラを用いて、ユーザの視野範囲内の任意の作業対象物体を撮像して画像を取得した後、作業対象物体に関連する付加情報(例えば作業内容)を含む表示画像を、プロジェクタを用いて直接作業対象物体に重畳表示するプロジェクション型拡張現実感(Augmented Reality:AR)技術が近年提案されている。プロジェクション型拡張現実感技術による情報提示方法は、従来の携帯端末等のディスプレイに付加情報を表示する拡張現実感技術と比較すると、ディスプレイ上の作業対象物体と実物の作業対象物体の双方を見比べる必要が不要となる為、作業効率が向上する等の利点を有する。プロジェクション型拡張現実感技術を利用した画像処理装置として、例えば、テーブル上の作業対象物体に対するユーザの手指の動作を検出し、プロジェクタで当該動作に対応する表示画像を投影する画像処理装置が提案されている。
株式会社富士通研究所、"指で直観的に操作可能な次世代ユーザーインターフェースを開発"、[online]、2013年4月3日、[2014年3月26日検索]、インターネット<URL:http://pr.fujitsu.com/jp/news/2013/04/3.html>
プロジェクション型拡張現実感技術においては、ユーザに対する表示画像の視認性を向上させることが重要となる。例えば、ユーザが作業対象物体に重畳表示(投影)された表示画像を十分に視認することが出来ない場合は、作業対象物体に対してどの様な作業を行えば良いか理解出来ない為である。作業対象物体に重畳的に表示される表示画像の視認性を向上させる為には、例えば、表示画像の作成者が、作業対象物体と付加情報の相対位置や補色関係を考慮した表示画像を作成する方法が想定され得るが、作成コスト等を考慮すると現実的な方法ではない。この為、プロジェクション型拡張現実感技術においては、低コストでユーザの視認性を向上させることが出来る表示画像を生成する画像処理技術が要求されている。本発明は、低コストでユーザの視認性を向上させることが出来る表示画像を生成する画像処理装置を提供することを目的とする。
本発明が開示する画像処理装置は、ユーザの動作部位を含む実画像を取得する取得部と、実画像から動作部位を認識する認識部と、動作部位の位置に基づいて実画像の作業領域を規定する規定部を備える。更に、当該画像処理装置は、作業領域の第1画像特徴量を算出する算出部と、第1画像特徴量に基づいて、作業領域または動作部位を第2画像特徴量に制御した表示画像を生成する生成部を備える。
なお、本発明の目的及び利点は、例えば、請求項におけるエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
本明細書に開示される画像処理装置では、低コストでユーザの視認性を向上させることが出来る表示画像を生成することが可能となる。
第1の実施形態による画像処理装置が含まれる画像処理システムの概略図である。 (a)は、表示画像の一例である。(b)は、表示画像が作業対象物体に投影された重畳画像である。 一つの実施形態による画像処理装置の機能ブロック図である。 画像処理装置による画像処理のフローチャートである。 認識部が認識するカメラ座標系の指先座標を含むデータ構造の一例を示すテーブルである。 認識部が算出するカメラ座標系と世界座標系における手指位置のデータ構造の一例を示すテーブルである。 認識部が認識する作業対象物体の3次元直交座標のデータ構造の一例を示すテーブルである。 算出部と生成部による画像処理のフローチャートである。 (а)は、生成部が生成する作業領域の第1画像特徴量を、第2画像特徴量とした表示画像の概念図である。(b)は、生成部が生成する作業領域に含まれる物体と動作部位を輪郭線のみに制御した表示画像の概念図である。 第2の実施形態による画像処理装置が含まれる画像処理システムの概略図である。 一つの実施形態による画像処理装置として機能するコンピュータのハードウェア構成図である。
まず、従来技術における問題の所在について説明する。なお、当該問題の所在は、本発明者らが従来技術を仔細に検討した結果として新たに見出したものであり、従来は知られていなかったものである。
プロジェクション型拡張現実感技術において、例えば、作業対象物体の一例となる電子基板に対して熟練ユーザが実施した作業内容を記録した動画のフレームを表示画像として電子基板に重畳表示(投影と称しても良い)することにより、未熟練ユーザは熟練ユーザと同一の作業内容を容易に実施出来ることが想定される。しかしながら、作業対象物体に表示画像を重畳表示すると、表示画像の視認性が低下することが明らかになった。具体的には、表示画像を作業対象物体に投影する場合、作業対象物体の全面に表示画像が重畳的に投影されると、作業対象物体全体が明るくなり、作業対象物体の領域内において、輝度差が発生しない為、ユーザが着目すべき点(作業領域と称しても良い)が理解し難い場合が発生することが明らかになった。
更に、作業対象物体が複雑な色相分布(色パターン分布と称しても良い)を有する場合、表示画像を投影すると、表示画像の投影光の色相の関係で、表示画像が投影される作業対象物体の色相が斑になり、視認性が低下することも明らかになった。この原因について本発明者らの見解は以下の通りである。表示画像の投影光の反射率は、投影する先の作業対象物体の色相と投影する表示画像の色相の組み合せにより異なる。この為、複雑な色相分布の作業対象物体の上に、手指を含む作業画像を投影すると、手指の色相(肌色)に対する反射率の高い部位の色相部分が明るくなり、反射率の低い部位は暗くなる。なお、この現象は、肌色以外の色相(ユーザが手袋を着用している場合等)でも同様に発生する。この為、作業対象物体が複雑な色相分布を有する場合、表示画像を投影すると、表示画像が投影される作業対象物体の色相が斑になる。
更に、表示画像における作業対象物体は2次元である一方、表示画像が投影される作業対象物体は3次元であり、互いに異なる次元量の為、作業対象物体の位置と表示画像の位置を完全に一致させることは難しい。この為、作業対象物体の形状が複雑であるほど(換言すると、エッジ量が多いほど)、投影される作業対象物体の色相と、表示画像の色相が一致しなくなり、視認性が低下することが明らかになった。
本発明者らは、上述の新たに見出された問題を鑑み、例えば、熟練ユーザが実施した作業内容を記録した動画のフレームを表示画像することで、表示画像の作成者が特別な作成作業を行う必要が不要となる為、低コストで表示画像を作成することが可能となることを新たに見出した。更には、本発明者らは、この様な表示画像において視認性を向上させることが可能となれば、低コストでユーザの視認性を向上させることが出来る表示画像を生成する画像処理装置を提供することが可能となることを新たに見出した。
上述の本発明者らの鋭意検証によって、新たに見出された技術的事項を考慮しつつ、以下に、一つの実施形態による画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は、開示の技術を限定するものではない。
(システム構成)
図1は、第1の実施形態による画像処理装置3が含まれる画像処理システム10の概略図である。画像処理システム10は、第1カメラ1、第2カメラ2、画像処理装置3、投影部4を有する。画像処置装置3は、第1カメラ1、第2カメラ2、投影部4と有線または無線を介して通信可能に接続される。なお、画像処理装置3は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワーク上のリソースを用いることが可能である。更に、投影部4は、必要に応じて画像処理システム10に含まれれば良く、必ずしも画像処理システム10にとって必要な構成要素ではない(画像処理システム10とは別体でもよい)。なお、第1カメラ1、第2カメラ2、画像処理装置3、投影部4は、例えば、設置面に対向して配置されれば良いが、壁面に対向して配置されても良いし、モバイル端末やウェラブル端末上の任意の位置に配置されても良い。
投影部4は、例えば、プロジェクタなどの表示デバイスである。投影部4は、例えば、作業対象物体の付加情報(例えば、熟練ユーザが実施した作業内容)を含む表示画像を表示する。投影部4は、表示画像を、例えば、投影面の一例となるユーザが直視する作業対象物体に重畳して投影する。
第1カメラ1と第2カメラ2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。第1カメラ1と第2カメラ2は、例えば、それぞれ図1に示す様な視野範囲を有する。第1カメラ1と第2カメラ2は、ユーザの動作部位の一例となる手指と作業対象物体(例えば、電子基板)を含む実画像を撮像する。更に、実施例1においては、説明の便宜上、作業対象物体には一意の作業対象物体を特定する為のマーカ(例えば、2次元コード)が含まれているものとする。
画像処理装置3は、例えば、ワイヤードロジックによるハードウェア回路である。また、画像処理装置3はコンピュータプログラムにより実現される機能モジュールであっても良い。更に、画像処理装置3は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路であっても良い。画像処理システム10における画像処置装置3の配置位置は自由に設定することが可能であるが、例えば、投影部4の近傍付近に配置されれば良い。画像処理装置3は、第1カメラ1が撮像する第1画像と、第2カメラが撮像する第2画像を取得し、例えば世界座標(3次元直交座標と称しても良い)系におけるユーザの動作部位(例えば、手指)の位置を算出する。換言すると画像処理装置3は、異なる光軸で撮像される第1画像と第2画像を取得することが出来る。また、画像処理装置3は、必要に応じて投影部4の投影処理を制御することが出来る。なお、画像処理装置3の機能の詳細については後述する。
図1に示される通り、投影部4は、例えば、設置面または地面と水平に設置され、投影面を規定し、作業対象物体上に表示画像を投影することが出来る。また、投影部4、第1カメラ1と第2カメラ2は、例えば投影面の上方に、鉛直下向きの方向で設置される。第1カメラ1と第2カメラ2は、内部パラメータが等しく既知であり、互いの光軸が平行で、かつ、第1カメラ1と第2カメラ2が撮像する複数の画像中の任意の横軸が同一直線状上になる様に配置される、所謂平行ステレオ配置となる。第1カメラ1と第2カメラ2により、第1画像と第2画像、作業対象物体の深度、ならびにユーザの動作部位の一例となる手指(指先と称しても良い)の深度などの情報を含む画像が撮像されることなる。なお、第1カメラ1と第2カメラ2は、平行ステレオ配置を保った状態で可動させる配置にしても良い。また、投影部4により表示画像が作業対象物体上に投影される為、ユーザは、投影された表示画像を参照しつつ、作業対象物体に対して必要とされる作業を実施することが出来る。
なお、図1に示す画像処理システム10の構成時点で、第1カメラ1と第2カメラ2のカメラ座標系と投影部4の世界座標(3次元直交座標)系における位置合わせ(キャリブレーション)は、予め実施されているものとする。また、画像処理装置3に使用開始後に、第1カメラ1と第2カメラ2と投影部4の位置関係を変化させる場合は、キャリブレーションを、少なくとも一回実行すれば良い。ここで、具体的なキャリブレーションの方法の一例として、投影部4が投影する任意の投影画像を、第1カメラ1と第2カメラ2で撮像することで、画像処理装置3内部でキャリブレーションを実行する方法を説明する。なお、当該方法においては、第1カメラ1と第2カメラ2のそれぞれについて、予めキャリブレーションが実行されているものとする。
先ず、投影部4は、世界座標系において、ある任意の座標値(x、y)に対して任意のマーカを投影する。当該マーカは、周囲の背景と区別しやすいような任意の色や形状を用いることが可能である。そして、第1カメラ1と第2カメラ2は、所定の投影面に投影されたマーカを撮像する。続いて、画像処理装置3は、マーカを公知で任意の画像処理によって認識する。例えば、画像処理装置3は、投影部4がマーカとして円形の模様を投影した場合、例えば、「Kimme et al., “Finding circles by an array of accumulators”, Communications of the Association for Computing Machinery, #18, pp.120-122, 1975.」に開示される、ハフ円変換により円形状を認識することが出来る。ここで、画像処理装置3がマーカを認識した際の座標値を(x、y)とする。画像処理装置3は、上述の処理を、任意の場所で4点分繰り返す。画像処理装置3は、当該処理で得られた(x、y)に対応する(x、y)の組の4組から、3行3列のホモグラフィ行列Hの各成分を、8次元連立一次方程式を用いて算出する。なお、ホモグラフィとは、3次元空間上のある平面から別の平面への射影変換を表す行列である。画像処理装置3は、第1カメラ1と第2カメラ2のカメラ座標平面と投影部4の投影部座標平面との対応付けを求める。画像処理装置3は、算出した求めたホモグラフィ行列を、例えば、図示しないキャッシュまたはメモリに保存しておくことで、表示画像の投影時において当該ホモグラフィ行列を利用することが出来る。
図2(a)は、表示画像の一例である。図2(b)は、表示画像が作業対象物体に投影された重畳画像である。図2(a)に示される通り、表示画像は、例えば、ユーザの動作部位の一例となる手指と、作業対象物体の一例となる電子基板が含まれる。また、図2(b)に示される通り、表示画像における作業対象物体は2次元である一方、表示画像が投影される実物の作業対象物体は3次元であり、互いに異なる次元量の為、作業対象物体の位置と表示画像の位置は完全一致していない。この為、上述の通り、作業対象物体の形状が複雑であるほど(換言すると、エッジ量が多いほど)、作業対象物体の色相と、投影される表示画像の色相が一致しなくなり、視認性が低下する場合がある。また、図2(b)に示される通り、作業対象物体の全面に表示画像が重畳的に投影されると、上述の通り、作業対象物体全体が明るくなり、作業対象物体の領域内において、輝度差が発生しない為、ユーザが着目すべき点(作業領域と称しても良い)が理解し難い場合が発生する。
(実施例1)
実施例1においては、例えば、作業対象物体に投影する表示画像を生成する実施例について開示する。この為、実施例1においては、図1の画像処理システム10の投影部4は必ずしも必要としない。
図3は、一つの実施形態による画像処理装置3の機能ブロック図である。画像処理装置3は、取得部5、認識部6、規定部7、算出部8、生成部9を有する。なお、画像処理装置3は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワークリソースを用いることが可能である。図4は、画像処理装置3による画像処理のフローチャートである。実施例1においては、図4に示す画像処理装置3による画像処理フローを、図3に示す画像処理装置3の機能ブロック図の各機能の説明に対応付けて説明する。
取得部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、取得部5は、画像処理装置3で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。取得部5は、例えば、外部装置から異なる光軸で撮像される複数の実画像(第1画像と第2画像と称しても良い)を受け取る。なお、当該処理は、図4に示すフローチャートのステップS401に対応する。また、当該実画像には、例えば、ユーザの動作部位の一例となる手指が含まれる。更に、当該実画像には、作業対象となる作業対象物体が含まれる。なお、取得部5が受け取る実画像の解像度や取得頻度は、画像処理装置3に要求される処理速度や処理精度等に応じて任意の値に規定すれば良い。例えば、取得部5は、VGA(640×480)の解像度の画像を、30FPS(1秒間に30フレーム)の取得頻度で取得すれば良い。なお、画像を撮像する外部装置は、例えば、第1カメラ1と第2カメラ2である。なお、第1カメラ1は第1画像を撮像し、第2カメラ2は第2画像を撮像するものとする。第1カメラ1と第2カメラ2は、例えば、ユーザの動作部位として、ユーザの手指を含む画像を撮像する。なお、第1カメラ1と第2カメラ2を、必要に応じて画像処理装置3に含めることも可能である。取得部5は、取得した実画像を認識部6、算出部8、生成部9に出力する。
認識部6は、例えば、ワイヤードロジックによるハードウェア回路である。また、認識部6は、画像処理装置3で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。また、認識部6が保持する図示しないキャッシュまたはメモリには、動作部位の特徴量を予め抽出した第1特徴量モデル(識別器と称しても良い)が事前学習により予め記憶されても良い。なお、第1特徴量モデルは、例えば、HOG(Histogram of Oriented Gradients)特徴量、またはLBP(Local Binary Pattern)特徴量等の輝度勾配特徴量に基づいて生成することが出来る。更に、当該事前学習は、例えば、対象物(動作部位の一例となる手指)が撮像された画像(ポジティブ画像)と、対象物が撮像されていない画像(ネガティブ画像)を用いて実施され、AdaboostやSVM(Support Vector Machine)等の様々な公知の識別器の学習手法を用いることが可能である。例えば、識別器の学習手法として、「N. Dalal et al., “Histograms of Oriented Gradients for Human Detection”, 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2005.」に開示されているSVMを用いた識別器の学習手法を用いることが出来る。
認識部6は、取得部5から複数の実画像(第1画像と第2画像と称しても良い)を受け取り、実画像の色特徴量または、輝度勾配特徴量を抽出する。認識部6は、例えば、RGB色空間における画素値を色特徴量として抽出することが出来る。また、認識部6は、例えば、HOG特徴量、またはLBP特徴量を、輝度勾配特徴量として抽出することが出来る。なお、輝度勾配特徴量は、例えば、一定の矩形領域内で計算可能な特徴量であれば良い。認識部6は、例えば、「N. Dalal et al., “Histograms of Oriented Gradients for Human Detection”, 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2005.」に開示される方法を用いて、輝度勾配特徴量の一例となるHOG特徴量を抽出することが出来る。なお、実施例1においては、説明の便宜上、認識部6は色特徴量を抽出するものとして説明する。
認識部6は、色特徴量に基づいてカメラ座標系における動作部位の一例となるユーザの手指の位置を認識する。なお、当該処理は、図4に示すフローチャートのステップS402に対応する。また、認識部6は、輝度勾配特徴量に基づいて動作部位の位置を認識する場合、必要に応じて認識部6の図示しないキャッシュまたはメモリに記憶されている第1特徴量モデルを参照しても良い。ここで、認識部6が色特徴量を用いて動作部位を認識する方法について説明する。認識部6は抽出した色特徴量を用いて肌色領域の抽出を行い、当該肌色領域に基づいて手輪郭領域(手指と手の甲を合わせた輪郭領域)を様々な公知の手法を用いて認識する。なお、認識部6は、肌色の色成分の抽出において、RGB空間やHSV空間の適切な閾値調整を用いることが出来る。認識部6は、例えば、特許第3863809号に開示される方法を用いて手輪郭領域を検出することが出来る。また、認識部6は、予め手の形状に関する学習データを保持しておき、現時刻における画像データと学習データの間の類似度を計算して手指形状を算出する方法を用いて手輪郭領域を認識することも出来る。また、認識部6は、複数の実画像(第1画像と第2画像)にそれぞれ含まれる、カメラ座標系におけるユーザの手指の位置(指先座標と称しても良い)の算出を行う。認識部6は、例えば、検出した手輪郭領域から指の本数を認識した上で手輪郭領域の輪郭から指先座標の算出を行うことが出来る。
図5は、認識部6が認識するカメラ座標系の指先座標を含むデータ構造の一例を示すテーブルである。なお、図5のテーブル50におけるカメラ座標系は、第1画像または第2画像の左上端を原点とし、第1画像または第2画像の右方向をx軸の正方向、第1画像または第2画像の下方向をy軸の正方向として規定されている。テーブル50には、例えば、ユーザが人差し指を伸ばした場合における、第1画像と第2画像から算出される各手指の指先座標が、手IDと手指IDとに対応付けられ、フレームNo毎に格納される。手指IDは、例えば、横方向の座標の小さい順に付与されれば良い。なお、各手指座標の基準点は、例えば、第1画像または第2画像の左上端と規定することが出来る。また、認識部6は、上述の肌色領域に基づいて規定した手輪郭領域の座標をテーブル50に格納しても良い。また、認識部6は、手を1本のみ認識した場合は、手ID1の欄に遂次データを格納し、手を2本認識した場合は、手ID2の欄を併用して遂次データを格納すれば良い。また、テーブル50は、例えば、認識部6の図示しないキャッシュまたはメモリに格納されれば良い。
続いて、認識部6は、二眼ステレオ法を用いて世界座標系におけるユーザの手指(指先)深度の算出を行う。認識部6は、世界座標系の任意の基準点(例えば、第1カメラ1と第2カメラの中点を基準点とすれば良い。換言すると、基準点は、第1画像における第1光学中心と第2画像における第2光学中心の中点となる)に対する奥行方向の深度をZ、第1カメラ1と第2カメラ2の間の線分の長さ(基線長)をb(換言すると、第1画像の第1光学中心と第2画像の第2光学中心の基線長)、第1カメラ1と第2カメラ2の焦点距離をf、第1画像と第2画像のカメラ座標における手指先位置をそれぞれ(u、v)、(u’、v’)とすると、三角測量の原理により次式で算出することが出来る。
(数1)
Z = b * f / |u − u’|
なお、上述の(数1)において|u − u’|は、同一対象物(例えば、動作部位の一例となるユーザの手指)が撮像された画素の位置ずれを表す視差dに対応する。また、認識部6は、上述の(数1)において、uとu’の値として図5のテーブル50に格納される値(手指座標)を用いることが出来る。例えば、ユーザが人差し指のみを伸ばしている場合は、図5のテーブル50に手指ID1のみにデータが格納される為、当該手指ID1に格納される値を使用すれば良い。図6は、認識部6が算出するカメラ座標系と世界座標系における手指位置のデータ構造の一例を示すテーブルである。図6のテーブル60においては、例えば、人差し指が手ID1かつ手指ID1として、カメラ座標系における手指の座標位置、世界座標系における手指の深度のデータが格納される。
認識部6の図示しないキャッシュまたはメモリには、例えば、作業対象物体の3次元形状情報が記憶されても良い。なお、作業対象物体が1枚の薄い紙の紙媒体文書である場合は、紙媒体文書を事前に設定された投影面の平面上に存在する厚みが無い2次元の形状と見做すことが出来る。作業対象物体が電子基板の様な厚みのある物体の場合には、画像処理装置3の画像処理開始時点において、例えば、認識部6が、作業対象物体の3次元形状を予め取得することが出来る。例えば、認識部6は、アクティブステレオ法と称される方法により作業対象物体の3次元形状を取得することが出来る。アクティブステレオ法には様々な種類があり、認識部6は、何れの種類も適用することが可能であるが、例えば、特公平3−56402号公報に記載の空間コード法を用いることが出来る。但し、実現の方法は空間コード法に限られない。
認識部6は、空間コード法により、例えば、投影部4が複数回投影する、明暗をパターン化した特定パターンの全画素の座標をIDとして、投影パターンの画素の変化を算出する。その結果を用いることで、認識部6は、三角測量により投影部4が投影する特定パターンの各画素に対する深度(単位はmm)を算出することが出来る。なお、カメラ座標系における任意の基準点に対する各画素の座標と深度を用いることで、認識部6は、作業対象物体の3次元形状となる3次元直交座標を規定することが出来る。なお、各画素の座標の基準点は、例えば、取得部5が取得する実画像(第1画像または第2画像)の左上端と規定することが出来る。また、3次元直交座標系における深度の基準点は、例えば、第1カメラ1と第2カメラ2の設置点の中間点とすることが出来る。図7は、認識部6が認識する作業対象物体の3次元直交座標のデータ構造の一例を示すテーブルである。図7のテーブル70に示される通り、作業対象物体の3次元直交座標として、任意の基準点に対する各画素のカメラ座標と、深度の座標が格納される。図1の後述する規定部7は、図7のテーブル70に格納される作業対象物体の深度と、図6のテーブル60に格納される指先深度を比較して、ユーザの手指が作業対象物体に接触しているか否かを判断することが出来る。認識部6は、動作部位の一例となる手指の位置を規定部7に出力する。また、認識部6は、必要に応じて作業対象物体の3次元直交座標を規定部7に出力する。
図3の規定部7は、例えば、ワイヤードロジックによるハードウェア回路である。また、規定部7は、画像処理装置3で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。規定部7は、動作部位の一例となる手指の位置(例えば、図7のテーブル70に格納される各データ)を認識部6から受け取る。また、規定部7は、必要に応じて、作業対象物体の3次元直交座標(例えば、図7のテーブル70に格納される各データ)を認識部6から受け取る。規定部7は、動作部位の位置に基づいて実画像に含まれる作業対象物体の作業領域を規定する。なお、当該処理は、図4に示すフローチャートのステップS403に対応する。換言すると、規定部7は、指先を基点とした所定の面積(N×M画素、例えば、NとMは50画素であれば良い)を作業領域として規定する。具体的には、規定部7は、例えば、図6のテーブル60の手指ID1のカメラ座標に基づいて(200±50、260±50)の座標領域を作業領域と規定すれば良い。また、手IDまたは手指IDが複数検出されている場合は、手IDまたは手指IDそれぞれに足して作業領域を規定しても良いし、深度が最も深い手指IDに対してのみ作業領域を規定しても良い。
なお、規定部7は、実画像の作業領域以外の領域かつ手指(腕を含んでも良い)以外の領域を透明色、または黒色にすることで、実画像に対して作業領域を規定することが出来る。この様に、規定部7が作業領域を規定すると、例えば、投影部4が表示画像を投影した場合、表示画像において、作業領域のみが周囲よりも輝度値が大きくなる為(換言すると明るくなる為)、輝度値の差分によって、ユーザは投影された情報に着目し易くなる利点、換言すると視認性が向上する利点を有する。また、動作部位の位置に基づいて作業領域を自動的に規定することが出来る為、低コストで表示画像を生成することが可能となる。
図3の規定部7は、更に、作業対象物体の3次元直交座標に基づいて、作業領域を規定することが出来る。具体的には、ユーザの動作部位となる手指の深度が作業対象物体の3次元直交座標の位置と同じになった場合、ユーザの手指は、作業対象物体に接触しているとみなすことが出来る。この為、ユーザの手指が実際に作業対象物体を接触、すなわち、作業対象物体に対して実際に作業を行っている場合のみに、作業領域を規定することが可能となる。
図3の算出部8は、例えば、ワイヤードロジックによるハードウェア回路である。また、算出部8は、画像処理装置3で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。算出部8は、取得部5から実画像を受け取り、規定部7から作業領域を受け取る。算出部8は、実画像における作業領域の第1画像特徴量を算出する。なお、当該処理は、図4に示すフローチャートのステップS404に対応する。ここで、第1画像特徴量は、例えば、作業領域の画素値の勾配(エッジ量と称しても良い)、作業領域の色相分布、または、作業領域の画素値の何れか、または組み合せである。算出部8は、算出した第1画像特徴量を生成部9に出力する。なお算出部8による画像処理の詳細は後述するものとする。
生成部9は、例えば、ワイヤードロジックによるハードウェア回路である。また、生成部9は、画像処理装置3で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。生成部9は、算出部8から第1画像特徴量を受け取る。生成部9は、第1画像特徴量に基づいて、作業領域または動作部位の画像特徴量を第2画像特徴量に制御した表示画像を生成する。なお、当該処理は、図4に示すフローチャートのステップS405に対応する。生成部9は、勾配が所定の第1閾値以上の場合、作業領域に含まれる作業対象物体または動作部位の画像特徴量を、第2特徴量として輪郭線のみの画像特徴量に制御した表示画像を生成する。また、生成部9は、作業領域の色相分布が所定の第2閾値以上の場合、作業領域の画像特徴量の第2特徴量として、色相数を削減した画像特徴量の表示画像を生成する。また、生成部9は、色相分布が第2閾値未満の場合、作業領域の画像特徴量の第2特徴量として、作業領域の色相を補色にした画像特徴量の表示画像を生成する。更に、生成部9は、作業領域の画素値が所定の第3閾値未満の場合、作業領域の画像特徴量の第2特徴量として、画素値を増加させた画像特徴量の表示画像を生成する。なお生成部9による画像処理の詳細は後述するものとする。生成部9は、生成した表示画像を外部装置に出力する。外部装置は、例えば、図1の投影部4であれば良い。
図8は、算出部8と生成部9による画像処理のフローチャートである。なお、図8に示すフローチャートは、図4の示すフローチャートのS404またはS405の詳細フローに該当する。算出部8は、第1画像特徴量として、作業領域の勾配(エッジ量と称しても良い)を算出する(ステップS801)。ステップS801において、算出部8は、作業領域の任意の画素に対する近傍画素との差分を求めることでエッジ検出を行う。次に、算出部8は、エッジ検出した画像を2値化し、エッジと判定された画素数と作業領域の画素数(面積)の割合を勾配として算出することが出来る。
勾配が多い作業領域は、視覚的な情報量が多いため、投影した表示画像の変化点が作業対象物体の情報量に埋もれ、視認し難い場合も想定される。そこで、第1画像特徴量の一例となる勾配が、所定の第1閾値THe(例えば、THe=20%〜30%)以上の場合(ステップS802−Yes)、算出部8は、作業領域の第1特徴量の一例となる色相分布を算出する(ステップS803)。ステップS803において、算出部8は、色相分布の算出方法として、作業領域のRGBの色空間のヒストグラムを算出し、当該色空間に対するヒストグラムの分布割合を求める方法を用いることが出来る。算出部8は、色相分布の算出方法として、例えば、色空間のヒストグラムの計算を行う際に用いるビンを使って行う方法を用いることが出来る。例えば、ビンの幅を16とすると、0〜255の色レベルは16個のビンに分けることが出来る。これがRGBの3つの色成分に対して存在する為、ビンの総数は16の3乗の4096個存在することになる。算出部8は、作業領域中の画素について、4096個の各ビンに所属する個数を求める。算出部8は、画素数が所定の閾値以上、例えば、作業領域の全画素数の0.1%以上の画素数が存在するビンの数を求め、4096個のビンに対する割合を色相分布とすることが出来る。
色相分布が所定の第2閾値THc(例えば、THc=70%)以上の場合(ステップS804−Yes)、作業領域(特に作業対象物体)には、多くの色相が含まれていることを意味する。この為、投影される表示画像に対しても多くの色相を使用すると作業領域の視認性が確保出来ない場合も想定される。この為、生成部9は、ステップS802−YesかつステップS804−Yesの条件を満たす場合、作業領域に含まれる作業対象物体と動作部位の一例となる手指の画像特徴量を第2画像特徴量に制御する。具体的には、生成部9は、作業領域に含まれる作業対象物体と動作部位の一例となる手指の画像特徴量を輪郭線のみに制御し、かつ、表示画像の色相を少なくし、投影による明るさの違いのみにより着目しやすく表示画像を生成する(ステップS805)。なお、ステップS805おいて、生成部9は、例えば、動作部位の輪郭の色相をColor−Hとし、作業領域の色相はColor−Tとする2色による表示画像を生成することが出来る。ここで、Color−Hは、例えば、(R, G, B)=(0, 255, 0)の緑色であり、Color−Tは、例えば、(R, G, B)=(255, 255, 255)の白色であれば良い。
色相分布が第2閾値未満の場合(ステップS804−No)、作業領域の色相は少なく、勾配のみが大きいことを意味する。この為、ステップS802−YesかつステップS804−Noの条件を満たす場合、生成部9は、第2画像特徴量として、作業領域に含まれる作業対象物体と動作部位の一例となる手指の画像特徴量を輪郭線のみに制御した表示画像を生成する(ステップS806)。なお、ステップS806において、生成部9は、作業領域に含まれていない任意の色相(例えば補色)を用いて、輪郭線の視認性を向上させても良い。更に、ステップS805またはS806において、生成部9は、作業領域の情報量を更に削減する方法として、作業領域について、前フレームの画像と比較したフレーム間差分画像を用いる方法も適用することも出来る。この場合、例えば、ユーザが手指で作業対象物を接触したことにより変化した領域のみを差分画像を表示画像としてを表示することができる。
ここで、ステップS805またはS806において、生成部9が輪郭線の画像特徴量に制御する技術的意義について説明する。上述の通り、表示画像における作業対象物体は2次元である一方、表示画像が投影される実物の作業対象物体は3次元であり、互いに異なる次元量の為、作業対象物体の位置と表示画像の位置を完全に一致させることは難しい。この為、作業対象物体の形状が複雑であるほど(換言すると、エッジ量や色相分布が多いほど)、投影される作業対象物体の色相と、表示画像の色相が一致しなくなる。この為、ユーザは、作業対象物体が元々斑な模様になっているのか、投影により斑ら模様になっているのかが判別することは難しい。ここで、輪郭線を用いることで、輪郭線の色相は作業対象物体の色相によって変化するものの、線の連続性から輪郭線が容易に認識することが出来、その結果、作業対象領域の視認性が向上する効果を有する。
ステップS806において、作業領域、特に、作業領域に含まれる動作部位を任意の色相に制御する場合、表示画像の投影中において、フレーム毎に動作部位の色が変化すると、動作部位の色相のみに注目が引き易くなる為、動作部位の色相は表示画像の全てのフレームにおいて同一としても良い。また、上述の通り、作業領域は指先に基づいて規定される為、作業領域においては、指先が最も着目すべき点となる。この為、生成部9は、手指の輪郭の中でも手指先の輝度値が最も高くなる様に、輪郭線の輝度を画素毎に変化させても良い。具体的には、生成部9は、例えば、作業領域中の指先座標を(Xf, Yf)とし、指先の投影光の色をRGB色空間で(Rf, Gf, Bf)とし、更に、手指の輪郭中の任意の座標を(x, y)とした場合、(x, y)の色相は(Rf, Gf, Bf)に対して、SQRT((Xf−x)2 + (Yf−y)2)× D)倍したものとすれば良い。なお、Dは指先から1画素離れる毎の輝度値の減衰率とする。また、手IDや手指IDが複数検出されている場合には、(x, y)の色相は、最も近い位置にある指の座標から求めることが出来る。また、生成部9は、指先の深度座標が作業対象物体の深度座標と一致している場合、すなわち指先が作業対象物体に接触している場合と、接触しない場合を区別して、動作部位の色相や輝度値を変化させても良い。
ここで、図8のフローチャートにおいて、算出部8が色相分布よりも勾配を先に算出する技術的意義について説明する。一般的に勾配(エッジ量)が大きいが、色相分布が小さいという作業対象物体は比較的多く存在する。例えば、2色で構成された作業対象物体で複雑なパターンを持つ物体である。その一方、色相分布が大きいが、勾配は少ないという作業対象物体は稀であることが想定される。この為、算出部8は色相分布の算出(ステップS803)よりも勾配を先に算出する(ステップS801)ことにより、勾配が少ない作業対象物体の場合には、色相分布の算出処理が不要となる為、画像処理装置3の処理負荷を低下させることが出来る。
ステップS802において、勾配が第1閾値未満の場合(ステップS802−No)は、作業領域の視覚的な情報量が少ないことを意味する。但し、作業領域中の作業対象物体の輝度値が低い場合、表示画像を投影しても、作業領域と作業領域以外との輝度値の差(明るさの差と称しても良い)が少なく、視認性が確保され難い場合も想定される。この為、算出部8は、作業領域の輝度値を算出する(ステップS807)。当該輝度値は、例えば、作業領域の全画素値の輝度値平均を用いることが出来る。生成部9は、輝度値が所定の第3閾値THb(例えば、THb=100画素)未満の場合(ステップS808−No)には、作業領域の輝度値を増加させる(ステップS809)。輝度値が所定の第3閾値THb以上の場合(ステップS809−Yes)には、作業領域は十分な輝度値を有している為、生成部9は、第1画像特徴量を、そのまま第2画像特徴量としたものを表示画像として生成する。なお、算出部8と生成部9は、図8のフローチャートに示す画像処理を取得部5が取得する実画像の全てのフレームに対して実施しても良いし、任意の代表フレームを定めて当該代表フレームに対して実施しても良い。代表フレームを定めた場合は、生成部9は代表フレームにおいて算出された第1画像特徴量に基づいて、全てのフレームの画像特徴量を第2画像特徴量に制御すれば良い。
図9(а)は、生成部9が生成する作業領域の第1画像特徴量を、第2画像特徴量とした表示画像の概念図である。図9(b)は、生成部9が生成する作業領域に含まれる物体と動作部位を輪郭線のみに制御した表示画像の概念図である。図9(a)は、図8のステップS808−Yesの条件を満たした場合に生成部9が生成する表示画像に相当する。図9(b)は、図8のステップS806で生成部9が生成する表示画像に相当する。図9(a)に示される様な表示画像においては、作業領域と動作部位以外の色相は黒色となり、投影されない為、投影面積が減る。これにより投影される作業領域が目立ち易くなり、視認性が向上する。また、図9(a)に示される様な表示画像においては、画像特徴量が輪郭線に制御されている為、表示画像が投影される実物の勾配や色相分布が大きくても、線の連続性から輪郭線が容易に認識することが出来、その結果、作業対象領域の視認性が向上する。
実施例1における画像処理装置3によれば、低コストでユーザの視認性を向上させることが出来る表示画像を生成することが可能となる画像処理装置を提供することが可能となる。
(実施例2)
実施例2においては、例えば、実施例1で生成した表示画像を作業対象物体に投影する実施例について説明する。実施例2における画像処理システムの構成は、図1に示す画像処理システム10と同様の為、詳細な説明は省略する。なお、実施例1におけるユーザと実施例2におけるユーザはそれぞれ別のユーザと考えることが出来る。
第1カメラ1または第2カメラ2は、表示画像が投影される実物の作業対象物体が含まれる実画像(作業対象物体画像と称しても良い)を撮像する。なお、作業対象物体が設置面の一例となるテーブル上から動かない物体の場合には、撮像回数は1回のみであれば良い。更に、実施例2においては、作業対象物体には、説明の便宜上、一意の作業対象物体を特定する為のマーカ(例えば、2次元コード)が含まれているものとする。取得部5は、第1カメラ1または第2カメラ2から実画像を取得し、取得した実画像(作業対象物体画像)を認識部6に出力する。
認識部6は、実画像を取得部5から取得する。認識部6は、実画像(作業対象物体画像)に含まれるマーカを用いて、投影部4が投影すべき表示画像を認識する。また、画像処理システム12に接続される図示しないディスプレイに表示されるGUIからユーザが直接的に表示画像を選択しても良い。また、認識部6は、実画像と表示画像の双方に対して、特徴点抽出を実施し、特徴点の一致度を比較することでも投影部4が投影すべき表示画像を認識することが出来る。
投影部4は、認識部6が特定した表示画像を作業対象物体に表示画像を投影する。なお、実施例1で実画像(作業対象物体画像)を撮影した第1カメラ1または第2カメラ2と、投影部4の設置位置は同一ではない為、作業対象物体と表示画像の重畳投影にずれが発生する場合が有る。この為、投影部4は、表示画像の座標系(カメラ座標系と称しても良い)と投影部4の投影画像の座標系(プロジェクタ座標系と称しても良い)の間で座標系の変換を行っても良い。換言すると、投影部4は、表示画像と作業対象物体の面積を一致させて、表示画像を投影することが可能である。投影部4は、例えば、射影変換を用いて、カメラ座標系とプロジェクタ座標系を変換する。なお、投影部4は、カメラ座標系とプロジェクタ座標系の座標変換行列を予め保持しているものとする。なお、投影部4は、マーカ認識よる表示画像の投影方法として、例えば、「Kato, H., Billinghurst, M. "Marker tracking and hmd calibration for a video-based augmented reality conferencing system.", In Proceedings of the 2nd IEEE and ACM International Workshop on Augmented Reality (IWAR 99), October 1999.」に開示される投影方法を適用することが出来る。また、投影部4は、カメラ座標系とプロジェクタ座標系の変換方法として、例えば、「Audet, Samuel, and Masatoshi Okutomi. "A user-friendly method to geometrically calibrate projector-camera systems.", Computer Vision and Pattern Recognition Workshops, 2009. CVPR Workshops 2009. IEEE Computer Society Conference on. IEEE, 2009.」に開示される変換方法を適用することが出来る。
実施例1と実施例2において、作業対象物体が設置面に設置される位置は、必ずしも一致するとは限らない。この為、投影部4は、実画像と表示画像の双方に対して、複数の特徴点抽出を取得し、当該特徴点を用いてプロジェクタ座標系とカメラ座標系の座標変換行列を計算する。投影部4は、計算した座標変換行列を用いて、表示画像をカメラ座標系に変換し、更にカメラ座標からプロジェクタ座標への座標変換行列を用いることで、表示画像を作業対象物体に位置に重畳させて投影することが出来る。
更に、投影部4は、表示画像の投影位置を時系列で周期的に変化させても良い。表示画像の投影位置が揺れて表示されることにより、ユーザが作業領域を着目し易くなる場合がある。この場合、投影部4は、この様な投影を行う際には、表示画像をxまたはy方向にフレーム毎に周期的に任意の座標量を移動させれば良い。実施例2における画像処理システム12によれば、実施例1で生成した表示画像を、表示画像が投影される実物の作業対象物体の位置に合わせて精度良く投影することが出来る為、表示画像の視認性が向上する。
(実施例3)
実施例1では複数のカメラ(ステレオカメラ)を用いた画像処理システム10の構成で実施例を説明したが、ステレオカメラの代わりにカメラ1台と測距センサ1台を用いる場合でも、本発明の実施が可能である為、実施例3おいて説明する。図10は、第2の実施形態による画像処理装置3が含まれる画像処理システム12の概略図である。画像処理システム12は、第1カメラ1、測距センサ11、画像処理装置3、投影部4を有する。画像処置装置3は、第1カメラ1、測距センサ11、投影部4と有線または無線を介して通信可能に接続される。なお、画像処理装置3は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワーク上のリソースを用いることが可能である。更に、投影部4は、必要に応じて画像処理システム12に含まれれば良く、必ずしも必要な構成要素ではない。なお、第1カメラ1、測距センサ11、画像処理装置3、投影部4は、例えば、設置面に対向して配置されれば良いが、壁面に対向して配置されても良いし、モバイル端末やウェラブル端末上の任意の位置に配置されても良い。なお、第1カメラ1、画像処理装置3、投影部4が有する機能は実施例1と同様である為、詳細な説明は省略する。
測距センサ11は、例えば、レーザー光の往復時間から深度を計測するTOF形式を用いるセンサや、特定のパターンのレーザー光線を対象に照射した際の光のパターンの歪みを計測するパターン照射方式を用いるセンサである。実施例3では何れの方式のセンサを採用することが出来る。なお、測距センサ11は、例えば、作業対象物体の上方部に鉛直下向きの方向で設置される。第1カメラ1の内部パラメータは実施例1と同様に既知であり、測距センサ11と第1カメラ1の光軸は平行であり、画像中の横軸が同一直線状になるように配置される。
実施例3においては、測距センサ11を用いることで手領域輪郭と深度を算出することが出来る。認識部6は、距離画像と称される、測距センサ11から取得されるデータを用いることが出来る。なお、距離画像は通常の二次元画像の色や濃淡の値の代わりに、測距センサ11から対象物までの距離の値を持った画像である。実施例3では、画像処理の開始以前に学習過程が必要となる。当該学習過程では、例えば、認識部6の図示しないキャッシュまたはメモリに、図示しないデータベースに手の距離画像に関するテンプレートを多数記憶する。次に、それぞれの距離画像から、ユーザが手動で手領域の切り出しと指先座標の指定を実施する。手輪郭領域は一定の大きさに正規化され、認識部6に保存される。実施例3においては、画像処理装置3は、一定のテンプレートが得られるまで上述の学習処理を繰り返す。
実施例3において、画像処理の開始後は、認識部6は、測距センサ11から、現時刻における距離画像を取得する。その後、任意の倍率を有する窓を用いて距離画像を走査する。それぞれの窓では、窓中の距離画像と全てのテンプレートの間の類似度を計算し、最も類似度の高いテンプレートを選択するというテンプレートマッチングを行うことが出来る。なお、類似度の算出の一例として、SSD(Sum of Squared Difference)や、NCC(Normalized Cross−Correlation) などが用いることが出来る。認識部6は、テンプレートマッチングによる最適なテンプレートの選択後、最適なテンプレート内に保持されている手指の位置情報を取得し、現在の距離画像で手指位置に対応する深度の値を取得する。当該処理で取得されるデータ構造は、例えば、図6に示すテーブル60と同一となる。その他の処理は実施例1と同様の為、詳細な説明は省略する。
実施例3における画像処理装置3においては、実施例1と同様に低コストでユーザの視認性を向上させることが出来る表示画像を生成することが可能となる画像処理装置を提供することが可能となる。
(実施例4)
図11は、一つの実施形態による画像処理装置3として機能するコンピュータのハードウェア構成図である。図11に示す通り、画像処理装置3は、コンピュータ100、およびコンピュータ100に接続する入出力装置(周辺機器)を含んで構成される。
コンピュータ100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス109を介してRAM(Random Access Memory)102と複数の周辺機器が接続されている。なお、プロセッサ101は、マルチプロセッサであってもよい。また、プロセッサ101は、例えば、CPU、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。更に、プロセッサ101は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。なお、例えば、プロセッサ101は、図3の取得部5、認識部6、規定部7、算出部8、生成部9等の機能ブロックの処理を実行することが出来る。
RAM102は、コンピュータ100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。
バス109に接続されている周辺機器としては、HDD(Hard Disk Drive)103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、機器接続インタフェース107およびネットワークインタフェース108がある。
HDD103は、内蔵したディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103は、例えば、コンピュータ100の補助記憶装置として使用される。HDD103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することも出来る。
グラフィック処理装置104には、モニタ110が接続されている。グラフィック処理装置104は、プロセッサ101からの命令にしたがって、各種画像をモニタ110の画面に表示させる。モニタ110としては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。
入力インタフェース105には、キーボード111とマウス112とが接続されている。入力インタフェース105は、キーボード111やマウス112から送られてくる信号をプロセッサ101に送信する。なお、マウス112は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
光学ドライブ装置106は、レーザ光などを利用して、光ディスク113に記録されたデータの読み取りを行う。光ディスク113は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク113には、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。可搬型の記録媒体となる光ディスク113に格納されたプログラムは光学ドライブ装置106を介して画像処理装置3にインストールされる。インストールされた所定のプログラムは、画像処理装置3より実行可能となる。
機器接続インタフェース107は、コンピュータ100に周辺機器を接続するための通信インタフェースである。例えば、機器接続インタフェース107には、メモリ装置114やメモリリーダライタ115を接続することが出来る。メモリ装置114は、機器接続インタフェース107との通信機能を搭載した記録媒体である。メモリリーダライタ115は、メモリカード116へのデータの書き込み、またはメモリカード116からのデータの読み出しを行う装置である。メモリカード116は、カード型の記録媒体である。
第1カメラ1と第2カメラ2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。第1カメラ1と第2カメラ2の機能は、上述の実施例1〜実施例3と同様の機能の為、詳細な説明は省略する。測距センサ11は、例えば、レーザー光の往復時間から深度を計測するTOF形式を用いるセンサや、特定のパターンのレーザー光線を対象に照射した際の光のパターンの歪みを計測するパターン照射方式を用いるセンサである、測距センサ11の機能は上述の実施例3の機能と同等の為、詳細な説明は省略する。投影部4は、例えば、プロジェクタなどの表示デバイスである。投影部4は、例えば、作業対象物体の付加情報(例えば、熟練ユーザが実施した作業内容)を含む表示画像を表示する。投影部4は、表示画像を、例えば、投影面の一例となるユーザの作業対象物体に重畳して投影する。なお、投影部4の機能は、上述の実施例1〜実施例3と同様の機能の為、詳細な説明は省略する。
ネットワークインタフェース108は、ネットワーク117に接続されている。ネットワークインタフェース108は、ネットワーク117を介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。
コンピュータ100は、たとえば、コンピュータ読み取り可能な記録媒体に記録されたプログラムを実行することにより、上述した画像処理機能を実現する。コンピュータ100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことが出来る。上記プログラムは、1つのまたは複数の機能モジュールから構成することが出来る。例えば、図3に記載の取得部5、認識部6、規定部7、算出部8、生成部9の処理を実現させた機能モジュールからプログラムを構成することが出来る。なお、コンピュータ100に実行させるプログラムをHDD103に格納しておくことができる。プロセッサ101は、HDD103内のプログラムの少なくとも一部をRAM102にロードし、プログラムを実行する。また、コンピュータ100に実行させるプログラムを、光ディスク113、メモリ装置114、メモリカード116などの可搬型記録媒体に記録しておくことも出来る。可搬型記録媒体に格納されたプログラムは、例えば、プロセッサ101からの制御により、HDD103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することも出来る。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが出来る。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することが出来る。また、本実施の形態では、手指が肌色、背景も肌色に類似している場合を例として説明したが、本実施の形態はこれに限定されない。例えば、手指が手袋などで覆われていて、手袋の色に類似した背景を使用する場合などにも、本実施の形態が適用できることは言うまでもない。
以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
ユーザの動作部位を含む実画像を取得する取得部と、
前記実画像から前記動作部位を認識する認識部と、
前記動作部位の位置に基づいて前記実画像の作業領域を規定する規定部と、
前記作業領域の第1画像特徴量を算出する算出部と、
前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成する生成部
を備えることを特徴とする画像処理装置。
(付記2)
前記動作部位は、前記ユーザの指先であり、
前記規定部は、前記指先を基点とした所定の面積の領域を前記作業領域として規定することを特徴とする付記1記載の画像処理装置。
(付記3)
前記第1画像特徴量は、前記作業領域の画素値の勾配、前記作業領域の色相分布、または、前記作業領域の前記画素値であることを特徴とする付記1または付記2記載の画像処理装置。
(付記4)
前記生成部は、前記勾配が所定の第1閾値以上の場合、前記第2特徴量として、前記作業領域に含まれる物体または前記動作部位の輪郭線のみとする前記表示画像を生成することを特徴とする付記3記載の画像処理装置。
(付記5)
前記生成部は、前記色相分布が所定の第2閾値以上の場合、前記第2特徴量として、前記作業領域の色相数を削減した前記表示画像を生成することを特徴とする付記3または付記4記載の画像処理装置。
(付記6)
前記生成部は、前記色相分布が前記第2閾値未満の場合、前記第2特徴量として、前記作業領域の色相を補色にした前記表示画像を生成することを特徴とする付記5記載の画像処理装置。
(付記7)
前記生成部は、前記画素値が所定の第3閾値未満の場合、前記第2特徴量として、前記画素値を増加した前記表示画像を生成することを特徴とする付記3ないし付記5の何れか一つに記載の画像処理装置。
(付記8)
前記取得部は、異なる光軸で撮像される複数の前記実画像を更に取得し、
前記認識部は、前記複数の前記実画像から、前記動作部位の3次元直交座標を認識し、
前記規定部は、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする付記1ないし付記7の何れか一つに記載の画像処理装置。
(付記9)
前記動作部位の3次元直交座標を測距する測距センサを更に備え、
前記規定部は、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする付記1ないし付記7の何れか一つに記載の画像処理装置。
(付記10)
前記表示画像を投影する投影部を更に有し、
前記取得部は、マーカを含む作業対象物体の作業対象物体画像を更に取得し、
前記認識部は、前記マーカに基づいて、前記作業対象物体画像に対応する前記表示画像を認識し、
前記投影部は、前記作業対象物体に前記表示画像を重畳して投影することを特徴とする付記1ないし付記9の何れか一つに記載の画像処理装置。
(付記11)
前記投影部は、前記表示画像と前記作業対象物体の面積を一致させて、前記表示画像を投影することを特徴とする付記10記載の画像処理装置。
(付記12)
前記投影部は、前記表示画像の投影位置を周期的に変化させることを特徴とする付記10記載の画像処理装置。
(付記13)
ユーザの動作部位を含む実画像を取得し、
前記実画像から前記動作部位を認識し、
前記動作部位の位置に基づいて前記実画像の作業領域を規定し、
前記作業領域の第1画像特徴量を算出し、
前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成すること
を含むことを特徴とする画像処理方法。
(付記14)
前記動作部位は、前記ユーザの指先であり、
前記規定することは、前記指先を基点とした所定の面積の領域を前記作業領域として規定することを特徴とする付記13記載の画像処理方法。
(付記15)
前記第1画像特徴量は、前記作業領域の画素値の勾配、前記作業領域の色相分布、または、前記作業領域の前記画素値であることを特徴とする付記13または付記14記載の画像処理方法。
(付記16)
前記生成することは、前記勾配が所定の第1閾値以上の場合、前記第2特徴量として、前記作業領域に含まれる物体または前記動作部位の輪郭線のみとする前記表示画像を生成することを特徴とする付記15記載の画像処理方法。
(付記17)
前記生成することは、前記色相分布が所定の第2閾値以上の場合、前記第2特徴量として、前記作業領域の色相数を削減した前記表示画像を生成することを特徴とする付記15または付記16記載の画像処理方法。
(付記18)
前記生成することは、前記色相分布が前記第2閾値未満の場合、前記第2特徴量として、前記作業領域の色相を補色にした前記表示画像を生成することを特徴とする付記17記載の画像処理方法。
(付記19)
前記生成することは、前記画素値が所定の第3閾値未満の場合、前記第2特徴量として、前記画素値を増加した前記表示画像を生成することを特徴とする付記15ないし付記17の何れか一つに記載の画像処理方法。
(付記20)
前記取得することは、異なる光軸で撮像される複数の前記実画像を更に取得し、
前記認識することは、前記複数の前記実画像から、前記動作部位の3次元直交座標を認識し、
前記規定することは、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする付記13ないし付記19の何れか一つに記載の画像処理方法。
(付記21)
前記動作部位の3次元直交座標を測距することを更に含み、
前記規定することは、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする付記13ないし付記19の何れか一つに記載の画像処理方法。
(付記22)
前記表示画像を投影することを更に含み、
前記取得することは、マーカを含む作業対象物体の作業対象物体画像を更に取得し、
前記認識することは、前記マーカに基づいて、前記作業対象物体画像に対応する前記表示画像を認識し、
前記投影することは、前記作業対象物体に前記表示画像を重畳して投影することを特徴とする付記13ないし付記21の何れか一つに記載の画像処理方法。
(付記23)
前記投影することは、前記表示画像と前記作業対象物体の面積を一致させて、前記表示画像を投影することを特徴とする付記22記載の画像処理方法。
(付記24)
前記投影することは、前記表示画像の投影位置を周期的に変化させることを特徴とする付記22記載の画像処理方法。
(付記25)
コンピュータに
ユーザの動作部位を含む実画像を取得し、
前記実画像から前記動作部位を認識し、
前記動作部位の位置に基づいて前記実画像の作業領域を規定し、
前記作業領域の第1画像特徴量を算出し、
前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成すること
を実行させることを特徴とする画像処理プログラム。
1 第1カメラ
2 第2カメラ
3 画像処理装置
4 投影部
5 取得部
6 認識部
7 規定部
8 算出部
9 生成部

Claims (12)

  1. ユーザの動作部位を含む実画像を取得する取得部と、
    前記実画像から前記動作部位を認識する認識部と、
    前記動作部位の位置に基づいて前記実画像の作業領域を規定する規定部と、
    前記作業領域の第1画像特徴量を算出する算出部と、
    前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成する生成部
    を備えることを特徴とする画像処理装置。
  2. 前記動作部位は、前記ユーザの指先であり、
    前記規定部は、前記指先を基点とした所定の面積の領域を前記作業領域として規定することを特徴とする請求項1記載の画像処理装置。
  3. 前記第1画像特徴量は、前記作業領域の画素値の勾配、前記作業領域の色相分布、または、前記作業領域の前記画素値であることを特徴とする請求項1または請求項2記載の画像処理装置。
  4. 前記生成部は、前記勾配が所定の第1閾値以上の場合、前記第2特徴量として、前記作業領域に含まれる物体または前記動作部位の輪郭線のみとする前記表示画像を生成することを特徴とする請求項3記載の画像処理装置。
  5. 前記生成部は、前記色相分布が所定の第2閾値以上の場合、前記第2特徴量として、前記作業領域の色相数を削減した前記表示画像を生成することを特徴とする請求項3または請求項4記載の画像処理装置。
  6. 前記生成部は、前記色相分布が前記第2閾値未満の場合、前記第2特徴量として、前記作業領域の色相を補色にした前記表示画像を生成することを特徴とする請求項5記載の画像処理装置。
  7. 前記生成部は、前記画素値が所定の第3閾値未満の場合、前記第2特徴量として、前記画素値を増加した前記表示画像を生成することを特徴とする請求項3ないし請求項5の何れか一項に記載の画像処理装置。
  8. 前記取得部は、異なる光軸で撮像される複数の前記実画像を更に取得し、
    前記認識部は、前記複数の前記実画像から、前記動作部位の3次元直交座標を認識し、
    前記規定部は、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする請求項1ないし請求項7の何れか一項に記載の画像処理装置。
  9. 前記動作部位の3次元直交座標を測距する測距センサを更に備え、
    前記規定部は、前記3次元直交座標に基づいて前記作業領域を規定することを特徴とする請求項1ないし請求項7の何れか一項に記載の画像処理装置。
  10. 前記表示画像を投影する投影部を更に有し、
    前記取得部は、マーカを含む作業対象物体の作業対象物体画像を更に取得し、
    前記認識部は、前記マーカに基づいて、前記作業対象物体画像に対応する前記作業領域を認識し、
    前記投影部は、前記作業対象物体に前記表示画像を重畳して投影することを特徴とする請求項1ないし請求項9の何れか一項に記載の画像処理装置。
  11. ユーザの動作部位を含む実画像を取得し、
    前記実画像から前記動作部位を認識し、
    前記動作部位の位置に基づいて前記実画像の作業領域を規定し、
    前記作業領域の第1画像特徴量を算出し、
    前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成すること
    を含むことを特徴とする画像処理方法。
  12. コンピュータに
    ユーザの動作部位を含む実画像を取得し、
    前記実画像から前記動作部位を認識し、
    前記動作部位の位置に基づいて前記実画像の作業領域を規定し、
    前記作業領域の第1画像特徴量を算出し、
    前記第1画像特徴量に基づいて、前記作業領域または前記動作部位を第2画像特徴量に制御した表示画像を生成すること
    を実行させることを特徴とする画像処理プログラム。
JP2014094404A 2014-05-01 2014-05-01 画像処理装置、画像処理方法および画像処理プログラム Expired - Fee Related JP6417702B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014094404A JP6417702B2 (ja) 2014-05-01 2014-05-01 画像処理装置、画像処理方法および画像処理プログラム
US14/695,746 US9710109B2 (en) 2014-05-01 2015-04-24 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014094404A JP6417702B2 (ja) 2014-05-01 2014-05-01 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015212849A true JP2015212849A (ja) 2015-11-26
JP6417702B2 JP6417702B2 (ja) 2018-11-07

Family

ID=54355242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014094404A Expired - Fee Related JP6417702B2 (ja) 2014-05-01 2014-05-01 画像処理装置、画像処理方法および画像処理プログラム

Country Status (2)

Country Link
US (1) US9710109B2 (ja)
JP (1) JP6417702B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016186669A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法
JP2017027311A (ja) * 2015-07-21 2017-02-02 キヤノン株式会社 情報処理装置、その制御方法、プログラム、および記憶媒体
JP2017162401A (ja) * 2016-03-11 2017-09-14 株式会社富士通アドバンストエンジニアリング 作業支援プログラム、作業支援方法、情報処理装置、及び作業支援システム
JP2019045989A (ja) * 2017-08-30 2019-03-22 キヤノン株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
WO2019155719A1 (ja) * 2018-02-09 2019-08-15 ソニー株式会社 キャリブレーション装置とキャリブレーション方法およびプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9507411B2 (en) * 2009-09-22 2016-11-29 Facebook, Inc. Hand tracker for device with display
US9870068B2 (en) 2010-09-19 2018-01-16 Facebook, Inc. Depth mapping with a head mounted display using stereo cameras and structured light
CA2924622C (en) 2013-10-23 2020-03-10 Oculus Vr, Llc. Three dimensional depth mapping using dynamic structured light
US10521050B2 (en) * 2014-11-13 2019-12-31 Maxell, Ltd. Projection video display apparatus and video display method
BR112017018121A2 (pt) 2015-02-25 2018-04-10 Facebook Inc identificação de um objeto em um volume baseada em características de luz refletida pelo objeto
WO2016154218A1 (en) 2015-03-22 2016-09-29 Oculus Vr, Llc Depth mapping with a head mounted display using stereo cameras and structured light
JP6283329B2 (ja) * 2015-05-26 2018-02-21 株式会社オプティム 拡張現実対象認識装置
US10593007B1 (en) * 2015-06-11 2020-03-17 Digimarc Corporation Methods and arrangements for configuring industrial inspection systems
EP3185037B1 (en) * 2015-12-23 2020-07-08 STMicroelectronics (Research & Development) Limited Depth imaging system
JP6857980B2 (ja) * 2016-08-02 2021-04-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
JP2019109709A (ja) * 2017-12-18 2019-07-04 株式会社東芝 画像処理装置、画像処理方法およびプログラム
CN111819841B (zh) * 2018-03-16 2023-07-18 索尼公司 信息处理装置、信息处理方法和存储介质
CN110070063B (zh) * 2019-04-29 2020-06-30 北京字节跳动网络技术有限公司 目标对象的动作识别方法、装置和电子设备
JP2021064320A (ja) * 2019-10-17 2021-04-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021128661A (ja) * 2020-02-17 2021-09-02 セイコーエプソン株式会社 操作検出方法、操作検出装置及び表示システム
CN112164032B (zh) * 2020-09-14 2023-12-29 浙江华睿科技股份有限公司 一种点胶方法、装置、电子设备及存储介质
US11651120B2 (en) * 2020-09-30 2023-05-16 GM Global Technology Operations LLC Method and system of reporting stretching failure in stamping die development

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079550A (ja) * 2008-09-25 2010-04-08 Fuji Xerox Co Ltd 指示システム、指示装置、指示プログラム
JP2010081504A (ja) * 2008-09-29 2010-04-08 Fuji Xerox Co Ltd 画像処理装置、画像処理システム、情報処理システム及び画像処理装置の制御プログラム
US20100315418A1 (en) * 2008-02-12 2010-12-16 Gwangju Institute Of Science And Technology Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality
JP2012104156A (ja) * 2010-06-17 2012-05-31 Ns Solutions Corp 情報処理装置、情報処理方法及びプログラム
JP2012160079A (ja) * 2011-02-01 2012-08-23 Toshiba Corp インターフェイス装置、方法、およびプログラム
US20130249944A1 (en) * 2012-03-21 2013-09-26 Sony Computer Entertainment Europe Limited Apparatus and method of augmented reality interaction
WO2014045683A1 (ja) * 2012-09-21 2014-03-27 ソニー株式会社 制御装置および記憶媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0780722B2 (ja) 1989-07-21 1995-08-30 ソマール株式会社 徐放性抗菌剤含有成形体
JP2001211372A (ja) 2000-01-27 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> 映像投影装置
JP2001222375A (ja) * 2000-02-08 2001-08-17 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
JP2006189712A (ja) 2005-01-07 2006-07-20 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置、情報提示方法及びプログラム
US20070097017A1 (en) * 2005-11-02 2007-05-03 Simon Widdowson Generating single-color sub-frames for projection
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
EP1889732A1 (en) * 2006-08-18 2008-02-20 Setec Oy Method of superimposing an image onto another, method of personalizing a data carrier using the the method
US8558804B2 (en) * 2009-12-14 2013-10-15 Silicon Motion, Inc. Touch control apparatus and touch point detection method
US8373654B2 (en) * 2010-04-29 2013-02-12 Acer Incorporated Image based motion gesture recognition method and system thereof
KR101423536B1 (ko) * 2011-06-14 2014-08-01 한국전자통신연구원 인쇄매체 기반 혼합현실 구현 장치 및 방법
US9411432B2 (en) * 2013-04-18 2016-08-09 Fuji Xerox Co., Ltd. Systems and methods for enabling gesture control based on detection of occlusion patterns

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100315418A1 (en) * 2008-02-12 2010-12-16 Gwangju Institute Of Science And Technology Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality
JP2010079550A (ja) * 2008-09-25 2010-04-08 Fuji Xerox Co Ltd 指示システム、指示装置、指示プログラム
JP2010081504A (ja) * 2008-09-29 2010-04-08 Fuji Xerox Co Ltd 画像処理装置、画像処理システム、情報処理システム及び画像処理装置の制御プログラム
JP2012104156A (ja) * 2010-06-17 2012-05-31 Ns Solutions Corp 情報処理装置、情報処理方法及びプログラム
JP2012160079A (ja) * 2011-02-01 2012-08-23 Toshiba Corp インターフェイス装置、方法、およびプログラム
US20130249944A1 (en) * 2012-03-21 2013-09-26 Sony Computer Entertainment Europe Limited Apparatus and method of augmented reality interaction
WO2014045683A1 (ja) * 2012-09-21 2014-03-27 ソニー株式会社 制御装置および記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
福田達郎, 外1名: ""Kinectを用いた手指投下表示型作業支援ソフトの開発"", 第76回(平成26年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6018009041, 11 March 2014 (2014-03-11), pages 4 - 89, ISSN: 0003757134 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016186669A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法
JP2017027311A (ja) * 2015-07-21 2017-02-02 キヤノン株式会社 情報処理装置、その制御方法、プログラム、および記憶媒体
JP2017162401A (ja) * 2016-03-11 2017-09-14 株式会社富士通アドバンストエンジニアリング 作業支援プログラム、作業支援方法、情報処理装置、及び作業支援システム
JP2019045989A (ja) * 2017-08-30 2019-03-22 キヤノン株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
WO2019155719A1 (ja) * 2018-02-09 2019-08-15 ソニー株式会社 キャリブレーション装置とキャリブレーション方法およびプログラム
JPWO2019155719A1 (ja) * 2018-02-09 2021-02-18 ソニー株式会社 キャリブレーション装置とキャリブレーション方法およびプログラム
JP7294148B2 (ja) 2018-02-09 2023-06-20 ソニーグループ株式会社 キャリブレーション装置とキャリブレーション方法およびプログラム

Also Published As

Publication number Publication date
JP6417702B2 (ja) 2018-11-07
US9710109B2 (en) 2017-07-18
US20150317037A1 (en) 2015-11-05

Similar Documents

Publication Publication Date Title
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6248533B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6089722B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN108701376B (zh) 三维图像的基于识别的对象分割
US10410089B2 (en) Training assistance using synthetic images
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
TWI419081B (zh) 提供擴增實境的標籤追蹤方法、系統與電腦程式產品
WO2020035002A1 (en) Methods and devices for acquiring 3d face, and computer readable storage media
US8442269B2 (en) Method and apparatus for tracking target object
US9507437B2 (en) Algorithms, software and an interaction system that support the operation of an on the fly mouse
US10091489B2 (en) Image capturing device, image processing method, and recording medium
US20170243352A1 (en) 3-dimensional scene analysis for augmented reality operations
US10642422B2 (en) Information processing apparatus, control method for the information processing apparatus, and storage medium
US9886769B1 (en) Use of 3D depth map with low and high resolution 2D images for gesture recognition and object tracking systems
JP2016162162A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法
JP2014029656A (ja) 画像処理装置および画像処理方法
US20160140762A1 (en) Image processing device and image processing method
JP5051671B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN116912417A (zh) 基于人脸三维重建的纹理贴图方法、装置、设备和存储介质
CN109816723A (zh) 投影控制方法、装置、投影交互系统及存储介质
US20210264660A1 (en) Scene crop via adaptive view-depth discontinuity
EP2509028B1 (en) Method and system for optically detecting and localizing a two-dimensional, 2D, marker in 2D scene data, and marker therefor
US20200167005A1 (en) Recognition device and recognition method
US20240070889A1 (en) Detecting method, detecting device, and recording medium
US20240069647A1 (en) Detecting method, detecting device, and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R150 Certificate of patent or registration of utility model

Ref document number: 6417702

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees