[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4227561B2 - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP4227561B2
JP4227561B2 JP2004166131A JP2004166131A JP4227561B2 JP 4227561 B2 JP4227561 B2 JP 4227561B2 JP 2004166131 A JP2004166131 A JP 2004166131A JP 2004166131 A JP2004166131 A JP 2004166131A JP 4227561 B2 JP4227561 B2 JP 4227561B2
Authority
JP
Japan
Prior art keywords
image
virtual object
real space
orientation
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004166131A
Other languages
English (en)
Other versions
JP2005346468A5 (ja
JP2005346468A (ja
Inventor
泰弘 奥野
登志一 大島
要 冨手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004166131A priority Critical patent/JP4227561B2/ja
Priority to US11/140,996 priority patent/US8022967B2/en
Publication of JP2005346468A publication Critical patent/JP2005346468A/ja
Publication of JP2005346468A5 publication Critical patent/JP2005346468A5/ja
Application granted granted Critical
Publication of JP4227561B2 publication Critical patent/JP4227561B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、現実空間の画像上に仮想物体の画像を重畳する為の技術に関するものである。
従来より、現実世界の映像と、三次元モデリングされたCG(コンピュータグラフィックス)による映像とを重畳して表示し、あたかも現実の世界中にCGで描かれた物体(仮想物体)が存在しているかのように見せることができるような複合現実感(MR:Mixed Reality)提示装置が存在する。
これは、現実の映像を撮影するための現実映像撮影手段(たとえばビデオカメラ)と、現実の映像を撮影している位置から見たようにCG映像を作り出すCG映像生成手段と、両者を合成して表示することのできる映像表示手段(たとえばHMD(ヘッドマウントディスプレイ)またはモニタ)からなる装置である。
ここでは、現実映像撮影手段の視線の位置姿勢が変わった場合であってもCGと現実映像との位置関係を正しく表示するために、現実映像撮影手段(ビデオカメラ)の視線位置・視線方向を検出するための、視線位置姿勢検出手段(たとえば位置姿勢センサ)を備えている。
CG映像生成手段は、三次元モデリングされたCGを、現実空間と同じスケールの仮想空間に置き、視線位置姿勢検出手段によって検出された視線位置、視線方向から観察されたものとしてCGをレンダリングするものである。このようにして生成されたCG映像と現実の映像とを重畳すると、結果として、現実映像撮影手段がどの視線位置・視線方向から観察した場合でも、現実空間の中に正しくCGで生成された映像が置かれているような映像を表示ことができる。CGの種類や配置の変更、アニメーションなどは、一般的なCGと同様に、自由に行える。CGの位置を指定するためにもうひとつ位置姿勢センサを備えて位置姿勢センサの値どおりの場所にCGを描画することも可能である。そのような構成で位置姿勢センサを手に持ち、センサの位置姿勢でCGを観察することが従来より行われている。
現実空間の映像を撮影する現実映像撮影手段は、たとえばビデオカメラであり、カメラの視線方向にある映像を撮影し、メモリ中にキャプチャする手段である。
現実空間の映像とCGとを合成して表示する映像表示装置としては、たとえばHMD(ヘッドマウントディスプレイ)が用いられる。通常のモニタでなくHMDを用いて、さらに上記ビデオカメラをHMDの視線方向に装着することで、観察者が向いている方向の映像をHMDに映し出すことができ、かつ、その方向を向いたときのCGの描画も行えるため、観察者の没入感を高めることができる。
なお、映像表示装置は、ビデオカメラを備えずにHMD前面の様子をそのままシースルーで観察できるような、光学シースルー式と呼ばれるHMDであってもよい。この場合は先に説明した現実映像撮影手段はビデオ撮影によるものではなく光学的にHMD前面を表示装置にそのまま映し出すものとなる。このようなタイプのHMDでは、観察者の前面の風景はデジタル処理なしでそのままシースルーで観察でき、さらにその画面にCGを重畳して表示することができる。
複合現実感提示装置における映像表示手段とは、上記のような映像表示装置に、現実映像とCG画像を重畳した画像を表示するものである。
位置姿勢検出手段としては磁気方式による位置姿勢センサなどが用いられ、これを上記ビデオカメラ(またはビデオカメラが取り付けられているHMD)に取り付ることによって、ビデオカメラの視線の位置姿勢の値を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国ポヒマス(Polhemus)社の製品FASTRAKなどがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(Roll,Pitch,Yaw)をリアルタイムに検出する装置である。
上記の構成により、観察者はHMDを通じて、現実映像とCG映像が重畳された世界を観察することができるようになる。観察者が周囲を見回すと、HMDに備え付けられた現実映像撮影装置(ビデオカメラ)が現実の映像を撮影し、HMDに備え付けられた視線位置姿勢検出手段(位置姿勢センサ)がビデオカメラの位置視線方向を検出し、これに応じてCG映像生成手段がその視線位置・姿勢から見たCG映像を生成(レンダリング)し、これを現実映像に重畳して表示する。
従来の一般的な複合現実感提示方法は、現実映像の画像の上にCG画像を重畳するだけであり、現実に存在する物体とCG物体の奥行き関係は考慮されていない。そのため、観察者がCG物体の手前に手をかざしても、自分の手は見えずに、手の奥にあるCGが観察されてしまうといった問題がある。図2はその状態を説明する図である。
図2(a)は、HMD201を装着した観察者200がCGオブジェクト202に対して手203を差し伸べている状態例を示す図である。
同図に示した状態で観察者200に対してHMD201が提示する画像は、図2(b)に示すようなMR画像204となる。図2(b)では説明上、本来見えるべき指先の部分205を破線で示してある。CGオブジェクト202と手203の奥行き関係からすれば、指先部分205はCGオブジェクト202の手前に描画されるべきであるが、上記従来技術では、CGオブジェクト202の画像は現実映像の上に重畳されるだけであるため、指先部分の画像よりも手前に表示されてしまう。
この問題を解決するために、現実物体とCG物体の重なる領域を検出し、検出した領域におけるCGをマスキングして現実物体が見えるように表示することも従来から行われている(例えば特許文献1を参照)。
この技術では、現実オブジェクト検出手段とCGマスキング手段を備えている。現実オブジェクト検出手段としては、例えば、図2(b)に示したような手とCGオブジェクトの間の重なり合いを正しく表示するためには、現実映像中の手の表示エリアが検出できれば良いので、現実映像の各画素について色が肌色に近いかどうかを判定し、手が撮影されているエリアを検出すればよい。図2(c)は、現実映像から検出された手の領域をマスクするための画像を示す図である。
CGマスキング手段としては、現実オブジェクト検出手段によって手が撮影されているとされた画像領域をCGのステンシルバッファにセットするか、デプスバッファ(Zバッファ)の最小値にセットすることなどによって、該当部分にCGが描画されないようにすることができる。その結果、図2(d)に示す如く、マスク済MR画像207のような画像を得ることができる。
ここで例にあげた方法では、現実映像に肌色が写っている場所はその奥行きにかかわらずCGが描画されなくなるという欠点があるが、CGオブジェクトの位置が常に手よりも奥にあると仮定できる状況においては十分に有効であり、手法も簡便であるため、従来から用いられている。しかし、CGオブジェクトとの現実物体の重なりを常に正しく表現する必要がある場合は、現実オブジェクト検出手段としては上記例のような色などによる検出方法では不十分であり、観察者視点から見た現実物体の奥行き情報を正しく検出する必要がある。
また、現実オブジェクト検出手段として現実空間の奥行き情報を検出する装置を用いる複合現実感提示装置も、従来より用いられている(例えば特許文献2を参照)。この場合のCGマスキング手段としては、装置によって得られた値をCGのZバッファにセットするものとなる。
特開2003-296759号公報 特開平11−331874号公報
従来のシステムでは、CGマスキング処理を行う場合、複合現実感(MR)空間内のすべてのCGに対して処理を行っていた。しかしながら、システムによっては、必ずしもすべてのCGに対してハンドマスキングを行うことが好適ではなかった。
たとえば、観察者に対して、複合現実空間中に表示しているあるCGに対して注意を向けるようにしたいが為に、CGを一時的に点滅させたり強調色にするようななんらかの視覚効果を与え、強調表示する場合がある。そのときにCGオブジェクトが現実オブジェクトに隠れていると観察者に注意を促すことができないという問題があった。
また、複合現実空間中に、情報表示パネルのような常に見えていているべきGUIをCGで表示する場合も、現実オブジェクトとの位置関係にかかわらず常に隠蔽なく表示したいのであるが、GUIが現実オブジェクトに隠されてしまうと表示が消されてしまう問題があった。
よって、上記従来技術ではすべてのCGに対して現実オブジェクトとの隠蔽関係によってマスキングを行ってしまうため、このように、表示する個々のCGの種類や表示の意図に応じて、各CG毎に柔軟にマスキング処理の有り無しを切り替えて表示をすることができないという問題があった。
本発明は以上の問題に鑑みてなされたものであり、現実空間の画像上に仮想物体の画像を重畳する場合に、仮想物体について、現実空間の画像中の所定の領域と重なる部分をマスキングするか否かを切り替え可能にする為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
すなわち、現実空間の画像を取得する現実画像取得工程と
前記現実空間の画像における視点の位置姿勢を取得する視点位置姿勢取得工程と、
仮想物体の画像を、前記位置姿勢に基づいて生成する生成工程と、
前記現実空間の画像から、所定の画素値を有する画素群で構成されている領域をオブジェクト領域として検出する検出工程と、
前記現実空間の画像上に前記仮想物体の画像を重畳させる重畳工程とを備え、
前記重畳工程は、
前記仮想物体の位置と前記視点の位置との間の距離を計算し、計算した距離が所定値より大きい場合には、前記仮想物体に対して割り当てられている書き換え可能なフラグ値をONに変更し、前記計算した距離が前記所定値以下である場合には、前記フラグ値をOFFに変更する工程と、
前記フラグ値がONとなっている場合には、前記仮想物体の画像において前記オブジェクト領域と重なる部分についてはマスキングしてから、前記現実空間の画像上に前記仮想物体の画像を重畳させ、
前記フラグ値がOFFとなっている場合には、前記仮想物体の画像において前記オブジェクト領域と重なる部分についてはマスキングせずに、前記現実空間の画像上に前記仮想物体の画像を重畳させる工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。
すなわち、現実空間の画像を取得する現実画像取得手段と
前記現実空間の画像における視点の位置姿勢を取得する視点位置姿勢取得手段と、
仮想物体の画像を、前記位置姿勢に基づいて生成する生成手段と、
前記現実空間の画像から、所定の画素値を有する画素群で構成されている領域をオブジェクト領域として検出する検出手段と、
前記現実空間の画像上に前記仮想物体の画像を重畳させる重畳手段とを備え、
前記重畳手段は、
前記仮想物体の位置と前記視点の位置との間の距離を計算し、計算した距離が所定値より大きい場合には、前記仮想物体に対して割り当てられている書き換え可能なフラグ値をONに変更し、前記計算した距離が前記所定値以下である場合には、前記フラグ値をOFFに変更する手段と、
前記フラグ値がONとなっている場合には、前記仮想物体の画像において前記オブジェクト領域と重なる部分についてはマスキングしてから、前記現実空間の画像上に前記仮想物体の画像を重畳させ、
前記フラグ値がOFFとなっている場合には、前記仮想物体の画像において前記オブジェクト領域と重なる部分についてはマスキングせずに、前記現実空間の画像上に前記仮想物体の画像を重畳させる手段と
を備えることを特徴とする。
本発明の構成により、現実空間の画像上に仮想物体の画像を重畳する場合に、仮想物体について、現実空間の画像中の所定の領域と重なる部分をマスキングするか否かを切り替え可能にする為の技術を提供することができる。
また、これにより、仮想物体毎にマスキングを行うか否かの設定を個別に行うことができるので、MR空間の状況に応じて柔軟にMR画像を生成することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
以下説明する本実施形態に係る複合現実感提示システムは、現実空間と仮想空間とを融合した周知の複合現実空間(以下、MR空間)を観察者に提示するためのものである。なお、本実施形態に係るシステムにおいても、現実空間と仮想空間とを融合した画像を観察者に提示する場合には、基本的には現実空間の画像、仮想空間の画像の順に描画し、且つ上記従来例のように、仮想物体において現実物体と重なる領域はマスキングするのであるが、本実施形態では、このマスキングを行うか否かが仮想物体毎に設定できる点が従来例とは異なる。以下、本実施形態に係る複合現実感提示システムについて説明する。
図1は、本実施形態に係る複合現実感提示システムの基本構成を示す図である。
本システムは大まかには、コンピュータ100、HMD(ヘッドマウントディスプレイ)104,ビデオカメラ105、位置姿勢センサ108、109、センサコントローラ103により構成されている。以下、これら各部について説明する。
先ずHMD104について説明する。
HMD104は周知の通り、MR空間を体感する観察者の頭部に装着するためのものであり、HMD104に備わっている不図示の表示部が観察者の眼前に位置するように装着される。
HMD104には、観察者がHMD104を頭部に装着した場合に、観察者の視線方向の映像を撮像可能なようにビデオカメラ105が固着されている。よってビデオカメラ105は、HMD104の位置姿勢に応じて見える現実空間の映像を撮像することができる。
またHMD104には位置姿勢センサ108が固着されている。位置姿勢センサ108は磁気センサや超音波センサなどにより構成されており、自身の位置姿勢を計測し、その計測結果を信号としてセンサコントローラ103に出力する。本実施形態では、位置姿勢センサ108は世界座標系(現実空間中の1点を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする空間)における自身の位置姿勢を計測するものとして説明する。位置姿勢センサ108により計測された結果は信号としてセンサコントローラ103に出力され、センサコントローラ103は、受信した信号の強度に応じた数値をコンピュータ100に出力する。
位置姿勢センサ109は、MR空間を体感する観察者が手に持ってMR空間における仮想物体の位置姿勢を変更するためのものであり、センサとしては位置姿勢センサ108と同様のものである。すなわち、位置姿勢センサ109自身の世界座標系における位置姿勢を計測し、その計測結果を信号としてセンサコントローラ103に出力する。センサコントローラ103は同様に、受信した信号の強度に応じて、その計測結果を数値データとしてコンピュータ100に出力する。
次に、コンピュータ100について説明する。
コンピュータ100は一般にはPC(パーソナルコンピュータ)やWS(ワークステーション)などにより構成されている。また、専用のハードウェアにより構成されても良い。コンピュータ100はCPU101、メモリ106,107、操作部150、表示部160により構成されており、これら各部はバス102により互いに接続されている。
CPU101はメモリ106に格納されている各種のプログラムや、メモリ107に格納されている各種のデータを用いて後述する各処理を実行するとともに、コンピュータ100全体の制御を行う。また、後述するセンサコントローラ103とのデータ通信をも制御する。
メモリ106には、CPU101に後述する各種の処理を行わせるための各種のプログラム(現実映像撮影部110、CG映像生成部111、位置姿勢検出部112、現実オブジェクト検出部113、CGマスキング部114、マスキング対象CG指定部115、映像表示部116)が格納されている。これら各種のプログラムについては後述する。また不図示ではあるが、メモリ106には、CPU101がコンピュータ100全体の制御を行うために必要な各種のプログラムが格納されている。
メモリ107には、CPU101が後述の各処理を実行する際に必要とする各種のワークエリアや、CPU101が後述の各処理を実行する際に用いる各種のデータを格納しているエリアなどを備える。また不図示ではあるが、メモリ107には、CPU101がコンピュータ100全体の制御を行うために必要な各種のデータが格納されている。
なお、本実施形態ではメモリ106とメモリ107とは別個のメモリとしているが、これに限定するものではなく、これらのメモリを同一メモリ上に設けるようにしても良い。
操作部150はキーボードやマウスなどにより構成されており、各種の指示をCPU101に対して入力することができる。
表示部160は、CRTや液晶画面などにより構成されており、各種の情報を画像や文字などでもって表示することができる。
なお、コンピュータ100の構成はこれに限定するものではなく、メモリ106,107に記憶されている各種のプログラムやデータを保存するためのハードディスクドライブ装置や、コンピュータ100で処理した結果を、ネットワークを介して外部に出力するためのネットワークI/F部などを更に備えるようにしても良い。
図3は、CPU101がメモリ106に格納されている各プログラムを実行することでなされる、MR画像を生成して観察者に提示する処理のフローチャートである。
ビデオカメラ105は、HMD104の位置姿勢に応じて見える現実空間の動画像を撮像しており、コンピュータ100にはこの動画像を構成する各フレームの画像(現実空間画像)が順次入力される。従ってステップS301では、現実映像撮像部110のプログラムを実行することで、ビデオカメラ105からコンピュータ100に入力された現実空間画像をキャプチャして現実画像メモリ120に格納する処理を行う。
次に、ビデオカメラ105の世界座標系における位置姿勢を得る目的のためステップS302では、位置姿勢検出部112のプログラムを実行し、先ず、位置姿勢センサ108により計測され、センサコントローラ103により数値データに変換した結果を視線位置姿勢メモリ121に格納する処理を行う。そして、ビデオカメラ105と位置姿勢センサ108との位置姿勢関係を用いて周知の変換処理により、位置姿勢センサ108により得られた結果から、ビデオカメラ105の世界座標系における位置姿勢を得る。なお、ビデオカメラ105と位置姿勢センサ108との位置姿勢関係は予め測定されており、データとしてメモリ107中の所定のエリアに格納されているものとする。
以上の処理によりビデオカメラ105の世界座標系における位置姿勢が得られたので、得た結果のデータを視線位置姿勢メモリ121に格納する。
次にステップS303では、位置姿勢センサ109により計測され、センサコントローラ103により数値データに変換した結果をCG位置姿勢メモリ122に格納する。CG位置姿勢メモリ122に格納されたのは上述の通り、位置姿勢センサ109自身の世界座標系における位置姿勢を示すデータである。
次にステップS304では、マスキング対象CG指定部115のプログラムを実行し、仮想空間を構成する仮想物体をレンダリングするためのデータであるCGモデルデータ123を参照し、マスキング対象ではない仮想物体のデータを選択する。このCGモデルデータ123は各仮想物体毎に設けられたものである。
ここで、ステップS304における処理の詳細について説明する。
図4は、1つの仮想物体に対するCGモデルデータの構成例を示す図である。本実施形態で描画する仮想物体(CGオブジェクト)のデータには、従来と同様に、仮想物体の位置姿勢(位置(x、y、z)と姿勢(roll,pitch,yaw))を示す位置姿勢情報402、仮想物体の色や形状などの視覚的な情報であるモデル情報403に加えて、この仮想物体がマスキングの対象となっているか否かを示すためのマスキング対象フラグ401が、このCGモデルデータに含まれている。
このマスキング対象フラグ401はON/OFFを示す1ビットでもって表現されうるものであり、例えばマスキング対象フラグ401の値が「1」(ON)の場合には「マスキングの対象である」ことを示し、「0」(OFF)の場合には、「マスキングの対象ではない」ことを示す。
例えば、仮想物体を強調表示する際、強調表示を行う時間だけその仮想物体のマスキング対象フラグをOFFにすれば、その仮想物体に対してはマスキング処理を行わないので、現実空間の画像、仮想空間の画像の順に描画したものをHMD104の表示部に提示する場合には、この仮想物体と現実物体との位置関係に関わらず、常にこの仮想物体が現実物体に隠蔽されることなく表示されるので、この仮想物体を観察者の注意を引くように表示することができる。このように、動的にマスキング対象フラグ401の値を変更するような場合、マスキング対象CG指定部115のプログラムを実行し、現在が強調表示を行う時間であるか否かを判断し、強調表示を行う時間であると判断した場合には、表示しようとする仮想物体のCGモデルデータにおけるマスキング対象フラグ401をOFFにする。
また、常に観察者に提示する必要がある操作パネル(GUIとしての仮想物体)に対して常にマスキング対象フラグをoffに維持することが考えられる。このように、予めマスキング対象外の仮想物体が決まっている場合、このような仮想物体のCGモデルデータにおけるマスキング対象フラグ401を、コンピュータ100のオペレータにより操作部150を用いて予め設定しておく。その場合も、実際のフラグ値設定処理は、マスキング対象CG指定部115のプログラムを実行する事によりなされる。
また、位置姿勢センサ109の位置に仮想物体を配置する場合、観察者が位置姿勢センサ109を手に持って観察しようとすると、自分の手によって仮想物体が隠れてしまう場合も考えられる。位置関係としては仮想物体が手に隠れるのが正しくとも、仮想物体の全体を観察したいという場合がある。このような場合に、位置姿勢センサ109の位置に表示する仮想物体のマスキング対象フラグをOFFにすることも考えられる。このように、予め位置姿勢センサ109の位置に配置する仮想物体の全体を観察したいという場合、この仮想物体のCGモデルデータにおけるマスキング対象フラグ401を、コンピュータ100のオペレータにより操作部150を用いて予め設定しておく。その場合も、実際のフラグ値設定処理は、マスキング対象CG指定部115のプログラムを実行する事によりなされる。
さらに、ビデオカメラ105の近傍に仮想物体を表示しようとする際、ビデオカメラ105と仮想物体との間に現実物体が入り込む可能性がなくなるので、そのような仮想物体に対してはマスキング対象フラグをOFFにすることが考えられる。その場合、マスキング対象CG指定部115のプログラムを実行し、表示しようとする仮想物体の世界座標系における位置(位置姿勢情報402により取得可)とビデオカメラ105の世界座標系における位置(ステップS302で取得可)とを用いて互いの間隔を計算し、計算した間隔が所定値以下になった場合には、表示しようとする仮想物体のCGモデルデータにおけるマスキング対象フラグ401をOFFにする。
このように、様々な状況においてマスキングを行わない仮想物体のマスキング対象フラグ401のON/OFFを、マスキング対象CG指定部115のプログラムを実行することにより切り替え、設定することができる。
従って、ステップS304では、各仮想物体のCGモデルデータ内のマスキング対象フラグ401の値を参照し、このマスキング対象フラグ401がOFFであるCGモデルデータのみを描画対象とし、ステップS305でCG映像生成部111のプログラムを実行することにより、CGモデルデータにおけるモデル情報403に従って、描画対象となった仮想物体の画像を画像メモリ124上に生成(レンダリング)する。なお、このレンダリングの際には、ステップS302で視線位置姿勢メモリ121に格納されたデータ、及びCGモデルデータにおける位置姿勢情報402を用いて、ビデオカメラ105から見える仮想物体の画像を生成する。
なお、位置姿勢が動的に変化する仮想物体(例えば位置姿勢センサ109の位置に配置される仮想物体)をレンダリングする場合、上記レンダリング処理の前にこの仮想物体の位置姿勢情報402を適宜更新する。そして更新後の位置姿勢情報402と、ステップS302で視線位置姿勢メモリ121に格納されたデータとを用いて、ビデオカメラ105から見える仮想物体の画像を生成する。
なお、所定の視点位置姿勢から見える仮想物体画像のレンダリング技術については周知の技術であるので、ここでの説明は省略する。
次にステップS306では、現実オブジェクト検出部113のプログラムを実行することで、現実画像メモリ120に格納されている画像中で、特定のオブジェクトが占めている領域を検出する処理を行う。例えば現実空間画像における手が占める領域を検出する場合、この画像において肌色(予め「手」の色であろうと思われる肌色)を示す画素値を有する画素群を検出することによりなされる。検出した画素群による画像(現実空間画像において手の領域中の画像)をマスキング画像メモリ125に格納する。
つぎに、ステップS307で、CGマスキング部114のプログラムを実行することにより、ステップS306で検出された画像領域をマスキングする。具体的には、従来からなされているように、ステップS306で検出された画像領域に対して、ステンシルバッファやZバッファを用いることによって、以降の処理で、この領域に仮想物体の画像が描画されないようにする。
なお、ステップS306における現実オブジェクト検出部113のプログラムを実行することによりなされる処理、ステップS307のCGマスキング部114のプログラムを実行することによりなされる処理の内容はこれに限定するものではなく、同様の目的を達成するためのものであれば、他の処理も適用可能である。
例えば、ビデオカメラ105として現実空間の奥行き情報を検出できるようなデプスカメラを適用した場合に、現実オブジェクト検出部113のプログラムを実行することにより、この奥行き情報をマスキング画像メモリ125に記録し、CGマスキング部114のプログラムを実行することにより、デプスカメラから得られた奥行き情報をZバッファにセットすることなどが考えられる。
つぎに、ステップS308で、マスキング対象フラグ401がONである仮想物体のCGモデルデータを描画対象として読み出し、ステップS309で、CG映像生成部111のプログラムを実行することにより、ステップS308で読み出したCGモデルデータにおけるモデル情報403に従って、描画対象となった仮想物体の画像を画像メモリ124上に上書き生成生成(上書きレンダリング)する。このレンダリング処理は基本的には、ステップS305と同様の処理であるが、以下の点で異なる。
すなわち、レンダリングする画像において、ステップS307でマスキング箇所となった画像領域(現実空間画像と重畳した場合に、ステップS306で検出した画像領域と重なる領域)は何も描画しない。
そしてステップS310で、映像表示部116のプログラムを実行することにより、先ず、現実画像メモリ120に記録された画像(現実空間画像)上に、ステップS309でCG画像メモリ124上にレンダリングした画像(マスキング対象フラグ401がONの仮想物体の画像とマスキング対象フラグ401がOFFの仮想物体の画像とが合成されている画像)を重畳させる。これにより、現実空間画像においてマスキングしていない部分にはマスキング対象フラグ401がON、OFF何れの仮想物体もその画像が描画され、マスキングしている部分にはマスキング対象フラグ401がONの仮想物体の画像は描画されないが、マスキング対象フラグ401がOFFの画像は描画されうる。
これにより、各仮想物体毎に、マスキングするか否かを個別に設定することができ、また、その設定に応じたMR画像を生成することができる。生成したMR画像は、表示部160、HMD104の表示部に出力し、それぞれにおいて表示させる。
そして以上の処理をビデオカメラ105から入力される各フレームについて行うことで、観察者にビデオカメラ105から見えるMR空間の画像を提示することができる。
以上の説明により、本実施形態では、仮想物体毎にマスキングを行うか否かの設定を個別に行うことができるので、MR空間の状況に応じて柔軟にMR画像を生成することができる。
[第2の実施形態]
第1の実施形態では、位置姿勢センサ108(109)は自身の世界座標系における位置姿勢を計測するものとして説明したが、これに限定するものではなく、例えば位置姿勢センサ108(109)が所定の座標系における位置姿勢を計測する場合、コンピュータ100側でこの所定の座標系と世界座標系との位置姿勢関係を示すデータを保持しておけば、このデータを用いて位置姿勢センサ108(109)で計測した結果を周知の計算方法により世界座標系における位置姿勢に変換することができるので、位置姿勢センサ108(109)が何れの座標系における位置姿勢を計測してもコンピュータ100側では位置姿勢センサ108(109)の世界座標系を得ることができる。従って必ずしも位置姿勢センサ108(109)は世界座標系における位置姿勢を計測するものと限定することはない。
[第3の実施形態]
上記実施形態では、マスキング対象フラグ401のON/OFFはオペレータ、もしくはCPU101が自動的に切り替えていたが、観察者の意志に応じて切り替えるようにしても良い。
例えば観察者は位置姿勢センサ109を手に持っているので、観察者が他の物体(現実物体、仮想物体)に隠蔽されることなく観察したい仮想物体の近くに位置姿勢センサ109を近づけることで、この仮想物体のマスキング対象フラグ401をOFFにするようにしてもよい。この場合、CPU101は、センサコントローラ103から得られる「位置姿勢センサ109の世界座標系における位置」と、各仮想物体のCGモデルデータ中の位置姿勢情報402から得られる「仮想物体の世界座標系における位置」とを参照し、位置姿勢センサ109との距離が所定値以下の位置に仮想物体が存在した場合には、この仮想物体のマスキング対象フラグ401をOFFにする。これにより、マスキングを行うことなく、且つ何にも隠蔽されることなくこの仮想物体を観察することができる。
また、この仮想物体と位置姿勢センサ109との距離が所定値以上になった場合には、この仮想物体のマスキング対象フラグ401をONにする。
これにより、観察者が他の物体(現実物体、仮想物体)に隠蔽されることなく観察したい仮想物体を任意に選択することができる。なお、この選択方法についてはこれに限定するものではなく、如何なるユーザインターフェース、如何なる方法を用いても同様の目的が達成されるのであれば、特に限定するものではない。
また、逆に、マスキング対象フラグ401をONにしたい仮想物体を選択するようにしても良い。その場合の処理は上述の通り、位置姿勢センサ109をその仮想物体に近づけるようにしても良いし、上述の通り、その他の方法でも良い。
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係る複合現実感提示システムの基本構成を示す図である。 (a)は、HMD201を装着した観察者200がCGオブジェクト202に対して手203を差し伸べている状態例を示す図、(b)は(a)に示した状態で観察者200に対してHMD201が提示するMR画像204を示す図、(c)は現実映像から検出された手の領域をマスクするための画像を示す図、(d)はマスク済MR画像207を示す図である。 CPU101がメモリ106に格納されている各プログラムを実行することでなされる、MR画像を生成して観察者に提示する処理のフローチャートである。 1つの仮想物体に対するCGモデルデータの構成例を示す図である。

Claims (4)

  1. 現実空間の画像を取得する現実画像取得工程と
    前記現実空間の画像における視点の位置姿勢を取得する視点位置姿勢取得工程と、
    仮想物体の画像を、前記位置姿勢に基づいて生成する生成工程と、
    前記現実空間の画像から、所定の画素値を有する画素群で構成されている領域をオブジェクト領域として検出する検出工程と、
    前記現実空間の画像上に前記仮想物体の画像を重畳させる重畳工程とを備え、
    前記重畳工程は、
    前記仮想物体の位置と前記視点の位置との間の距離を計算し、計算した距離が所定値より大きい場合には、前記仮想物体に対して割り当てられている書き換え可能なフラグ値をONに変更し、前記計算した距離が前記所定値以下である場合には、前記フラグ値をOFFに変更する工程と、
    前記フラグ値がONとなっている場合には、前記仮想物体の画像において前記オブジェクト領域と重なる部分についてはマスキングしてから、前記現実空間の画像上に前記仮想物体の画像を重畳させ、
    前記フラグ値がOFFとなっている場合には、前記仮想物体の画像において前記オブジェクト領域と重なる部分についてはマスキングせずに、前記現実空間の画像上に前記仮想物体の画像を重畳させる工程と
    を備えることを特徴とする画像処理方法。
  2. コンピュータに請求項1に記載の画像処理方法を実行させる為のプログラム。
  3. 請求項に記載のプログラムを格納した、コンピュータ読みとり可能な記憶媒体。
  4. 現実空間の画像を取得する現実画像取得手段と
    前記現実空間の画像における視点の位置姿勢を取得する視点位置姿勢取得手段と、
    仮想物体の画像を、前記位置姿勢に基づいて生成する生成手段と、
    前記現実空間の画像から、所定の画素値を有する画素群で構成されている領域をオブジェクト領域として検出する検出手段と、
    前記現実空間の画像上に前記仮想物体の画像を重畳させる重畳手段とを備え、
    前記重畳手段は、
    前記仮想物体の位置と前記視点の位置との間の距離を計算し、計算した距離が所定値より大きい場合には、前記仮想物体に対して割り当てられている書き換え可能なフラグ値をONに変更し、前記計算した距離が前記所定値以下である場合には、前記フラグ値をOFFに変更する手段と、
    前記フラグ値がONとなっている場合には、前記仮想物体の画像において前記オブジェクト領域と重なる部分についてはマスキングしてから、前記現実空間の画像上に前記仮想物体の画像を重畳させ、
    前記フラグ値がOFFとなっている場合には、前記仮想物体の画像において前記オブジェクト領域と重なる部分についてはマスキングせずに、前記現実空間の画像上に前記仮想物体の画像を重畳させる手段と
    を備えることを特徴とする画像処理装置。
JP2004166131A 2004-06-03 2004-06-03 画像処理方法、画像処理装置 Expired - Fee Related JP4227561B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004166131A JP4227561B2 (ja) 2004-06-03 2004-06-03 画像処理方法、画像処理装置
US11/140,996 US8022967B2 (en) 2004-06-03 2005-06-01 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004166131A JP4227561B2 (ja) 2004-06-03 2004-06-03 画像処理方法、画像処理装置

Publications (3)

Publication Number Publication Date
JP2005346468A JP2005346468A (ja) 2005-12-15
JP2005346468A5 JP2005346468A5 (ja) 2007-07-05
JP4227561B2 true JP4227561B2 (ja) 2009-02-18

Family

ID=35498777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004166131A Expired - Fee Related JP4227561B2 (ja) 2004-06-03 2004-06-03 画像処理方法、画像処理装置

Country Status (2)

Country Link
US (1) US8022967B2 (ja)
JP (1) JP4227561B2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004265193A (ja) * 2003-03-03 2004-09-24 Canon Inc 情報処理方法、情報処理装置、サーバ装置の制御方法、サーバ装置
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
JP4594136B2 (ja) * 2005-03-09 2010-12-08 キヤノン株式会社 画像処理方法、画像処理装置
US7868904B2 (en) * 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
US8797352B2 (en) * 2005-08-09 2014-08-05 Total Immersion Method and devices for visualising a digital model in a real environment
JP4909176B2 (ja) * 2007-05-23 2012-04-04 キヤノン株式会社 複合現実感提示装置及びその制御方法、コンピュータプログラム
JP4933406B2 (ja) * 2007-11-15 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法
JP5214730B2 (ja) * 2008-06-23 2013-06-19 パナソニック株式会社 合成装置および合成方法
JP5414380B2 (ja) * 2009-06-23 2014-02-12 キヤノン株式会社 画像処理方法及び画像処理装置
JP5734080B2 (ja) * 2011-05-10 2015-06-10 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
FR2984057B1 (fr) 2011-12-13 2014-01-03 Solidanim Systeme de tournage de film video
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
GB2502591B (en) 2012-05-31 2014-04-30 Sony Comp Entertainment Europe Apparatus and method for augmenting a video image
JP6201990B2 (ja) * 2012-06-18 2017-09-27 ソニー株式会社 画像表示装置、画像表示プログラム及び画像表示方法
US8761448B1 (en) 2012-12-13 2014-06-24 Intel Corporation Gesture pre-processing of video stream using a markered region
EP2779102A1 (en) * 2013-03-12 2014-09-17 E.sigma Systems GmbH Method of generating an animated video sequence
US9292103B2 (en) * 2013-03-13 2016-03-22 Intel Corporation Gesture pre-processing of video stream using skintone detection
US20160033770A1 (en) 2013-03-26 2016-02-04 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
TWI649675B (zh) * 2013-03-28 2019-02-01 新力股份有限公司 Display device
DE102013207528A1 (de) * 2013-04-25 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Interagieren mit einem auf einer Datenbrille angezeigten Objekt
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
JP6597235B2 (ja) * 2015-11-30 2019-10-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2018092313A (ja) * 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2019053423A (ja) * 2017-09-13 2019-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN108398787B (zh) * 2018-03-20 2023-05-16 京东方科技集团股份有限公司 增强现实显示设备、方法和增强现实眼镜
TWI805725B (zh) * 2018-06-07 2023-06-21 日商索尼半導體解決方案公司 資訊處理裝置、資訊處理方法及資訊處理系統
JP7349793B2 (ja) * 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
WO2020188655A1 (ja) * 2019-03-15 2020-09-24 マクセル株式会社 複合現実表示装置および複合現実表示方法
JP2021009270A (ja) 2019-07-03 2021-01-28 セイコーエプソン株式会社 表示装置および表示方法
US12020379B2 (en) 2020-04-17 2024-06-25 Apple Inc. Virtual anchoring systems and methods for extended reality
US20230230333A1 (en) 2020-08-25 2023-07-20 Maxell, Ltd. 3d virtual-reality display device, head-mounted display, and 3d virtual-reality display method
US11783550B2 (en) 2020-09-17 2023-10-10 Apple Inc. Image composition for extended reality systems

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4200890A (en) * 1977-07-11 1980-04-29 Nippon Electric Company, Ltd. Digital video effects system employing a chroma-key tracking technique
US4872056A (en) * 1987-02-05 1989-10-03 Video Graphic Styling, Inc. Method for displaying selected hairstyles in video form
US5384912A (en) * 1987-10-30 1995-01-24 New Microtime Inc. Real time video image processing system
US5060171A (en) * 1989-07-27 1991-10-22 Clearpoint Research Corporation A system and method for superimposing images
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
GB9121707D0 (en) * 1991-10-12 1991-11-27 British Aerospace Improvements in computer-generated imagery
US5469536A (en) * 1992-02-25 1995-11-21 Imageware Software, Inc. Image editing system including masking capability
US5345313A (en) * 1992-02-25 1994-09-06 Imageware Software, Inc Image editing system for taking a background and inserting part of an image therein
JP3193930B2 (ja) 1992-07-08 2001-07-30 松下電器産業株式会社 画像入力合成装置
JPH07311857A (ja) * 1994-05-16 1995-11-28 Fujitsu Ltd 画像合成表示装置およびシミュレーションシステム
JPH08101924A (ja) 1994-09-30 1996-04-16 Hitachi Ltd 画像合成方法
US5905499A (en) * 1995-07-05 1999-05-18 Fakespace, Inc. Method and system for high performance computer-generated virtual environments
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
JP3962115B2 (ja) * 1996-11-08 2007-08-22 オリンパス株式会社 映像観察装置
US6034739A (en) * 1997-06-09 2000-03-07 Evans & Sutherland Computer Corporation System for establishing a three-dimensional garbage matte which enables simplified adjusting of spatial relationships between physical and virtual scene elements
US6320580B1 (en) * 1997-11-07 2001-11-20 Sega Enterprises, Ltd. Image processing apparatus
US6166744A (en) * 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
JP3745117B2 (ja) 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
WO2000007364A1 (fr) * 1998-07-30 2000-02-10 Matsushita Electric Industrial Co., Ltd. Synthetiseur d'images mobiles
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
JP2001269481A (ja) * 2000-03-24 2001-10-02 Konami Computer Entertainment Japan Inc ゲームシステム、ゲームシステムにおける画像描画方法およびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体
US6593925B1 (en) * 2000-06-22 2003-07-15 Microsoft Corporation Parameterized animation compression methods and arrangements
US7149549B1 (en) * 2000-10-26 2006-12-12 Ortiz Luis M Providing multiple perspectives for a venue activity through an electronic hand held device
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP3406965B2 (ja) * 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法
JP3635051B2 (ja) * 2001-02-01 2005-03-30 株式会社ソニー・コンピュータエンタテインメント 画像生成方法及び装置、画像処理プログラムを記録した記録媒体、画像処理プログラム
JP4649050B2 (ja) * 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
JP4136420B2 (ja) * 2002-03-29 2008-08-20 キヤノン株式会社 情報処理方法および装置
US6828973B2 (en) * 2002-08-02 2004-12-07 Nexvisions Llc Method and system for 3-D object modeling
US7440634B2 (en) * 2003-06-17 2008-10-21 The Trustees Of Columbia University In The City Of New York Method for de-blurring images of moving objects
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
JP4218952B2 (ja) * 2003-09-30 2009-02-04 キヤノン株式会社 データ変換方法及び装置
JP3991020B2 (ja) * 2003-09-30 2007-10-17 キヤノン株式会社 画像表示方法及び画像表示システム
JP4307222B2 (ja) * 2003-11-17 2009-08-05 キヤノン株式会社 複合現実感提示方法、複合現実感提示装置
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
US20050288078A1 (en) * 2004-05-28 2005-12-29 Cheok Adrian D Game

Also Published As

Publication number Publication date
US20060044327A1 (en) 2006-03-02
JP2005346468A (ja) 2005-12-15
US8022967B2 (en) 2011-09-20

Similar Documents

Publication Publication Date Title
JP4227561B2 (ja) 画像処理方法、画像処理装置
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP4950834B2 (ja) 画像処理装置、画像処理方法
KR102384232B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP4401728B2 (ja) 複合現実空間画像生成方法及び複合現実感システム
JP4883774B2 (ja) 情報処理装置及びその制御方法、プログラム
JP2009025918A (ja) 画像処理装置、画像処理方法
US20070132662A1 (en) Information processing method, information processing apparatus, and image sensing apparatus
US20080106488A1 (en) Image processing apparatus and image processing method
JP4574323B2 (ja) 画像処理方法、画像処理装置
US8098263B2 (en) Image processing method and image processing apparatus
JP2007004713A (ja) 画像処理方法、画像処理装置
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2007004714A (ja) 情報処理方法、情報処理装置
JP2005251118A (ja) 画像処理方法、画像処理装置
JP2018063567A (ja) 画像処理装置、画像処理方法およびプログラム
JP7279113B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2006252468A (ja) 画像処理方法、画像処理装置
JP2005128877A (ja) 複合現実感提示システム及び方法、情報処理装置及び方法、並びにコンピュータプログラム
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP2009015648A (ja) 画像処理装置、画像処理方法
JP2019040356A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2004013309A (ja) 情報処理方法および複合現実感提示装置
JP2006343954A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070523

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4227561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees