[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4677281B2 - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP4677281B2
JP4677281B2 JP2005138455A JP2005138455A JP4677281B2 JP 4677281 B2 JP4677281 B2 JP 4677281B2 JP 2005138455 A JP2005138455 A JP 2005138455A JP 2005138455 A JP2005138455 A JP 2005138455A JP 4677281 B2 JP4677281 B2 JP 4677281B2
Authority
JP
Japan
Prior art keywords
orientation
virtual object
image processing
hand
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005138455A
Other languages
English (en)
Other versions
JP2006318095A5 (ja
JP2006318095A (ja
Inventor
康生 片野
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005138455A priority Critical patent/JP4677281B2/ja
Priority to US11/416,579 priority patent/US7834909B2/en
Publication of JP2006318095A publication Critical patent/JP2006318095A/ja
Publication of JP2006318095A5 publication Critical patent/JP2006318095A5/ja
Application granted granted Critical
Publication of JP4677281B2 publication Critical patent/JP4677281B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、現実空間と仮想空間との位置あわせ技術に関するものである。
複合現実感システムとは、現実空間映像と、ユーザの視点位置、視線方向等に応じて生成される仮想空間映像とを合成することにより得られる合成映像をユーザに提供するものである(特許文献1を参照)。複合現実感システムでは、現実空間中に仮想物体が実在しているかのような感覚を観察者に提示することが可能であり、従来の仮想現実感システム(VRシステム)に比べてよりリアルに、実寸感覚を伴った観察が可能である。
一方、従来、設計・製造分野において3次元CADで設計された物体の操作性・メンテナンス性・組み立て性を検証する方法として、仮想空間上に表示した仮想物体の手を現実物体の手で操作することであたかも自分の手でそこに試作中の物体が有るかのように触れ、操作・検証する方法がある。
そのためには、現実物体の手に一致するように仮想物体の位置・姿勢および拡大倍率を補正する必要がある。
特開2002−159019号公報
しかし、上記のシステムにおいて現実物体の手と仮想物体の手とを正確にキャリブレーションするためには、全体の大きさ、手のひらの幅・高さ、指の長さなど多くの補正パラメータが存在する。さらに手のように複雑かつ柔軟な形状を持った物体のキャリブレーションにおいては手形状の変形にも対応する必要がある。通常はマウスや3次元ポインティングデバイスなど空間上の任意の点を指定することができる装置を使用して、拡大倍率を補正するためのすべての特徴点を指定することで拡大倍率を補正する手法を用いることが多い。しかしこのような手法では、キャリブレーションに長い時間がかかり、システムのインタフェースを損なう問題がある。
また、上記の検証システムを複数人数で使用する場合には、操作者が交代すると同時に現実物体の手が変更されるため、キャリブレーションを頻繁に行う必要があり、キャリブレーションの簡易化・高速化は大きな問題となる。
上記のように現実物体の手のような複雑・柔軟な形状の物体に対して頻繁にキャリブレーションを行う必要がある場合には高速に、簡易に現実物体と仮想物体とのキャリブレーションを行う方法が求められている。
本発明は以上のような問題に鑑みて成されたものであり、ユーザの部位、特に手と、この手を表す仮想物体との位置姿勢合わせ、サイズ合わせを簡便に行うための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、画像処理装置が行う画像処理方法であって、
前記画像処理装置の取得手段が、ユーザの部位の位置姿勢と、現実物体の位置姿勢とを取得する取得工程と、
前記画像処理装置の配置手段が、前記部位を表す仮想物体を、仮想空間中の前記現実物体に設定された領域内に予め設定された位置姿勢で配置する配置工程と、
前記画像処理装置の算出手段が、前記部位と前記現実物体との位置姿勢関係、及び前記仮想物体と前記現実物体との位置姿勢関係を用いて、前記部位と前記仮想物体との位置姿勢関係を求める算出工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、ユーザの部位の位置姿勢と、現実物体の位置姿勢とを取得する取得手段と、
前記部位を表す仮想物体を、仮想空間中の前記現実物体に設定された領域内に予め設定された位置姿勢で配置する配置手段と、
前記部位と前記現実物体との位置姿勢関係、及び前記仮想物体と前記現実物体との位置姿勢関係を用いて、前記部位と前記仮想物体との位置姿勢関係を求める算出手段と
を備えることを特徴とする。
本発明の構成により、ユーザの部位、特に手と、この手を表す仮想物体との位置姿勢合わせ、サイズ合わせを簡便に行うことができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
本実施形態では、ユーザの部位の一例として手を用いる。よって以下の説明では、ユーザの手と、手を表す仮想物体との位置姿勢合わせ、及びサイズ合わせを行うための技術について説明する。
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者に提供するための本実施形態に係るシステムの機能構成を示すブロック図である。
同図において200はトランスミッタで、磁場を発生させる。100は観察者の頭部に装着し、現実空間と仮想空間とを合成した複合現実空間の画像を観察者の眼前に提供する為の頭部装着型表示装置(以下、HMD:Head Mounted Displayと呼称する)で、カメラ102a、102b、表示装置101a、101b、磁気レシーバ201により構成されている。
カメラ102a、102bはそれぞれHMD100を頭部に装着した観察者の右目、左目の位置から見える現実空間の動画像を撮像するものであり、撮像した各フレームの画像は後段のコンピュータ400に出力される。以下では、カメラ102a、102bを総称して「視点」と呼称する場合がある。
表示装置101a、101bはそれぞれ、観察者がHMD100を頭部に装着したときに右目、左目の眼前に位置するようにHMD100に装着されたものであり、後段のコンピュータ400から出力された画像信号に基づいた画像を表示する。従って観察者の右目、左目の眼前にはコンピュータ400が生成した画像が提供されることになる。
磁気レシーバ201は、上記トランスミッタ200が発する磁場の変化を検知し、検知した結果の信号を後段の位置姿勢計測装置205に出力するものである。検知した結果の信号は、トランスミッタ200の位置を原点とし、この原点の位置で互いに直交する3軸をx、y、z軸とする座標系(以下、センサ座標系と呼称する)において、磁気レシーバ201の位置姿勢に応じて検知される磁場の変化を示す信号である。位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ201の位置姿勢を求め、求めた位置姿勢を示すデータを後段のコンピュータ400に出力する。
210は観察者の手に装着するグローブで、これには磁気レシーバ203が備わっている。従って観察者が手にこのグローブ210を装着してその位置や姿勢を変化させると、この磁気レシーバ203は磁気レシーバ201と同様に、センサ座標系における自身の位置姿勢に応じて検知される磁場の変化を示す信号(換言すれば、センサ座標系における磁気レシーバ203自身の位置姿勢を示す信号)を位置姿勢計測装置205に出力する。従って位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ203の位置姿勢を求めることができ、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。なお、観察者の手の位置姿勢が計測できればグローブ210は必須なものではなく、例えば手に直接磁気レシーバ203を装着するようにしても良い。
300は観察者の手を載置するためのトレイで、机など、水平面上に配置する。また、トレイ300には磁気レシーバ202が備わっている。磁気レシーバ202は磁気レシーバ201と同様に、センサ座標系における自身の位置姿勢に応じて検知される磁場の変化を示す信号(換言すれば、センサ座標系における磁気レシーバ202自身の位置姿勢を示す信号)を位置姿勢計測装置205に出力する。従って位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ202の位置姿勢を求めることができ、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。
400はコンピュータで、HMD100の表示装置101a、101bに出力すべき画像信号を生成したり、位置姿勢計測装置205からのデータを受け、これを管理したり等の処理を行う。
図2は、このコンピュータ400の機能構成を示す図である。
401R、401Lは映像キャプチャ部であり、それぞれカメラ102a、102bより入力した画像をディジタル信号として取り込む。
404は位置姿勢情報入力部であり、位置姿勢計測装置205から出力されたデータを取り込む。このデータには、磁気レシーバ201、202,203のセンサ座標系における位置姿勢を示すデータが含まれる。
405は位置姿勢算出部であり、カメラ102a、102bとトレイ300(磁気レシーバ202)との位置姿勢関係を求める。ここで、磁気レシーバ201とカメラ102a、102bそれぞれとの位置姿勢関係(バイアス)は予め求められているものとする。よって、位置姿勢情報入力部404から磁気レシーバ201のセンサ座標系における位置姿勢を示すデータが入力されると、このデータに上記バイアスを加えることで、センサ座標系におけるカメラ102a、102bの位置姿勢を求めることができる。そして、センサ座標系におけるカメラ102a、102bの位置姿勢と、位置姿勢情報入力部404から入力される磁気レシーバ202のセンサ座標系における位置姿勢とを用いて、それぞれの位置姿勢関係を求める。
406は、3DCG描画データDBで、仮想空間を構成する仮想物体の映像を生成するためのデータ(3DCG描画データ)のDBである。3DCG描画データには、仮想物体の幾何学形状や色を示すデータ、テクスチャデータ、位置、姿勢を示すデータなどが含まれる。本実施形態では、この3DCG描画データには、一般的なサイズ、形状を有する手の仮想物体(以下、手形仮想物体と呼称する)の映像を生成するためのデータも含まれているものとする。
407はCGレンダリング部で、位置姿勢算出部405が算出したカメラ102a、102bの位置姿勢に応じて見える仮想空間の映像を生成する。
402R、402Lはそれぞれ映像合成部であり、映像キャプチャ部401R、401Lから入力した現実空間の画像上に、CGレンダリング部407が生成したカメラ102aの位置姿勢に応じて見える仮想物体の画像、カメラ102bの位置姿勢に応じて見える仮想物体の画像を重畳させるのであるが、その際に、現実空間の画像において観察者の手(ここではグローブ210を装着した手)が写っている領域内には仮想物体の画像は重畳させない。即ち、映像合成部402R、402Lが生成する複合現実空間の画像内に観察者の手が写っている場合には、この手は常に手前に表示されていることになる。このような技術については周知のものであるので、これに関する説明は省略する。
そして映像合成部402R、402Lは、生成した画像をそれぞれ、映像生成部403R、403Lに出力する。これにより、カメラ102aの位置姿勢に応じて見える複合現実空間の画像、カメラ102bの位置姿勢に応じて見える複合現実空間の画像を生成することができる。
403R、403Lはそれぞれ映像生成部であり、それぞれ、映像合成部402R、402Lから出力された複合現実空間の画像をアナログデータに変換し、それぞれ表示装置101a、101bに映像信号として出力する。これにより、HMD100を頭部に装着した観察者の右目、左目の眼前には、それぞれの目に対応した複合現実空間の画像が表示される。
図4は、上記機能構成を有するコンピュータ400のハードウェア構成を示すブロック図である。
401はCPUで、RAM402やROM403に格納されているプログラムやデータを用いてコンピュータ400全体の制御を行うと共に、コンピュータ400が行う後述の各処理を実行する。
402はRAMで、外部記憶装置406からロードされたプログラムやデータを一時的に記憶するためのエリア、I/F407、408を介して受信したデータを一時的に記憶する為のエリア、CPU401が各種の処理を実行する際に用いるワークエリアなど、各種のエリアを適宜提供することができる。
403はROMで、コンピュータ400の設定データやブートプログラムなどを格納する。
404は操作部で、キーボードやマウスなどにより構成されており、本コンピュータ400の操作者が操作することで、各種の指示をCPU401に対して入力することができる。
405は表示部で、CRTや液晶画面などにより構成されており、CPU401による処理結果を画像や文字などでもって表示することができる。
406は外部記憶装置で、ハードディスクドライブ装置に代表される大容量情報記憶装置であって、ここにOS(オペレーティングシステム)や、コンピュータ400が行う後述の各処理をCPU401に実行させるためのプログラムやデータが保存されており、これらはCPU401による制御に従って適宜RAM402にロードされ、CPU401による処理対象となる。
407はI/Fで、上記位置姿勢計測装置205と接続するためのインターフェースとして機能するものであり、上記位置姿勢計測装置205から出力されるデータはこのI/F407を介してRAM402若しくは外部記憶装置406に入力される。
408はI/Fで、上記HMD100に備わっているカメラ102a、102b、表示装置101a、101bと接続するためのインターフェースとして機能するものであり、カメラ102a、102bから送出された画像信号はこのI/F408を介してRAM402若しくは外部記憶装置406に入力される。また、本コンピュータ400が生成した複合現実空間の画像はこのI/F408を介して表示装置101a、101bに送出される。
409は上述の各部を繋ぐバスである。
次に、上記構成を有するコンピュータ400が行う処理について、同処理のフローチャートを示す図5を用いて以下説明する。図5は、グローブ210を装着した手と、手形仮想物体との位置姿勢合わせを行うための処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU401に実行させるためのプログラムやデータは外部記憶装置406に保存されており、これらはCPU401による制御に従って適宜RAM402にロードされ、CPU401がこれを用いて処理を実行することで、コンピュータ400は以下説明する各処理を実行する。
先ず、カメラ102a、102bのそれぞれが撮像した右目用の現実空間画像、左目用の現実空間画像がI/F408を介してRAM402若しくは外部記憶装置406に入力されるので、CPU401はそれぞれをRAM402内に格納する(ステップS501)。
次に、I/F407を介して、位置姿勢計測装置205から送出されたデータ(磁気レシーバ201,202,203のそれぞれのセンサ座標系における位置姿勢を示すデータ)がRAM402に入力されるので、CPU401はそれぞれをRAM402内に格納する(ステップS502)。
次に、CPU401は、トレイ300上に手形仮想物体の輪郭線(手形)を配置する(ステップS503)。ここで、ステップS503における処理について詳細に説明する。
トレイ300は、図3Aに示す如く、机などの水平面上に載置される。図3Aは、トレイ300の載置例を示す図である。また同図に示す如く、このトレイ300上の任意の位置には磁気レシーバ202が装着されている。
先ずCPU401は、外部記憶装置406から手形仮想物体の描画データをRAM402にロードして手形仮想物体を生成し、これをトレイ300上に配置する。センサ座標系におけるトレイ300の面(以下、トレイ面と呼称する)を定義するためのデータ(以下、トレイ面定義データと呼称する)は予め外部記憶装置406に保存されているので、CPU401はこれを読み出し、この面内の所定の位置に手形仮想物体を配置する。なお、手形仮想物体は、以下の処理のために仮想的に配置するものであって、表示するためのものではない。
次に、CPU401は、この手形仮想物体を、トレイ面に正射影する事で、トレイ面上における手形仮想物体の領域を求める。そして、この領域の輪郭線部分、即ち手形を求め、これをトレイ300上に配置する。
図3Bは、トレイ300上に配置された手形仮想物体の輪郭線の例を示す図で、501がこの輪郭線を示す。以下では、観察者は、グローブ210を装着した手を、この輪郭線が示す手形に合わせるように載置する。
なお、ステップS503では、手形仮想物体の輪郭線をトレイ300上に配置したが、これに限定するものではなく、観察者がトレイ300上でどのような位置姿勢でもってグローブ210を装着した手を載置すればよいのかが分かるのであれば、これ以外のものをトレイ300上に配置するようにしても良い。例えば、手形仮想物体をトレイ面上に正射影した領域そのものを配置するようにしても良い。
また、手形仮想物体の輪郭線や、手形仮想物体をトレイ面上に正射影した領域そのものは予め作成しておき、ステップS503では、この予め作成しておいたものをトレイ面上に配置するようにしても良い。
図5に戻って、次に、磁気レシーバ201とカメラ102aとの位置姿勢関係を示すバイアスのデータを外部記憶装置406から読み出し、ステップS502で取得した磁気レシーバ201のセンサ座標系における位置姿勢を示すデータに加えることで、センサ座標系におけるカメラ102aの位置姿勢を求めると共に、磁気レシーバ201とカメラ102bとの位置姿勢関係を示すバイアスのデータを外部記憶装置406から読み出し、ステップS502で取得した磁気レシーバ201のセンサ座標系における位置姿勢を示すデータに加えることで、センサ座標系におけるカメラ102bの位置姿勢を求める(ステップS504)。これにより、センサ座標系における視点の位置姿勢を求める。
そして、輪郭線を配置した仮想空間をカメラ102aから見えた場合に見える画像、カメラ102bから見た場合に見える画像を生成し(ステップS505)、それぞれを、先にステップS501でRAM402内に格納した右目用の現実空間画像、左目用の現実空間画像上に重畳させることで、右目用の複合現実空間画像、左目用の複合現実空間画像をRAM402上に生成する(ステップS506)。なお、この重畳処理の際には上述の通り、現実空間画像において手の領域上には何も重畳させないようにする。
そして、右目用の複合現実空間画像、左目用の複合現実空間画像をそれぞれ、I/F408を介して表示装置101a、101bに出力する(ステップS507)。これにより、それぞれの表示装置101a、101bの表示画面上には、右目用の複合現実空間画像、左目用の複合現実空間画像が表示されるので、観察者の右目、左目の眼前には、それぞれの目の位置姿勢に応じた複合現実空間の画像が提示されることになる。
次に、観察者は、グローブ210を装着した手を上記手形に合わせるようにトレイ300上に載置するのであるが、観察者が、グローブ210を装着した手と、手形とが一致したと判断した場合には(実際には、グローブ210を装着した手と、手形仮想物体とが一致したと判断した場合には)、その旨の指示をコンピュータ400に入力する。入力形態については特に限定するものではなく、キーボードやマウスを用いて入力しても良いし、音声でもって入力するようにしても良い。
そしてCPU401がこの指示入力を検知すると、処理をステップS508を介してステップS509に進め、指示を検知した時点で位置姿勢計測装置205から受けた「センサ座標系における磁気レシーバ202の位置姿勢を示すデータ」と、「センサ座標系における磁気レシーバ203の位置姿勢を示すデータ」とを用いて、磁気レシーバ202と磁気レシーバ203との位置姿勢関係を求める(ステップS509)。
次に、指示を検知した時点で位置姿勢計測装置205から受けた「センサ座標系における磁気レシーバ202の位置姿勢を示すデータ」と、手形仮想物体の配置位置姿勢とを用いて、磁気レシーバ202と手形仮想物体との位置姿勢関係を求める(ステップS510)。
そして、ステップS509で求めた位置姿勢関係と、ステップS510で求めた位置姿勢関係とを用いて、磁気レシーバ203と手形仮想物体との位置姿勢関係を求める(ステップS511)。
ここで、ステップS509からステップS511における処理について図6を用いて説明する。図6は、磁気レシーバ202、203、手形仮想物体のそれぞれの位置姿勢関係を示す図である。ここで、ステップS509において磁気レシーバ202と磁気レシーバ203との位置姿勢関係、換言すれば、磁気レシーバ202の位置姿勢を磁気レシーバ203の位置姿勢に変換するためのマトリクスYを求め、ステップS510において磁気レシーバ202と手形仮想物体との位置姿勢関係、換言すれば、手形仮想物体の配置位置姿勢を磁気レシーバ202の位置姿勢に変換するためのマトリクスXを求めた場合、ステップS511では、マトリクスXとYとの積を求めることで、手形仮想物体の配置位置姿勢を磁気レシーバ203の位置姿勢に変換するためのマトリクスZを求める。
このマトリクスZが、観察者が自身の目で見て、グローブ210を装着した手と手形とが一致したと判断した時点での、手形仮想物体と磁気レシーバ203との位置姿勢のずれを示すものである。従って、このずれのデータを外部記憶装置406に保存しておけば、以降、磁気レシーバ203の位置姿勢をマトリクスZで変換した位置姿勢に手形仮想物体を配置すれば、グローブ210を装着した手の位置姿勢に略一致させて手形仮想物体を配置することができる。
なお、本実施形態では以上の処理ではHMDとしてビデオシースルータイプのものを用いていたが、光学シースルータイプのものを用いても良い。
ここで、以上の処理では、グローブ210を装着した手をトレイ300、即ち水平面上に載置するのであるから、その位置の変化は平面内における2成分、及びこの平面内の回転成分(ヨー角)の3自由度となる。よって、以上の処理で「位置姿勢」とは、位置2成分、姿勢1成分となる。これにより、本来「位置姿勢」とは位置の3成分、及び姿勢3成分の合計6成分であるところ、以上の処理ではこれよりも少ない成分についてキャリブレーションを行うので、キャリブレーション処理を従来よりも高速に行うことができる。
しかし、以上の処理だけでは、グローブ210を装着した手のサイズと、手形仮想物体のサイズとは一致していない。これは手形仮想物体が一般的なサイズに作成されているためであり、このサイズは当然、特定の観察者に一致するとは限らない。そこで、以上の処理の後に、更に、手形仮想物体のサイズとグローブ210を装着した手のサイズとの比率を求める。そして、求めた比率分だけ手形仮想物体のサイズを変更することで、手形仮想物体のサイズをグローブ210を装着した手のサイズに略一致させる。
ここで、このような比率を求める為の処理については様々なものが考えられるが、例えば以下のようなものがある。先ず、現実空間画像内でグローブ210を装着した手の領域を包含する最小のボックス(第1のボックス)を定義する。次に、仮想空間画像内で、手形仮想物体が占める領域を包含する最小のボックス(第2のボックス)を定義する。そして、第1のボックスの縦(横)のサイズと第2のボックスの縦(横)との比率(第1のボックスの縦(横)のサイズ/第2のボックスの縦(横)のサイズ)を求める。
このようにして求めた比率分だけ手形仮想物体をスケーリングする(手形仮想物体を、手形仮想物体のローカル座標系における原点を中心にして拡大する)。なお、このようなサイズあわせの処理は必須なものではなく、上記位置姿勢合わせを行った後に、観察者が複合現実空間画像を見て、現実の手と仮想の手とであまりにサイズに違いがあるようであれば行うようにすればよい。
以上の説明により、本実施形態によって、高速かつ簡易に現実の手と仮想の手とのキャリブレーションを行うことができる。本来このようなシステムは複数人、もしくは個人が必要性を感じた時に使用できる直感的なシステムであり、複数の操作者が交互にシステムを利用するような場面においても交代時の手のキャリブレーション作業が高速に行われるため、ユーザビリティの高いシステムを提供することが可能となる。
また、従来では、現実物体と仮想物体とのキャリブレーションには多数の補正要素が必要であったものが、仮想空間における位置関係が既知な現実物体を中間に介在することにより自由度を下げ、現実物体上に手を乗せることにより手形状を仮想の手と同一になるように制限することを可能にし、高速かつ簡易にキャリブレーションを行うことができる。
[第2の実施形態]
第1の実施形態では、キャリブレーション時における補正要素を減らすべく、手は水平面上に載置するようにしたが、以上のような処理は一般にどのような形状の現実物体上に手を置いても適用可能であるし、また、載置する人間の部位は手以外にも、例えば足であっても良い。
また、第1の実施形態では、トレイ300上に手を載置するようにしたが、トレイ300を用いることに限定するものではなく、机などの水平面上に、手を置く領域を設けるようにしても良い。その場合、センサ座標系においてこの領域を定義するためのデータを上記トレイ面定義データの代わりに外部記憶装置406に保存しておく必要がある。
また、第1の実施形態では、センサとして磁気センサを用いているが、これ以外のセンサ、例えば光学式センサ、超音波センサなどを用いるようにしても良い。
[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
現実空間に仮想空間を重畳させた複合現実空間を観察者に提供するための本実施形態に係るシステムの機能構成を示すブロック図である。 コンピュータ400の機能構成を示す図である。 トレイ300の載置例を示す図である。 トレイ300上に配置された手形仮想物体の輪郭線の例を示す図である。 コンピュータ400のハードウェア構成を示すブロック図である。 グローブ210を装着した手と、手形仮想物体との位置姿勢合わせを行うための処理のフローチャートである。 磁気レシーバ202、203、手形仮想物体のそれぞれの位置姿勢関係を示す図である。

Claims (7)

  1. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、ユーザの部位の位置姿勢と、現実物体の位置姿勢とを取得する取得工程と、
    前記画像処理装置の配置手段が、前記部位を表す仮想物体を、仮想空間中の前記現実物体に設定された領域内に予め設定された位置姿勢で配置する配置工程と、
    前記画像処理装置の算出手段が、前記部位と前記現実物体との位置姿勢関係、及び前記仮想物体と前記現実物体との位置姿勢関係を用いて、前記部位と前記仮想物体との位置姿勢関係を求める算出工程と
    を備えることを特徴とする画像処理方法。
  2. 前記算出工程では、前記仮想物体にあわせて前記部位が配置された旨を検知した場合に、前記部位と前記現実物体との位置姿勢関係、及び前記仮想物体と前記現実物体との位置姿勢関係を用いて、前記部位と前記仮想物体との位置姿勢関係を求めることを特徴とする請求項1に記載の画像処理方法。
  3. 前記算出工程において、
    前記仮想物体を前記現実物体に正射影した領域にあわせて前記部位が配置された旨を検知した場合には、前記部位と前記現実物体との位置姿勢関係、及び前記仮想物体と前記現実物体との位置姿勢関係を用いて、前記部位と前記仮想物体との位置姿勢関係を求めることを特徴とする請求項に記載の画像処理方法。
  4. 更に、
    前記画像処理装置の導出手段が、前記ユーザの視点から見える現実空間の画像内の前記部位の領域と、前記視点から見える前記仮想物体の画像の領域とに基づいて、前記仮想物体のサイズに対する前記部位のサイズの比率を求める導出工程と、
    前記画像処理装置の変更手段が、前記求められた比率を用いて、前記仮想物体のサイズを前記部位のサイズにあわせるべく変更する変更工程と
    を備えることを特徴とする請求項1乃至3の何れか1項に記載の画像処理方法。
  5. ユーザの部位の位置姿勢と、現実物体の位置姿勢とを取得する取得手段と、
    前記部位を表す仮想物体を、仮想空間中の前記現実物体に設定された領域内に予め設定された位置姿勢で配置する配置手段と、
    前記部位と前記現実物体との位置姿勢関係、及び前記仮想物体と前記現実物体との位置姿勢関係を用いて、前記部位と前記仮想物体との位置姿勢関係を求める算出手段と
    を備えることを特徴とする画像処理装置。
  6. コンピュータに、請求項1乃至の何れか1項に記載の画像処理方法を実行させる為のプログラム。
  7. 請求項に記載のプログラムを格納した、コンピュータが読み取り可能な記憶媒体。
JP2005138455A 2005-05-11 2005-05-11 画像処理方法、画像処理装置 Expired - Fee Related JP4677281B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005138455A JP4677281B2 (ja) 2005-05-11 2005-05-11 画像処理方法、画像処理装置
US11/416,579 US7834909B2 (en) 2005-05-11 2006-05-02 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005138455A JP4677281B2 (ja) 2005-05-11 2005-05-11 画像処理方法、画像処理装置

Publications (3)

Publication Number Publication Date
JP2006318095A JP2006318095A (ja) 2006-11-24
JP2006318095A5 JP2006318095A5 (ja) 2008-06-19
JP4677281B2 true JP4677281B2 (ja) 2011-04-27

Family

ID=37418637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005138455A Expired - Fee Related JP4677281B2 (ja) 2005-05-11 2005-05-11 画像処理方法、画像処理装置

Country Status (2)

Country Link
US (1) US7834909B2 (ja)
JP (1) JP4677281B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9648907B2 (en) * 2005-05-31 2017-05-16 Philip Morris Usa Inc. Virtual reality smoking system
JP4933406B2 (ja) * 2007-11-15 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
JP5247590B2 (ja) * 2009-05-21 2013-07-24 キヤノン株式会社 情報処理装置及びキャリブレーション処理方法
WO2012101286A1 (en) 2011-01-28 2012-08-02 Virtual Proteins B.V. Insertion procedures in augmented reality
US10972680B2 (en) * 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US9141194B1 (en) 2012-01-04 2015-09-22 Google Inc. Magnetometer-based gesture sensing with a wearable device
US9220942B1 (en) 2014-08-21 2015-12-29 W.A.T. Sports, Llc Load and lag golf glove
US10139934B2 (en) * 2016-12-22 2018-11-27 Microsoft Technology Licensing, Llc Magnetic tracker dual mode
CN111889989B (zh) * 2020-09-17 2020-12-18 常州锦瑟医疗信息科技有限公司 基于混合现实的高精度机械加工方法和加工系统
US11822736B1 (en) * 2022-05-18 2023-11-21 Google Llc Passive-accessory mediated gesture interaction with a head-mounted device
WO2023228565A1 (ja) * 2022-05-24 2023-11-30 株式会社Nttドコモ 表示制御装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013310A (ja) * 2002-06-04 2004-01-15 Canon Inc 情報処理方法および複合現実感提示装置
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
JP2002159019A (ja) 2000-11-16 2002-05-31 Canon Inc 表示制御装置、撮影位置推測装置、表示システム、撮影システム、画像位置決め方法、撮影位置推測方法、及び処理プログラムを記録した記録媒体
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
JP4878083B2 (ja) * 2001-03-13 2012-02-15 キヤノン株式会社 画像合成装置及び方法、プログラム
JP2003296757A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013310A (ja) * 2002-06-04 2004-01-15 Canon Inc 情報処理方法および複合現実感提示装置
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置

Also Published As

Publication number Publication date
US7834909B2 (en) 2010-11-16
JP2006318095A (ja) 2006-11-24
US20060256036A1 (en) 2006-11-16

Similar Documents

Publication Publication Date Title
US7834909B2 (en) Image processing method and image processing apparatus
KR102517876B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP4401727B2 (ja) 画像表示装置及び方法
JP4434890B2 (ja) 画像合成方法及び装置
CN106062826B (zh) 图像生成装置以及图像生成方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
US8994729B2 (en) Method for simulating operation of object and apparatus for the same
US7782320B2 (en) Information processing method and information processing apparatus
JP4739002B2 (ja) 画像処理方法、画像処理装置
JP2004062758A (ja) 情報処理装置および方法
JP2005227876A (ja) 画像処理方法、画像処理装置
US20030184602A1 (en) Information processing method and apparatus
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP6295296B2 (ja) 複合システム及びターゲットマーカ
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2005339377A (ja) 画像処理方法、画像処理装置
JP2008070319A (ja) 物体計測装置および方法
JP2004234549A (ja) 現実物体モデル作成方法
JP2006085375A (ja) 画像処理方法、画像処理装置
JP4926598B2 (ja) 情報処理方法、情報処理装置
JP6124862B2 (ja) ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム
JP2015201734A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP4217661B2 (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110131

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140204

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4677281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees