[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH10334274A - 仮想現実方法及び装置並びに記憶媒体 - Google Patents

仮想現実方法及び装置並びに記憶媒体

Info

Publication number
JPH10334274A
JPH10334274A JP15430597A JP15430597A JPH10334274A JP H10334274 A JPH10334274 A JP H10334274A JP 15430597 A JP15430597 A JP 15430597A JP 15430597 A JP15430597 A JP 15430597A JP H10334274 A JPH10334274 A JP H10334274A
Authority
JP
Japan
Prior art keywords
viewpoint
module
virtual reality
data
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15430597A
Other languages
English (en)
Inventor
Hirokazu Akisada
浩和 秋定
Shunichi Tamai
俊一 玉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP15430597A priority Critical patent/JPH10334274A/ja
Publication of JPH10334274A publication Critical patent/JPH10334274A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

(57)【要約】 【課題】 体験者の意思を忠実に反映したより臨場感の
ある仮想世界の疑似体験が可能な安価な仮想現実方法及
び装置を提供する。 【解決手段】 位置方向検出装置110からの位置デー
タと方向データとを用いて設定した3次元仮想空間内の
視点の位置と方向とを、視線入力スカウタ111内の視
線検出部111aからの視線データを用いて適切に補正
するようにした。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、視線検出手段によ
り仮想世界シュミレーションを実現する仮想現実方法及
び装置並びにこれら仮想現実方法及び装置に使用する記
憶媒体に関する。
【0002】
【従来の技術】従来より、バーチャルリアリティー(仮
想現実:電子計算機によって作り出された情報を人間の
感覚器官に提示することによって、実在しない世界や遠
隔にある空間での行動を可能にして疑似体験を行う技
術)による仮想世界のシュミレーションを実現するに
は、次のような方法がとられる場合があった。
【0003】例えば、仮想現実状態を体験する体験者の
頭部に取り付けた3次元位置方向検出装置(例えば、3
SPACE社のFASTRAKは磁気変換技術により実
空間での3次元位置とオイラー角を計測する)からのデ
ータを基に、予め入力したモデル(物体の3次元形状デ
ータ)の空間的・幾何学的位置を考慮した映像をコンピ
ュータに計算させ、この映像を体験者が被ったHMD
(ヘッドマウントディスプレイ、例えばi−glass
es「Virtual−io社」)に表示することで、
体験者は仮想世界の疑似体験(仮想世界シュミレーショ
ン)を行うことができる。
【0004】このようなバーチャルリアリティーを実現
するシステムにおいて体験者が見る映像は、一般的に、
次に説明する3次元コンピュータグラフイックス(C
G)によって形成される。
【0005】3次元物体を表現した画像を形成する3次
元CGにおいては、通常画像を得るためには、大きく分
けて「モデリング」と「レンダリング」という2つの作
業が必要となる。
【0006】◇「モデリング」モデリングは、画像の中
で表現したい対象物の形、色、表面の性質等のデータを
コンピュータの中に作成する作業である。例えば、人間
の画像を作るのであれば、その表面の形がどうなってい
るのか、顔のどの部分がどのような色をしているのか、
光の反射率はどうか、といったデータを作成し、後のレ
ンダリングで使えるような形式でコンピュータ内に格納
する。この様なデータの集まりを物体のモデルという。
【0007】例えば、図11に示すような立方体の形状
モデリングを行う場合、まず、図11のように立方体の
ある1つの頂点を原点としたモデリング座標系を考え
る。そして、この座標系における立方体の8個の頂点の
座標データ及び面ループデータを、例えば図12
(a),(b)に示すように決定する。この様にして得
られた1組の座標データと面ループデータが対象物のモ
デリングデータ(またはモデルデータ)となる。
【0008】◇「レンダリング」レンダリングは、モデ
ルが出来上がった後で、その物体をある位置から見たと
きにどの様に見えるかを考え、その見え方に従った画像
を作成する作業である。従って、レンダリングを行うに
は、モデルの他に、見る位置(視点)や照明に関する条
件を考える必要がある。レンダリング作業を細分化する
と、「投影変換」、「隠面消去」、「シェーディング」
及び「リアルさを出すための工夫」の4つの作業とな
る。
【0009】まず、「投影変換」は、モデルを表わして
いる種々の座標値に対して、視点の位置から見たとき
に、画面上のどの位置に見えるかを計算して、画面上の
座標に変換することである。図13は、投影変換のため
の4つの座標系を示した図である。まず、モデリング座
標系において定義された物体の形状データは、ワールド
座標系(物体の形を表わすときにモデル内の座標に用い
る座標系)におけるデータに変換される。そして、対象
となる物体を見ることができるように、選定したカメラ
をいろいろな方向に向けることで、ビューイング変換
(視野変換)を行う。この際、ワールド座標系で表わさ
れた物体のデータが視点座標系のデータに変換されるこ
とになる。また、この変換のためにワールド座標系の中
にスクリーン(視野窓)を指定し、このスクリーンが物
体の最終的な投影面となる。そして、このスクリーンを
定義するための座標系がUVN座標系(スクリーン座標
系)と呼ばれる。但し、視点前方の全ての物を描くと、
不必要な計算時間をとる場合があるので、作画領域を決
めることも必要である(この作画領域はビューイングボ
リューム「視野空間」と呼ばれ、また、この作業はクリ
ッピングと呼ばれる。また、ビューイングボリュームの
境界の中でカメラから最も近い面をリニアクリッピング
面、最も遠い面をファークリッピング面という)。そし
て、このスクリーンをいろいろな方向に動かすことで視
野変換を行う。そして、視野変換が決定した後、空間に
存在する物体の3次元形状の各点に対して、視点と投影
面の交点を求める操作を行うことで、図14に示すよう
にスクリーン上に投影図を得る(但し、この場合は視点
と投影面との間の距離が有限である透視投影を示してい
る)。従って、投影変換が行われると前述の視点座標系
で表わされたデータは、UVN座標系におけるデータに
変換されることになる。
【0010】次に、「隠面消去」によって、モデルの中
で現在の視点の位置から考えて、どの部分が見えて、ど
の部分が見えないかを判断する。隠面消去の代表的な手
法としては、Zバッファ法やスキャンライン法といった
アルゴリズムが挙げられる。そして、隠面消去が済ん
で、物体のどの部分が見えるかが確定したら、次に照明
を考えて各部分がどの様な色で、どの様な明るさに見え
るかを判断し、その色を画面、即ち、ピクセルに塗る
「シェーディング」の処理を行う。
【0011】そして、通常レンダリングの最後に実行さ
れるのが、「リアルさを出すための工夫」である。これ
は、「投影変換」、「隠面消去」、「シェーディング」
を行って画像を形成しても、得られる絵は実在の物体と
はほど遠い面白みのないものとなってしまうためであ
る。その理由としては、このような手法が、物体の表面
は理想的な平面或いは数式で表わせる完全に滑らかな曲
面であったり、表面の色が面ごとに一定であるといった
仮定に基づいているためである。こうした状況を避け、
得られる画像をより現実に近いものとするために行われ
る代表的手法の1つにテクスチャーマッピングがある。
このテクスチャーマッピングは、予め用意した2次元パ
ターンを3次元空間内の物体モデルの表面に貼り付ける
(数学的にいえば、写像する)手法で、単調な表面で構
成された物体を複雑な表面を持つ物体に疑似的に見せか
けることを目的としている。これにより、例えば単純な
直方体のモデルを金属や石材のように見せることが可能
となる。
【0012】上述した「投影変換」、「隠面消去」、
「シェーディング」及び「リアルさを出すための工夫」
が終了し、UVN座標系によって示された図形は、最終
的なデバイス座標系に変換されて表示装置に表示される
と、1回のレンダリング処理が完了する。図15に、図
14のスクリーンに投影された物体がデバイス座標系に
変換されて表示装置に表示された画像を示す(但し、物
体の背景は塗りつぶされている)。ここで、デバイス座
標系とは、画像の中でピクセルやドットの位置を表わす
ときに用いる座標系のことで、表示画像における座標系
と同一であるものとする(図15におけるaとbは、表
示画像の横と縦の画素数を示す)。
【0013】◇「CGアニメーションの作成方法」上述
したような方法により得られる絵(CG画像)に動きを
付けてコンピュータグラフィックス(CG)アニメーシ
ョンを作成する場合、大別して2つの方法がある。
【0014】まず、第1の手法としては、3次元空間に
置き、照明条件、視点条件(視点の位置・方向・画角)
及び物体のモデルの形状や色等を少しずつ変化させ、そ
の都度レンダリングを行うことで、一連のアニメーショ
ン用の画像群を得た後(または、1つの画像をレンダリ
ングするごとに)、それらをビデオレコーダ等の録画装
置を用いて1コマ1コマ録画(コマ録画)し、全ての録
画が終わった後で再生装置で再生する方法である。この
方法においては、画像のレンダリングの際にかかる時間
は許容される範囲で長くしてよいので(1つの画像のレ
ンダリングに要する時間と作成するアニメーションの全
体の時間に依存する)、画面上に複雑な形状の物体を多
数配置したり、レイトレーシング(光線追跡法)に代表
されるような長い計算時間を必要とするレンダリング手
法を用いて高品質な画像を作成することも可能である。
例えば、現在のテレビコマーシャルやSF映画等で用い
られているCG映像は、ほとんどこの方法によって作成
されたものである。
【0015】次に、第2の手法としては、前述の照明条
件、視点条件及び物体モデルの形状や色を変更しながら
のレンダリング及びそのレンダリング処理によって得ら
れた画像の表示という2つの処理を高速に繰り返すこと
で、CGアニメーションを実行する手法である。この手
法は、一般的にリアルタイムCGレンダリングと呼ばれ
るもので、ユーザからの指示を直接レンダリングに反映
させることで、CGアニメーションの動きをリアルタイ
ムにコントロールするインタラクティブ(対話的)処理
が可能なことが最大の特徴である。その反面、実現に関
しては実行するコンピュータのパフォーマンスにかなり
依存し、画面上に表示できる物体のデータ量に制限があ
ったり、レンダリング手法として単純で高速なものに限
定されてしまうといった制約があるため、前者と比較し
て形成される画像は一般的に低品質なものとなる。な
お、この手法は、各種バーチャルリアリテイーシステム
をはじめ、科学技術シミュレーション、航空機操縦練習
用のフライトシミュレータやゲームセンター用のレーシ
ングゲーム・ファイティングゲーム等に用いられている
ものである。
【0016】次に、視線検出装置について説明する。
【0017】先に本出願人は、パソコン(パーソナルコ
ンピュータ)/テレビのディスプレイ画面、ビデオカメ
ラ/スチルカメラのファインダー画面等を使用者が観察
する際、画面のどこを見ているかを検出する、いわゆる
視線入力装置を提案している。その原理を以下に説明す
る。
【0018】図16は、視線検出方法の原理を示す平面
図、図17は、視線検出方法の原理を示す側面図であ
る。両図において、906a,906bは観察者に対し
て不感の赤外光を放射する発光ダイオード(IRED)
等の光源で、各光源906a,906bは、結像レンズ
911の光軸に対してx方向(水平方向)に略対称に、
また、y方向(垂直方向)にはやや下側に(図17参
照)配置され、観察者の眼球908を発散照明してい
る。観察者の眼球908で反射した照明光の一部は、結
像レンズ911によってイメージセンサー912に結像
する。
【0019】図18は、イメージセンサー912に投影
される眼球像の概略図、図19は、イメージセンサー9
12の出力強度図である。
【0020】以下、図16〜図19を用いて視線の検出
方法について説明する。
【0021】まず、水平面で考えると、図16において
一方の光源906bより放射されたは、観察者の眼球9
08の角膜910(図16及び図17参照)を照明す
る。このとき角膜910の表面で反射した赤外光により
形成される角膜反射像(虚像)d(図16及び図18参
照)は、結像レンズ911によって集光され、イメージ
センサー912上の位置d′(図16参照)に結像す
る。同様に、他方の光源906aより放射されたは、観
察者の眼球908の角膜910(図16及び図17参
照)を照明する。このとき角膜910の表面で反射した
赤外光により形成される角膜反射像(虚像)e(図16
及び図18参照)は、結像レンズ911によって集光さ
れ、イメージセンサー912上の位置e′(図16参
照)に結像する。また、虹彩904の端部a,b(図1
6〜図18参照)からの光束は、結像レンズ911を介
してイメージセンサー912上の位置a′,b′(図1
6及び図17参照)に該端部a,bの像を結像する。結
像レンズ911の光軸に対する眼球908の光軸の回転
角θが小さい場合、虹彩904の端部a,bのx座標を
xa,xbとすると、xa,xbはイメージセンサー9
12上で多数点求めることができる(図18中、×
印)。そこで、まず、円の最小自乗法にて瞳孔中心xc
を算出する。一方、角膜910の曲率中心oのx座標を
xoとすると、眼球908の光軸に対する回転角θx
は、 oc×sinθx=xc−xo … (1) となる。
【0022】また、角膜反射像dとeの中点kに所定の
補正値δxを考慮して求めると、 xk=(xd+xe)/2 xo=(xd+xe)/2+δx … (2) となる。
【0023】ここで、δxは装置の設置方法/眼球距離
等から幾何学的に求められる数値であり、その算出方法
は省略する。
【0024】よって、上記(1)式を(2)式に代入し
てθxを求めると、 θx=arcsin[[xc{(xd+xe/2+δx}]/oc]…(3) となる。
【0025】更に、イメージセンサー912上に投影さ
れた各々の特徴点の座標を、′(ダッシュ)を付けて下
記(4)式に書き換えると、 θx=arcsin[[xc′{(xd′+xe′/2+δx′}]/oc/β]…(4) となる。ここで、βは結像レンズ911に対する眼球9
08の距離szeにより決まる倍率で、実際は角膜反射
像d,eの間隔|xd′−xe′|の関数として求めら
れる。
【0026】垂直面で考えると、図17に示すような構
成となる。ここで、2個の光源906a,906bによ
り生じる角膜反射像d,eは同位置に発生し、これをi
とする。眼球908の垂直方向の回転角θyの算出方法
は上述した水平面の場合とほぼ同一であるが、(2)式
のみ異なり、角膜曲率中心oのy座標をyoとすると、 yo=yi+δy … (5) となる。ここで、δyは装置の設置方法/眼球距離等か
ら幾何学的に求められる数値であり、その算出方法は省
略する。
【0027】よって、眼球908の垂直方向の回転角θ
yは、 θy=arcsin[[yc′−(yi′+δy′)]/oc/β]…(6) となる。
【0028】更に、ファインダー等の画面上の位置座標
(xn,yn)は、ファインダー光学系で決まる定数m
を用いると、水平面上、垂直面上それぞれ、 xn=ma×arcsin[[xc′−{(xd′+xe′)/2+δx′}]/oc/β]… (7) yn=ma×arcsin[[yc′−(yi′+δy′)]/oc/β]…(8) となる。
【0029】図18及び図19で明らかなように、瞳孔
エッジの検出は、イメージセンサー912の出力波形の
立ち上がり部(xb′)、立ち下がり部(xa′)を利用す
る。また、角膜反射像d,eの座標は鋭い立ち上がり部
(xe′)、立ち下がり(xd′)を利用する。
【0030】次に、視線検出機能を持つパソコン(パー
ソナルコンピュータ)システムの一例を説明する。
【0031】図20は、視線検出機能を持つパソコンシ
ステムの一例を示す概略構成図である。同図に示すパソ
コンシステムは、パソコンの本体部であるパソコンユニ
ット1008、操作者がパソコンの画面を観察するため
のヘッドマウントディスプレイ1006、操作者または
操作者以外の人がパソコンの画面を観察するための外部
モニター1009により構成されている。ここで、ヘッ
ドマウントディスプレイ1006は、ゴーグル、メガネ
フレーム等の部材により操作者の目に近い位置に固定さ
れている。
【0032】ヘッドマウントディスプレイ1006は、
LCD(液晶表示器)等を有する表示素子1002と、
拡大観察系を実現するための特殊プリズム1003、撮
影者の目1005の視線を検出する視線検出回路106
4と、パソコン画面を表示素子1002に表示する表示
回路1007と、撮影者の目1005に赤外光を照射す
る赤外発光ダイオード1060,1061と、赤外光を
結像する結像レンズ1062a,1062bと、これら
結像レンズ1062a,1062bにより結像された赤
外光を電気信号に変換する光電変換素子(イメージセン
サー)1063と、この光電変換素子1063上の撮影
者の目1005の像を基に撮影者の表示素子1002上
の注視点を求める注視点検出回路1064とを具備して
いる。
【0033】次に、ヘッドマウントディスプレイ100
6における観察系の光学作用について説明する。表示素
子1002からの光は、第3の光学作用面cで屈折透過
し、第1の光学作用面aで全反射し、第2の光学作用面
bの反射層で反射し、再び第1の光学作用面aで屈折透
過し、観察者の視度に適合した拡がり角(収束角、平
行)の光束となり、観察者の目1005側に射出する。
ここで、観察者の目1005と表示素子1002の中心
を結ぶ線を基本光軸として示している。観察者の視度に
対する調整は、表示素子1002をプリズム1003の
光軸に沿って平行移動することにより可能となる。ここ
で、プリズム1003は、像性能と歪みを補正し、テレ
セントリックな系とするために、3つの光学作用面をそ
れぞれ回転対称軸を有しない3次元曲面で構成するのが
望ましく、ここでは、基本光軸を含み、紙面に平行な平
面にのみ対称な曲面構造をなしている。
【0034】更に、ヘッドマウントディスプレイ100
6における視線検出系の光学作用について説明する。裸
眼用赤外発光ダイオード1060(奥行き方向に2
個)、眼鏡用赤外発光ダイオード1061(奥行き方向
に2個)から発した光は、第2の光学作用面bに設けら
れた開口部1012,1013,1014,1015を
通して、視線検出系の光軸とは異なる方向から観察者の
目1005を照明する。その照明光は、観察者の角膜9
10、瞳孔で反射散乱され、角膜910で反射した光は
角膜反射像d,eを形成し、瞳孔で散乱した光は瞳孔像
を形成する。これらの光は、第2の光学作用面bに設け
られた開口部1010を通して、結像レンズ1062
a,1062bによりイメージセンサー1063上に結
像される。イメージセンサー1063から得られる観察
者の目1005の画像は、前述した視線検出原理によっ
て構成された注視点検出回路1064によって注視点デ
ータを出力することができる。
【0035】ここで、結像レンズ系は2枚の結像レンズ
1062a,1062bにより構成されている。特に、
結像レンズ1062bは楔形状をしたレンズで、これに
より結像レンズ系を少ないレンズで構成することがで
き、小型化に適している。この結像レンズ1062bの
斜めの面に曲率をつけることで、第2の光学作用面bで
発生する偏心収差を有効に補正することができる。更
に、前記結像レンズ系には少なくとも非球面を1面設け
ると、軸外の結像性能を補正する上で有効である。前記
結像レンズ系の絞りは、第2の光学作用面bに設けた開
口部に近い方が、開口部1010を小さくすることがで
き、観察系に対する中抜けを防ぐのに有効であり、でき
れば開口部と絞りが一致しているのが望ましい。開口部
は、2mmより小さく設定した方が、観察者の目100
5の瞳孔より小さくなり、更に観察系に対する中抜けを
防ぐのに有効である。観察者の目1005を照明する光
は、視感度の低い光が良いので赤外光を使用している。
このとき、前記結像レンズ系に可視光をカットする部材
のレンズを少なくとも1個設けると、視線の検出精度を
向上することができる。
【0036】図21は、プリズム1003を側面から見
た図である。ここで、第2の光学作用面bは、反射用の
ミラーコーティングが施されているが、結像レンズ10
62a,1062b及び赤外発光ダイオード1060,
1061用の開口部、即ち、ミラーコーティング未処理
部(1010は結像用、1012,1013は裸眼用赤
外発光ダイオード用、1014,1015は眼鏡用赤外
発光ダイオード用)が設けられている。なお、前述した
ように、これら開口部1010,1012〜1015は
ファインダー観察系に影響のない程度に小さなものであ
り、2mm以下ぐらいが望ましい。
【0037】このようにミラーコーティング部に開口部
1010,1012〜1015を設け、照明光源である
赤外発光ダイオード1060,1061をプリズム10
03を挟んで観察者の目1005と反対側に配置したた
め、プリズム1003の屈折力を強くし高視野化した場
合でも、観察者の目1005の高さに近い位置から適切
に照明することができる。
【0038】ここで、赤外発光ダイオード1060,1
061は、異なる配置で裸眼用と眼鏡用とを使い分けて
いる。2個の裸眼用赤外発光ダイオード1060は、光
軸からやや離れた下部から同一高さで、光軸対称に狭い
幅で左右1個ずつ、眼鏡用赤外発光ダイオード1061
は、光軸からかなり離れた下部から同一高さで、光軸対
称に広い幅で左右1個ずつ配置されている。その理由は
3つであり、1つ目の理由は、眼球距離によってより良
い照明条件を得るためで、できるだけ目の検出エリアを
均等に照明するような位置になっている。2つ目の理由
は、角膜反射像d,eが瞼でケラレないような高さにす
る必要があるため、裸眼用赤外発光ダイオード1060
は、眼鏡用赤外発光ダイオード1061に比べて高い位
置にある。3つ目の理由は、赤外光が眼鏡に反射してで
きるゴーストが、検出に影響の少ない周辺部に現れるよ
うにするため、眼鏡用赤外発光ダイオード1061は、
裸眼用赤外発光ダイオード1060より左右方向及び下
方向に離れた位置にある。なお、眼球と眼鏡の判別は、
角膜反射像d,eの間隔|xd′−xe′|から、眼球
とプリズム1003との間の距離算出することにより行
う。
【0039】視線検出回路1064は、イメージセンサ
ー1063上の撮影者の目1005の像を基に、前述し
た原理に従い撮影者の表示素子1002の画面上の注視
点を求めるものである。
【0040】次に、パソコンユニットについて説明す
る。
【0041】図20において、1008はパソコンユニ
ットである。ここで、1814はCPU(中央演算処理
装置)で、プログラムやデータの演算を行う。1813
は各デバイスを結ぶシステムバス、1818はROM
(リードオンリーメモリ)1816やRAM(ランダム
アクセスメモリ)1817の制御を行うメモリコントロ
ーラ、1812はビデオRAM1811に書き込まれた
内容がディスプレイに表示されるように制御するビデオ
グラフィックコントローラである。1815はポインテ
イングデバイス或いはキーボードを制御するアクセサリ
ーデバイスコントローラであり、本例においては、ヘッ
ドマウントディスプレイ1006の視線検出回路106
4に接続される。1819は周辺装置制御用のI/Oチ
ャネルであり、本例においては、ヘッドマウントディス
プレイ1006の表示回路1007に接続される。
【0042】以上のような構成において、ヘッドマウン
トディスプレイ1006の視線検出回路1064により
検出された操作者の視線位置情報をパコンユニット10
08のポインティングデバイスとして適用することがで
き、画面のスクロールやメニュー選択に応用することが
できる。また、同時に外部モニター1009にパソコン
画面を表示することができるため、操作者以外の人がパ
ソコン画面を見ることができる。また、片目用のヘッド
マウントディスプレイを用いれば、操作者自身も外部モ
ニター1009を見ることができる。
【0043】
【発明が解決しようとする課題】しかしながら、上述し
た従来例にあっては、体験者が装着するHMD(ヘッド
マウントディスプレイ)内の映像フレーム(ディスプレ
イ)は限られた矩形であり、そこに写し出される3次元
仮想空間内の範囲も制限されるため、体験者にとって違
和感があるという問題点があった。
【0044】この違和感の具体例としては、以下のよう
なものがある。 (1)体験者が映像枠内左寄りに見える物体を注目しな
がら頭を約30度右方向に回転させたとき、物体が映像
枠より外へ外れるため、視界から外れてしまう(図22
(a):この場合、体験者は頭を逆の左方向に回転しな
い限り物体は再度見えてこない)。 (2)体験者が映像枠の右外側にあるだろうと予想され
る物体を見ようとして、頭を約5度右方向に回転させた
とき、映像変化が少なく物体が視界(映像フレーム)に
入ってこない(図22(b):このような場合、体験者
は意識的に頭を右方向に速く動かす必要があった)。 (3)もはや体験者が頭を固定した状態では、映像が全
く変化しなかった。
【0045】また、従来の限られた映像フレームを用い
た仮想現実装置では、体験者の頭部の回転の具合(回転
方向、回転速度、回転加速度等)に応じて映像変化を微
調整する方法がせいぜいであり、もはや上述したような
違和感を根本的に改善し、臨場感を増すことや、体験者
の意思を反映した映像提示を行うことはできなかった。
【0046】また、体験者の目を覆い囲むような画角の
広いディスプレイを備えたHMDを用いて適切な映像を
提示すれば、上述した問題はある程度解消されるが、こ
の場合のHMDは高価なものになってしまうという欠点
があった。
【0047】更に、これまでに体験者が見る仮想空間の
映像を視線情報を用いて補正する仮想現実装置は存在し
なかった。
【0048】本発明は上述した従来の技術の有するこの
ような問題点に鑑みてなされたものであり、その第1の
目的とするところは、体験者の意思を忠実に反映したよ
り臨場感のある仮想世界の疑似体験(仮想世界シミュレ
ーション)を安価に実現することができる仮想現実方法
及び装置を提供しようとするものである。
【0049】また、本発明の第2の目的とするところ
は、上述したような仮想現実装置を円滑に制御すること
ができる記憶媒体を提供しようとするものである。
【0050】
【課題を解決するための手段】上記第1の目的を達成す
るために請求項1記載の仮想現実方法は、物体の3次元
形状データを構築するモデリング工程と、仮想現実状態
を体験する体験者の頭部の空間位置及び方向を検出する
位置方向検出工程と、前記体験者の視線位置を検出する
視線位置検出工程と、3次元仮想空間に視点を設定する
視点設定工程と、前記視点設定工程により設定した視点
の方向を補正する視点方向補正工程と、前記視点方向補
正工程により補正後の視点から前記物体のモデルデータ
を空間的・幾何学的配置を考慮して見たときの2次元画
像を形成する2次元画像生成工程と、前記2次元画像生
成工程により生成した2次元画像を映像信号に変換する
映像変換工程と、前記映像変換工程により変換後の映像
を表示する映像表示工程とを有することを特徴とする。
【0051】また、上記第1の目的を達成するために請
求項2記載の仮想現実方法は、請求項1記載の仮想現実
方法において、前記視点設定工程は、前記位置方向検出
工程により検出された位置データ及び方向データに基づ
いて視点を設定することを特徴とする。
【0052】また、上記第1の目的を達成するために請
求項3記載の仮想現実方法は、請求項1記載の仮想現実
方法において、前記視点方向補正工程は、前記視点設定
工程により設定された視点を、前記視線位置検出工程に
より検出された視線位置データを用いて補正することを
特徴とする。
【0053】また、上記第1の目的を達成するために請
求項4記載の仮想現実方法は、請求項1記載の仮想現実
方法において、前記映像表示工程は、前記体験者の目の
直前に置かれ且つ前記体験者の頭部に対して固定の状態
で設定された表示器に映像を表示することを特徴とす
る。
【0054】また、上記第1の目的を達成するために請
求項5記載の仮想現実装置は、物体の3次元形状データ
を構築するモデリング手段と、仮想現実状態を体験する
体験者の頭部の空間位置及び方向を検出する位置方向検
出手段と、前記体験者の視線位置を検出する視線位置検
出手段と、3次元仮想空間に視点を設定する視点設定手
段と、前記視点設定手段により設定した視点の方向を補
正する視点方向補正手段と、前記視点方向補正手段によ
り補正後の視点から前記物体のモデルデータを空間的・
幾何学的配置を考慮して見たときの2次元画像を形成す
る2次元画像生成手段と、前記2次元画像生成手段によ
り生成した2次元画像を映像信号に変換する映像変換手
段と、前記映像変換手段により変換後の映像を表示する
映像表示手段とを有することを特徴とする。
【0055】また、上記第1の目的を達成するために請
求項6記載の仮想現実装置は、請求項5記載の仮想現実
装置において、前記視点設定手段は、前記位置方向検出
手段により検出された位置データ及び方向データに基づ
いて視点を設定することを特徴とする。
【0056】また、上記第1の目的を達成するために請
求項7記載の仮想現実装置は、請求項5記載の仮想現実
装置において、前記視点方向補正手段は、前記視点設定
手段により設定された視点を、前記視線位置検出手段に
より検出された視線位置データを用いて補正することを
特徴とする。
【0057】また、上記第1の目的を達成するために請
求項8記載の仮想現実装置は、請求項5記載の仮想現実
装置において、前記映像表示手段は、前記体験者の目の
直前に置かれ且つ前記体験者の頭部に対して固定の状態
で設定されることを特徴とする。
【0058】また、上記第2の目的を達成するために本
発明の請求項9記載の記憶媒体は、仮想現実状態を実現
する仮想現実装置を制御するプログラムを格納する記憶
媒体であって、物体の3次元形状データを構築するモデ
リングモジュールと、仮想現実状態を体験する体験者の
頭部の空間位置及び方向を検出する位置方向検出モジュ
ールと、前記体験者の視線位置を検出する視線位置検出
モジュールと、3次元仮想空間に視点を設定する視点設
定モジュールと、前記視点設定モジュールにより設定し
た視点の方向を補正する視点方向補正モジュールと、前
記視点方向補正モジュールにより補正後の視点から前記
物体のモデルデータを空間的・幾何学的配置を考慮して
見たときの2次元画像を形成する2次元画像生成モジュ
ールと、前記2次元画像生成モジュールにより生成した
2次元画像を映像信号に変換する映像変換モジュール
と、前記映像変換モジュールにより変換後の映像を表示
する映像表示モジュールとを有するプログラムを格納し
たことを特徴とする。
【0059】また、上記第2の目的を達成するために本
発明の請求項10記載の記憶媒体は、請求項9記載の記
憶媒体において、前記視点設定モジュールは、前記位置
方向検出モジュールにより検出された位置データ及び方
向データに基づいて視点を設定することを特徴とする。
【0060】また、上記第2の目的を達成するために本
発明の請求項11記載の記憶媒体は、請求項9記載の記
憶媒体において、前記視点方向補正モジュールは、前記
視点設定モジュールにより設定された視点を、前記視線
位置検出モジュールにより検出された視線位置データを
用いて補正することを特徴とする。
【0061】また、上記第2の目的を達成するために本
発明の請求項12記載の記憶媒体は、請求項9記載の記
憶媒体において、前記映像表示モジュールは、前記体験
者の目の直前に置かれ且つ前記体験者の頭部に対して固
定の状態で設定された表示器に映像を表示することを特
徴とする。
【0062】
【発明の実施の形態】以下、本発明の各実施の形態を図
1〜図10に基づき説明する。
【0063】(第1の実施の形態)まず、本発明の第1
の実施の形態を図1〜図7に基づき説明する。図1は、
本発明の第1の実施の形態に係る仮想現実装置の概念を
示す図であり、同図において、3は視線入力スカウタ
(ヘッドマウントディスプレイの一種)で、眼鏡のよう
な形状をなしている。本装置による仮想現実状態の体験
者1が、この視線入力スカウタ3を眼鏡と同様に装着す
ることによって、該視線入力スカウタ3内のモニタ3a
を見ることで映像を観察することができ、また、付属の
イヤホーンにより音声を聞くことができる。また、この
装置に組み込まれた視線検出装置3bは、体験者1の視
線位置を検出し、その検出データをコンピュータ5に送
信する。
【0064】2は磁気による3Dセンサー(位置方向検
出装置)で、トランスミッタ2a(体験者1の近辺に固
定される)及びレシーバ2b(体験者1の頭部に取り付
けられている)が接続されている。この3Dセンサー2
は、トランスミッタ2aが発生した磁界中におけるレシ
ーバ2bの誘起電流の大きさを処理することで、体験者
(頭部)1の空間的位置(x,y,z)と方向(ピッ
チ:Pitch、ヨー:Yaw、ロール:Roll)とを検出し、そ
の検出データをコンピュータ5に送信する。
【0065】コンピュータ5は、視線入力スカウタ3か
ら収集した体験者1の視線位置データ及び3Dセンサー
2から収集した体験者1の3次元位置と方向のデータを
用い、予め入力されたモデル(物体)の3次元仮想空間
での情景を示す映像(2次元画像)6を計算する。この
映像6は、スキャンコンバータ4を介して視線入力スカ
ウタ3内のモニタ3aへ送信され、体験者1は目の前の
この映像6を観察することにより、仮想空間の疑似体験
をする。
【0066】図2は、本実施の形態に係る仮想現実装置
のシステム構成を示すブロック図である。同図におい
て、101は制御装置で、本装置の構成要素全体の制御
を司るものである。102はデータ入力装置で、例えば
キーボード等からなり、物体のモデリングデータ、シミ
ュレーションデータ、視点条件等の初期値の入力を行う
ものである。103はコマンド入力装置で、例えばマウ
ス等からなり、シミュレーションの開始・終了等を指示
するものである。104はファイル装置で、不揮発性メ
モリ等からなり、モデルデータ等を格納する。105は
演算装置で、各種変数の更新及びモデルを用いた3次元
画像の生成等を行うものである。106はメモリ装置
で、本装置の起動中に物体のモデリングデータ及び視点
条件等の各種データを格納するものである。107はビ
デオメモリ装置で、レンダリング後の画像のピクセル値
を格納するものである。108はデータ表示装置で、C
RT(陰極線管)モニタ等からなり、制御装置101か
らの指示情報やビデオメモリ装置107内の画像を表示
したり、ユーザへの指示や入力したデータ等を表示する
ものであり、主にシステムのオペレータのデータ確認の
ために用いられる。109は映像変換装置で、例えばス
キャンコンバータ等からなり、ビデオメモリ装置107
内の画像データを映像信号として出力するものである。
110は位置方向検出装置で、例えば磁気センサー等か
らなり、仮想世界シミュレーションの体験者の実空間に
おける位置(x,y,z)及び方向(ピッチ:Pitch、
ヨー:Yaw、ロール:Roll)を検出・出力するものであ
る。この位置方向検出装置110には、トランスミッタ
部110a(体験者の近辺に固定)及びレシーバ部11
0b(体験者の頭部に固定)が接続される。111は視
線入力スカウタで、仮想世界シミュレーションの体験者
が装着するものであり、視線検出部111a(体験者の
視線データの検出)と映像表示部111b(映像変換装
置109からの映像信号を表示)とで構成されている。
【0067】次に、本実施の形態に係る仮想現実装置の
VR(バーチャルリアリティー)シミュレーション処理
動作について、図3に基づき説明する。図3は、本実施
の形態に係る仮想現実装置のVRシミュレーション処理
動作を示すフローチャートである。
【0068】仮想現実装置のオペレータがコマンド入力
装置103であるマウスを用い、プログラム開始の指示
を与えると、VRシミュレーション処理動作が開始す
る。
【0069】まず、ステップS301で制御装置101
は、予め作成されたファイル装置104に格納されてい
る2個のモデル(モデル1、モデル2)ファイルからモ
デルデータをメモリ装置106にロードする。なお、こ
れらのモデルデータは、いずれも従来の技術で説明した
座標値と面ループデータで記述されていて(また、ファ
イルの最後に仮想空間におけるモデルの初期位置も追加
されている)、以下のようなものであるとする。
【0070】▽モデル1 「座標値データ」 8 1:(-0.5,0.5,0.5)、2:(0.5,0.5,0.5)、3:(0.5,0.5,-0.
5)、4:(-0.5,0.5,-0.5)、5:(-0.5,-0.5,0.5)、6:(0.5,-0.
5,-0.5)、7:(0.5,-0.5,0.5)、8:(-0.5,-0.5,0.5) ※左端の“8”はモデル1の図形が、1( )〜8( )の8
個の3次元空間における座標によって定義されているこ
とを示しており、( )内が3次元(x,y,z)座標
値である。 「面ループデータ」 6 (41234)、(45876)、(41562)、(44378)、(41485)、(4267
3)、 (0.0,1.0,-2.0) → 初期値 ※左端の“6”はモデル1の図形が( )で示す6個の面
で構成されていることを示し、( )内の数字は上記の
3次元空間における座標の番号を示している。
【0071】例えば、(41234)は、上記の座標 4:(-0.
5,0.5,-0.5)、1:(-0.5,0.5,0.5)、2:(0.5,0.5,0.5)、3:(0.
5,0.5,-0.5)、4:(-0.5,0.5,-0.5)を結んで形成される閉
曲面を意味している。
【0072】ここで閉曲面には表、裏があるため、例え
ば座標 4,1,2,3,4を順次左回りに結んで閉曲面を形成
したとき、手前側を表面とする。
【0073】また、2行目の(0.0,1.0,-2.0)はモデル1
を形成する初期値座標である。 ▽モデル2 4 1:(-5.0,0.0,0.0)、2:(5.0,0.0,0.0)、3:(5.0,0.0,-10.
0)、4:(-5.0,0.0,-10.0)、1 (42341) (0.0,0.0,-5.0) → 初期値 なお、本実施の形態では、説明の簡素化のためにモデル
の色や表面のテクスチャーは考慮にいれないものとす
る。
【0074】次に、ステップS302で位置方向検出装
置110の初期化を行う。即ち、VRシステムのオペレ
ータは、視線入力スカウタ111と位置方向検出装置1
10とを装着した体験者1を適当な位置で直立して真正
面を見ている状態で静止させる。そして、この状態でオ
ペレータがコマンド入力装置103であるマウスにより
指示を与えると、位置方向検出装置110はこの状態の
位置と方向とを、原点(0.0,0.0,0.0)及び原回転角
(0.0,0.0,0.0:即ち、回転がない状態)として初期化
する。
【0075】次に、ステップS303で制御装置101
の命令により演算装置105は、3次元仮想空間に設定
する視点(カメラ)を、例えば「位置:0.0,1.0,0.0、
方向:0.0,0.0,-1.0「方向ベクトル」、視角「縦・
横」:0.8,0.6)で初期化した後、VRシミュレーショ
ンループが開始する。
【0076】次に、ステップS304で制御装置101
の命令によりコマンド入力装置103であるマウスは、
ユーザからCGシミュレーション処理終了の指示がある
か否かを判断し、指示がある場合はVRシミュレーショ
ンを終了し、指示がない場合はステップS305へ進
む。
【0077】ステップS305では、制御装置101の
命令により位置方向検出装置110は、体験者1の頭部
の位置(x,y,z)及び回転角(ピッチ:Pitch、ヨ
ー:Yaw、ロール:Roll)を検出し、その検出データを
メモリ装置106へ格納する。
【0078】次に、ステップS306で制御装置101
の命令により視線入力スカウタ111内の視線検出部1
11aは、体験者1の視線位置データS(s、t)を検
出し、その検出データをメモリ装置106へ格納する。
なお、この視線位置データSは、図4に示すように視線
入力スカウタ111内の映像表示部111bにおける視
野フレーム(縦と横の長さをそれぞれa,bとする)の
左上頂点を基準とした位置を示すものとする。
【0079】次に、ステップS307で体験者1の頭部
の方向に対する視線方向のずれ角度を計算する。即ち、
制御装置101の命令により演算装置105は、図4に
示す視線入力スカウタ111の視野フレームと、図5に
示す仮想空間における視点のニアクリッピング面を対応
させることで、縦横方向のずれ角度(α、β)を下記
(9)式及び(10)式によりそれぞれ計算し、その算
出データをメモリ装置106に格納する。
【0080】 α=arctan(lx/h) … (9) β=arctan(ly/h) … (10) 但し、lx、lyは下記(11)式及び(12)式によ
りそれぞれ表わされ、また、hは視点から前記ニアクリ
ッピング面までの距離を示すものとする。
【0081】 lx=(m/a)・(s−a/s) … (11) ly=(n/b)・(t−b/t) … (12) 次に、ステップS308で仮想空間内の視点(カメラ)
の移動処理を行う。なお、この処理の中で視点(カメ
ラ)方向の補正が実行される。
【0082】即ち、制御装置101の命令により演算装
置105は、まず、メモリ装置106内に格納されてい
るデータである体験者1の頭部の回転角(ピッチ:Pitc
h、ヨー:Yaw、ロール:Roll)=(β,α,γ)を用い
て、下記(13)式により方向ベクトルv’=(p,
q,r)(ワールド座標)に変換する。
【0083】 v’=Ax・Ay・Az・v … (13) 但し、vはz軸方向の単位ベクトル(0.0,-1)、また、
Ax・Ay・Azは、それぞれx軸、y軸、z軸の周り
の回転を示す行列(3×3)で、 1 0 0 cosβ 0 sinβ cosγ -sinγ 0 0 cosα -sinα 0 1 0 sinγ cosγ 0 0 sinα cosα sinβ 0 cosβ 0 0 1 であるとする。
【0084】次に、演算装置105は、この方向ベクト
ルを視点座標系におけるy軸とx軸とに、それぞれ「r
×β」と「r×α」だけ回転させることによって補正し
た方向ベクトルv‘=(p’、q’、r’)を計算す
る。但し、ここでrは視点補正の重み係数(0<r<
1)であるとする。
【0085】最後に、演算装置105は、仮想空間にお
いて視点(カメラ)の位置を(x、y、z)に、また、
方向を(p’、q’、r’)にそれぞれ設定する。
【0086】次に、ステップS309で最終的な画像の
レンダリング処理を行う。即ち、制御装置101の命令
により演算装置105は、仮想空間における視点(カメ
ラ)から見たモデル1とモデル2の情景を示す画像を前
述の方法により計算し、ビデオメモリ装置107に設定
する。
【0087】次に、ステップS310で体験者1への映
像の表示を行う。即ち、制御装置101の命令によりビ
デオメモリ装置107内の画像を映像変換装置109を
介して、視線入力スカウタ111内の映像表示部111
bへ送信する。この結果、視線入力スカウタ111を装
着した体験者1は、図6に示すような情景(モデル1と
モデル2)を見ることになる。
【0088】前記ステップS310の処理を終了後は、
前記ステップS304へ戻る。
【0089】上述したフローの実行により、図7に示す
ような効果をそうすることが可能となる。即ち、図7
(a)は、映像フレーム左端寄りに物体があり、ユーザ
がこの物体を注目していた場合の例であるが、この場
合、たとえユーザがその頭部を右方向に30度回転した
場合も、物体は映像フレームの外側へ外れにくくなる。
また、図7(b)は、映像フレーム右外側に物体がある
例であるが、この場合ユーザがその頭部を右方向に余り
回転しなくても、ユーザが映像フレームの右側を注目す
ることで、この方向にある物体が映像フレーム内に入っ
てくるようになる。
【0090】以上詳述したように、本実施の形態に係る
仮想現実装置によれば、位置方向検出装置110からの
位置データと方向データとを用いて設定した3次元仮想
空間内の視点の位置と方向とを、視線入力スカウタ11
1内の視線検出部111aからの視線データを用いて適
切に補正するようにしたので、体験者1が見る映像フレ
ーム(ディスプレイ)領域が小さくても、また、この映
像フレームに写し出されている仮想空間内の範囲が狭く
ても、体験者1の目1005の動きで仮想空間内のより
広い領域を見渡すことが可能となり、従って、体験者1
の意思を忠実に反映したより臨場感のある仮想世界の疑
似体験(仮想世界シミュレーション)が可能となるとい
う効果を奏する。
【0091】また、この結果、体験者1の目1005を
覆うようなディスプレイを備えた高価なHMDを使用し
なくても済むので、システム構築の際のコスト削減を図
ることができるという効果を奏する。
【0092】(第2の実施の形態)次に、本発明の第2
の実施の形態を図8及び図9に基づき説明する。
【0093】上述した第1の実施の形態では、体験者の
視線情報に基づき仮想空間に設定する視点(カメラ)の
方向を補正したが、これとは別に、同じく体験者の視線
位置情報を用いて視点(カメラ)の縦横の視角を補正す
る方法も考えられる。
【0094】即ち、本実施の形態は、体験者の視線位置
情報を用いて視点(カメラ)の縦横の視角を補正するよ
うにしたもので、図8に示すように、体験者の視線方向
が視点(カメラ)の方向(視軸)と重なっているとき
(即ち、体験者が視野フレームの中央を見ている場合)
には、ある一定の縦横の視角であるものを、視線方向が
視軸から離れた場合(例えば、体験者がS’方向を見て
いる場合)には、その離れ具合に応じて(例えば、縦横
方向のずれ角度α、βに比例させて)、視点(カメラ)
の縦横の視角を広げることにより、体験者が見る仮想空
間の領域を拡大することによって、上述した第1の実施
の形態と同様の効果を奏することができる。
【0095】例えば、図9(a)のように映像フレーム
の左端に物体が半分見えているような状況において、ユ
ーザがこの物体を注目することによって、映像が図9
(b)のように変化するので、この物体の全体の観察が
可能となる。
【0096】(第3の実施の形態)次に、本発明の記憶
媒体について、図10に基づき説明する。
【0097】仮想現実状態を実現する仮想現実装置を制
御するプログラムを格納する記憶媒体には、少なくとも
図10に示すように、「モデリングモジュール」、「位
置方向検出モジュール」、「視線位置検出モジュー
ル」、「視点設定モジュール」、「視点方向補正モジュ
ール」、「2次元画像生成モジュール」、「映像変換モ
ジュール」、「映像表示モジュール」の各モジュールを
有するプログラムを格納すればよい。
【0098】ここで、「モデリングモジュール」は物体
の3次元形状(モデル)データを構築するプログラムモ
ジュールである。また、「位置方向検出モジュール」は
仮想現実状態を体験する体験者の頭部の空間位置及び方
向を検出するプロラムモジュールである。また、「視線
位置検出モジュール」は前記体験者の視線位置を検出す
るプログラムモジュールである。また、「視点設定モジ
ュール」は3次元仮想空間に視点(カメラ)を設定する
プログラムモジュールである。また、「視点方向補正モ
ジュール」は前記視点設定モジュールにより設定した視
点の方向を補正するプログラムモジュールである。ま
た、「2次元画像生成モジュール」は前記視点方向補正
モジュールにより補正後の視点から前記物体のモデルデ
ータを空間的・幾何学的配置を考慮して見たときの2次
元画像を形成するプログラムモジュールである。また、
「映像変換モジュール」は前記2次元画像生成モジュー
ルにより生成した2次元画像を映像信号に変換するプロ
グラムモジュールである。また、「映像表示モジュー
ル」は前記映像変換モジュールにより変換後の映像を表
示するプログラムモジュールである。
【0099】また、前記視点設定モジュールは、前記位
置方向検出モジュールにより検出された位置データ及び
方向データに基づいて視点を設定する。また、前記視点
方向補正モジュールは、前記視点設定モジュールにより
設定された視点(カメラ)を、前記視線位置検出モジュ
ールにより検出された視線位置データを用いて補正す
る。また、前記映像表示モジュールは、前記体験者の目
の直前に置かれ且つ前記体験者の頭部に対して固定の状
態で設定された表示器に映像を表示する。
【0100】
【発明の効果】以上詳述したように本発明の仮想現実方
法及び装置によれば、位置方向検出手段からの位置デー
タと方向データとを用いて設定した3次元仮想空間内の
視点の位置と方向とを、視線検出手段からの視線データ
を用いて適切に補正するようにしたので、体験者が見る
映像フレーム(ディスプレイ)領域が小さくても、ま
た、この映像フレームに写し出されている仮想空間内の
範囲が狭くても、体験者の目の動きで仮想空間内のより
広い領域を見渡すことが可能となり、従って、体験者の
意思を忠実に反映したより臨場感のある仮想世界の疑似
体験(仮想世界シミュレーション)が可能となるという
効果を奏する。
【0101】また、この結果、体験者の目を覆うような
ディスプレイを備えた高価なHMDを使用しなくても済
むので、システム構築の際のコスト削減を図ることがで
きるという効果を奏する。
【0102】また、本発明の記憶媒体によれば、上述し
たような仮想現実装置を円滑に制御することができると
いう効果を奏する。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る仮想現実装置
の概念を示す図である。
【図2】本発明の第1の実施の形態に係る仮想現実装置
のシステム構成を示すブロック図である。
【図3】本発明の第1の実施の形態に係る仮想現実装置
のVRシミュレーション処理動作を示すフローチャート
である。
【図4】本発明の第1の実施の形態に係る仮想現実装置
の視線入力スカウタ内の映像表示部における視野フレー
ムを示す図である。
【図5】本発明の第1の実施の形態に係る仮想現実装置
の視点とニアクリッピング面を説明する図である。
【図6】本発明の第1の実施の形態に係る仮想現実装置
の体験者が見る情景を示す図である。
【図7】本発明の第1の実施の形態に係る仮想現実装置
の効果を示す図である。
【図8】本発明の第2の実施の形態に係る仮想現実装置
の視点とニアクリッピング面を説明する図である。
【図9】本発明の第2の実施の形態に係る仮想現実装置
の効果を示す図である。
【図10】本発明の記憶媒体に格納されるプログラムの
各プログラムモジュールを示す図である。
【図11】一般的なモデリング座標系における3次元物
体を示す図である。
【図12】一般的なモデルデータの一例を示す図であ
る。
【図13】一般的な投影変換のための4つの座標を示す
図である。
【図14】一般的な投影変換を示す図である。
【図15】一般的なスクリーンから投影された表示画像
の一例を示す図である。
【図16】一般的な視線検出方法の原理を示す平面図で
ある。
【図17】一般的な視線検出方法の原理を示す側面図で
ある。
【図18】一般的な仮想現実装置のイメージセンサに投
影される眼球像の概略図である。
【図19】一般的な仮想現実装置のイメージセンサの出
力強度図である。
【図20】一般的な視線検出機能を持つパソコンシステ
ムの一例を示す概略構成図である。
【図21】一般的な視線検出機能を持つパソコンシステ
ムのプリズムの構成図である。
【図22】一般的なVRシステムの問題点を説明するた
めの図である。
【符号の説明】
1 体験者 2 3Dセンサ 2a トランスミッタ 2b レシーバ 3 視線入力スカウタ(HMD) 3a モニタ 3b 視線検出装置 4 スキャンコンバータ 5 コンピュータ 6 体験者が見る3次元仮想空間 101 制御装置 102 データ入力装置 103 コマンド入力装置 104 ファイル装置 105 演算装置 106 メモリ装置 107 ビデオメモリ装置 108 データ表示装置 109 映像変換装置 110 位置方向検出装置 110a トランスミッタ部 110b レシーバ部 111 視線入力スカウタ 111a 視線検出部 111b 映像表示部

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 物体の3次元形状データを構築するモデ
    リング工程と、仮想現実状態を体験する体験者の頭部の
    空間位置及び方向を検出する位置方向検出工程と、前記
    体験者の視線位置を検出する視線位置検出工程と、3次
    元仮想空間に視点を設定する視点設定工程と、前記視点
    設定工程により設定した視点の方向を補正する視点方向
    補正工程と、前記視点方向補正工程により補正後の視点
    から前記物体のモデルデータを空間的・幾何学的配置を
    考慮して見たときの2次元画像を形成する2次元画像生
    成工程と、前記2次元画像生成工程により生成した2次
    元画像を映像信号に変換する映像変換工程と、前記映像
    変換工程により変換後の映像を表示する映像表示工程と
    を有することを特徴とする仮想現実方法。
  2. 【請求項2】 前記視点設定工程は、前記位置方向検出
    工程により検出された位置データ及び方向データに基づ
    いて視点を設定することを特徴とする請求項1記載の仮
    想現実方法。
  3. 【請求項3】 前記視点方向補正工程は、前記視点設定
    工程により設定された視点を、前記視線位置検出工程に
    より検出された視線位置データを用いて補正することを
    特徴とする請求項1記載の仮想現実方法。
  4. 【請求項4】 前記映像表示工程は、前記体験者の目の
    直前に置かれ且つ前記体験者の頭部に対して固定の状態
    で設定された表示器に映像を表示することを特徴とする
    請求項1記載の仮想現実方法。
  5. 【請求項5】 物体の3次元形状データを構築するモデ
    リング手段と、仮想現実状態を体験する体験者の頭部の
    空間位置及び方向を検出する位置方向検出手段と、前記
    体験者の視線位置を検出する視線位置検出手段と、3次
    元仮想空間に視点を設定する視点設定手段と、前記視点
    設定手段により設定した視点の方向を補正する視点方向
    補正手段と、前記視点方向補正手段により補正後の視点
    から前記物体のモデルデータを空間的・幾何学的配置を
    考慮して見たときの2次元画像を形成する2次元画像生
    成手段と、前記2次元画像生成手段により生成した2次
    元画像を映像信号に変換する映像変換手段と、前記映像
    変換手段により変換後の映像を表示する映像表示手段と
    を有することを特徴とする仮想現実装置。
  6. 【請求項6】 前記視点設定手段は、前記位置方向検出
    手段により検出された位置データ及び方向データに基づ
    いて視点を設定することを特徴とする請求項5記載の仮
    想現実装置。
  7. 【請求項7】 前記視点方向補正手段は、前記視点設定
    手段により設定された視点を、前記視線位置検出手段に
    より検出された視線位置データを用いて補正することを
    特徴とする請求項5記載の仮想現実装置。
  8. 【請求項8】 前記映像表示手段は、前記体験者の目の
    直前に置かれ且つ前記体験者の頭部に対して固定の状態
    で設定されることを特徴とする請求項5記載の仮想現実
    装置。
  9. 【請求項9】 仮想現実状態を実現する仮想現実装置を
    制御するプログラムを格納する記憶媒体であって、物体
    の3次元形状データを構築するモデリングモジュール
    と、仮想現実状態を体験する体験者の頭部の空間位置及
    び方向を検出する位置方向検出モジュールと、前記体験
    者の視線位置を検出する視線位置検出モジュールと、3
    次元仮想空間に視点を設定する視点設定モジュールと、
    前記視点設定モジュールにより設定した視点の方向を補
    正する視点方向補正モジュールと、前記視点方向補正モ
    ジュールにより補正後の視点から前記物体のモデルデー
    タを空間的・幾何学的配置を考慮して見たときの2次元
    画像を形成する2次元画像生成モジュールと、前記2次
    元画像生成モジュールにより生成した2次元画像を映像
    信号に変換する映像変換モジュールと、前記映像変換モ
    ジュールにより変換後の映像を表示する映像表示モジュ
    ールとを有するプログラムを格納したことを特徴とする
    記憶媒体。
  10. 【請求項10】 前記視点設定モジュールは、前記位置
    方向検出モジュールにより検出された位置データ及び方
    向データに基づいて視点を設定することを特徴とする請
    求項9記載の記憶媒体。
  11. 【請求項11】 前記視点方向補正モジュールは、前記
    視点設定モジュールにより設定された視点を、前記視線
    位置検出モジュールにより検出された視線位置データを
    用いて補正することを特徴とする請求項9記載の記憶媒
    体。
  12. 【請求項12】 前記映像表示モジュールは、前記体験
    者の目の直前に置かれ且つ前記体験者の頭部に対して固
    定の状態で設定された表示器に映像を表示することを特
    徴とする請求項9記載の記憶媒体。
JP15430597A 1997-05-29 1997-05-29 仮想現実方法及び装置並びに記憶媒体 Pending JPH10334274A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15430597A JPH10334274A (ja) 1997-05-29 1997-05-29 仮想現実方法及び装置並びに記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15430597A JPH10334274A (ja) 1997-05-29 1997-05-29 仮想現実方法及び装置並びに記憶媒体

Publications (1)

Publication Number Publication Date
JPH10334274A true JPH10334274A (ja) 1998-12-18

Family

ID=15581224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15430597A Pending JPH10334274A (ja) 1997-05-29 1997-05-29 仮想現実方法及び装置並びに記憶媒体

Country Status (1)

Country Link
JP (1) JPH10334274A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296757A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
JP2005121838A (ja) * 2003-10-15 2005-05-12 Olympus Corp カメラ
WO2006035890A1 (ja) * 2004-09-29 2006-04-06 Honda Motor Co., Ltd. 視線検出方法
JP2016526957A (ja) * 2013-06-07 2016-09-08 株式会社ソニー・インタラクティブエンタテインメント 三次元ゲームプレイの共有
DE102016107202A1 (de) 2015-04-20 2016-10-20 Fanuc Corporation Anzeigesystem
CN107260505A (zh) * 2017-02-14 2017-10-20 合肥中感微电子有限公司 视力保护方法、装置及具有视力保护功能的vr眼镜
JP2019220205A (ja) * 2011-05-06 2019-12-26 マジック リープ, インコーポレイテッドMagic Leap,Inc. 広範囲同時遠隔ディジタル提示世界
CN113767425A (zh) * 2019-03-31 2021-12-07 先端生物计算有限公司 信息处理装置、信息处理方法及程序

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296757A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
JP2005121838A (ja) * 2003-10-15 2005-05-12 Olympus Corp カメラ
WO2006035890A1 (ja) * 2004-09-29 2006-04-06 Honda Motor Co., Ltd. 視線検出方法
JP2006095008A (ja) * 2004-09-29 2006-04-13 Gen Tec:Kk 視線検出方法
US7717561B2 (en) 2004-09-29 2010-05-18 Honda Motor Co., Ltd. Sight line detecting method
US11669152B2 (en) 2011-05-06 2023-06-06 Magic Leap, Inc. Massive simultaneous remote digital presence world
JP2019220205A (ja) * 2011-05-06 2019-12-26 マジック リープ, インコーポレイテッドMagic Leap,Inc. 広範囲同時遠隔ディジタル提示世界
US9855504B2 (en) 2013-06-07 2018-01-02 Sony Interactive Entertainment Inc. Sharing three-dimensional gameplay
US10150042B2 (en) 2013-06-07 2018-12-11 Sony Interactive Entertainment Inc. Sharing recorded gameplay
US10843088B2 (en) 2013-06-07 2020-11-24 Sony Interactive Entertainment Inc. Sharing recorded gameplay
JP2016526957A (ja) * 2013-06-07 2016-09-08 株式会社ソニー・インタラクティブエンタテインメント 三次元ゲームプレイの共有
US10268433B2 (en) 2015-04-20 2019-04-23 Fanuc Corporation Display system
DE102016107202A1 (de) 2015-04-20 2016-10-20 Fanuc Corporation Anzeigesystem
DE102016107202B4 (de) 2015-04-20 2021-09-23 Fanuc Corporation Anzeigesystem
CN107260505A (zh) * 2017-02-14 2017-10-20 合肥中感微电子有限公司 视力保护方法、装置及具有视力保护功能的vr眼镜
CN113767425A (zh) * 2019-03-31 2021-12-07 先端生物计算有限公司 信息处理装置、信息处理方法及程序

Similar Documents

Publication Publication Date Title
JPH10334275A (ja) 仮想現実方法及び装置並びに記憶媒体
US11928784B2 (en) Systems and methods for presenting perspective views of augmented reality virtual object
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
US10403043B2 (en) System and method for generating a progressive representation associated with surjectively mapped virtual and physical reality image data
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US9230368B2 (en) Hologram anchoring and dynamic positioning
US11645823B2 (en) Neutral avatars
US11961194B2 (en) Non-uniform stereo rendering
JP2023100820A (ja) 空間コンピューティングのための写実的キャラクタ構成
JP2021531493A (ja) ダイナミックパネルマスキング
US12056273B2 (en) Determining angular acceleration
JP2023536064A (ja) 交互サンプリングを使用した眼追跡
JPH11195131A (ja) 仮想現実方法及び装置並びに記憶媒体
JPH10334274A (ja) 仮想現実方法及び装置並びに記憶媒体
US11743447B2 (en) Gaze tracking apparatus and systems
JPH06337756A (ja) 3次元位置指定方法および仮想空間立体視装置
US20240378831A1 (en) Neutral avatars
JP2018112885A (ja) プログラム及び画像生成システム