[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006301924A - 画像処理方法および画像処理装置 - Google Patents

画像処理方法および画像処理装置 Download PDF

Info

Publication number
JP2006301924A
JP2006301924A JP2005122369A JP2005122369A JP2006301924A JP 2006301924 A JP2006301924 A JP 2006301924A JP 2005122369 A JP2005122369 A JP 2005122369A JP 2005122369 A JP2005122369 A JP 2005122369A JP 2006301924 A JP2006301924 A JP 2006301924A
Authority
JP
Japan
Prior art keywords
user
distance
image
image processing
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005122369A
Other languages
English (en)
Other versions
JP4642538B2 (ja
Inventor
Koichiro Wanda
浩一郎 椀田
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005122369A priority Critical patent/JP4642538B2/ja
Priority to US11/400,000 priority patent/US7808450B2/en
Publication of JP2006301924A publication Critical patent/JP2006301924A/ja
Application granted granted Critical
Publication of JP4642538B2 publication Critical patent/JP4642538B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6692Methods for processing data by generating or executing the game program for rendering three dimensional images using special effects, generally involving post-processing, e.g. blooming
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8023Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game the game being played by multiple players at a common site, e.g. in an arena, theatre, shopping mall using a large public display

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

【課題】 複数のMR体験者が、同一の複合現実感を体験する場合、体験者同士が接触する可能性があり、本願発明は、MR体験者に接触する可能性のあることを報知することができる画像処理装置を提供することを目的とする。
【解決手段】 ユーザの視点位置および方向から撮像された現実世界画像を描画し(S401)、このときのユーザの視点位置および視線方向がセンサ部により検出され、その視点位置が、接触の可能性のある注意距離内であるか否かが判定し(S403〜S404)、注意距離内であれば、その旨の注意表示がなされる(S405〜S406)。
【選択図】 図4

Description

本発明は、画像処理方法および画像処理装置に関し、特に、複合現実感の提示中において、複数の使用者の位置が近接した場合、使用者に報知する画像処理方法および画像処理方法に関する。
近年、現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR:Mixed Reality)の技術を応用した装置が盛んに提案されている。
これらの複合現実感装置は、カメラなどの撮像装置によって撮影した現実世界の画像に対し、コンピュータグラフィックス(CG:Computer Graphics)で描画した仮想世界の画像を合成し、ヘッドマウントディスプレイ(HMD:Head−Mounted Display)などの表示装置に表示することで、複合現実感を装置の使用者に提示している。(例えば、特許文献1)
これらの複合現実感装置は、現実世界の画像の変化に追従させて仮想世界の画像を生成し、複合現実感を高めるために、装置の使用者の視点位置・姿勢をリアルタイムで取得し、かつ、使用者に対してHMDのような表示装置にリアルタイムに表示する必要がある。
複合現実感装置では、センサ装置によって計測した使用者の視点位置・姿勢を仮想世界での仮想の視点位置・姿勢として設定し、この設定に基づいて仮想世界の画像をCGにより描画して、現実世界の画像と合成する。
また、HMDは、複合現実感の提示のため、複合現実感装置の使用者の視野には、HMDの表示装置の表示があり、かつ、HMDの表示装置の表示内にはCGを描画する領域が含まれる。そのため、複合現実感装置の使用者は、あたかも現実世界の中に仮想の物体が存在しているかのような画像を観察することができるが、複合現実感の使用者の本来の視野に入るであろう現実世界の視界に対し、必ず、HMDの表示装置、および、CGの描画分、現実世界を遮る領域が存在し、使用者の現実世界における視界を狭くしている。特に、複数の複合現実感を体験する使用者が、同時に複合現実感を体験すると、他の使用者や現実世界の物体をCGが遮り、使用者の接近による接触や複合現実感の効果を損なう可能性がある。
特開2004−127024号公報
このような状況において、複合現実感装置の使用者のうち、HMDを使用して複合現実感を体験中の使用者は、他の使用者や物体に接近している状況を知る手段がなく、複合現実感装置を用いて複合現実感を提供するオペレータにおいては、複数のHMDの使用者の接近状況を的確に把握する手段がなく、特に、使用者の体格や手などの可動領域を含めた接触を回避するのに有効な体験中の使用者の状況把握方法がなかった。
本願発明は、複合現実感の提示中において、HMDを装着した複合現実感装置の複数の使用者、および、オペレータにHMDを装着した使用者の接近を報知し、接触を回避するような画像処理方法および画像処理装置を提供することを目的とする。
また、複合現実感の提示中において、HMDを装着した複合現実感装置の複数の使用者、および、オペレータにHMDを装着した使用者の頭部のみならず、使用者の手やセンサのオフセット位置などの稼動領域間の接近による接触可能性を報知し、使用者の接触の可能性を回避するような画像処理方法および画像処理装置を提供することを目的とする。
上記の課題を解決するために、本発明の画像処理方法は、ユーザの視点位置および方向から観測される現実世界画像を撮像する撮像工程と、前記ユーザの視点位置および視点方向を検出する検出工程と、前記視点位置および視点方向に基づいたCGと前記現実世界画像とを合成する合成工程と、前記合成した画像を前記ユーザに提示する提示工程と、複数のユーザ間の距離を計測する計測工程と、前記計測工程で計測した距離が、所定値以下になったか否かを判断する判断工程と、前記判断工程により前記所定値以下になったと判断された場合、前記ユーザに他のユーザが接近していることを報知する報知工程とを備える。
また、本発明の画像処理方法は、複数のユーザの視点位置および視点方向を検出する検出工程と、前記計測したそれぞれの視点位置および視点方向に基づいて、各ユーザにCG画像を提示する提示工程と、ユーザごとに計測対象を識別する識別工程と、前記識別工程で識別された計測対象ごとに領域を設定する設定工程と、前記設定された領域毎の距離を演算する演算工程と、前記演算した距離が、所定値以下になったか否かを判断する判断工程と、前記判断工程により前記所定値以下になったと判断された場合、前記ユーザに接触の可能性があることを報知する報知工程とを備える。
更に、本発明の画像処理装置は、ユーザの視点位置および方向から観測される現実世界画像を撮像する撮像手段と、前記ユーザの視点位置および視点方向を検出する検出手段と、前記視点位置および視点方向に基づいたCGと前記現実世界画像とを合成する合成手段と、前記合成した画像を前記ユーザに提示する提示手段と、複数のユーザ間の距離を計測する計測手段と、前記計測手段で計測した距離が、所定値以下になったか否かを判断する判断手段と、前記判断手段により前記所定値以下になったと判断された場合、前記ユーザに他のユーザが接近していることを報知する報知手段とを備える。
また、本発明の画像処理装置は、複数のユーザの視点位置および視点方向を検出する検出手段と、前記計測したそれぞれの視点位置および視点方向に基づいて、各ユーザにCG画像を提示する提示手段と、ユーザごとに計測対象を識別する識別手段と、前記識別手段で識別された計測対象ごとに領域を設定する設定手段と、前記設定された領域毎の距離を演算する演算手段と、前記演算した距離が、所定値以下になったか否かを判断する判断手段と、前記判断手段により前記所定値以下になったと判断された場合、前記ユーザに接触の可能性があることを報知する報知手段とを備える。
本発明は、複数のユーザに対して、他のユーザとの接触の可能性のあることを報知することで、ユーザ同士の接触を回避することが可能となる。
以下、本発明の一実施の形態について、図面を用いて説明する。
図1は、本実施の形態による複合現実感装置の概略構成を示すブロック図である。
図1において、演算処理部100は、コンピュータなどの計算機により構成される。演算処理部100には、CPU101、RAM102、画像生成装置103、システムバス104、ディスク装置105、入力装置106、画像読取装置107により構成される。
CPU101は、不図示のROM又は、RAM102に格納された複合現実感プログラムに基づき、複合現実感処理を制御する。CPU101はシステムバス104に接続され、RAM102、画像生成装置103、システムバス104、ディスク装置105、入力装置106、画像読取装置107と相互に通信可能であり、各機器を制御する。
RAM102は、メモリなどの主記憶装置によって実現され、システムバス104を介して、複合現実感プログラムのプログラムコードやプログラムの制御情報、CGデータや計測位置データなどを一時的に保持する。
画像生成装置103は、グラフィックスカードなどの機器によって実現される。一般的に、画像生成装置103は図示しないグラフィックスメモリを保持している。CPU101上で実行されるプログラムによって生成された画像情報は、システムバス104を介して画像生成装置103が保持するグラフィックスメモリに書き込まれる。画像出力装置103は、グラフィックスメモリに書き込まれた画像情報を表示装置に応じた画像信号に変換して表示部200、および、表示装置301、401、801に送出する。
グラフィックスメモリは必ずしも画像生成装置103が保持する必要はなく、RAM102によってグラフィックスメモリの機能を実現してもよい。
システムバス104は、演算処理部100を構成する各機器が接続され、各機器が相互に通信するための通信路である。
ディスク装置105は、ハードディスク等の補助記憶装置によって実現される。ディスク装置105は、複合現実感プログラムのプログラムコードやプログラムの制御情報、仮想世界のCGオブジェクトデータ、HMDの位置データ、注意距離情報などを保持する。
入力装置106は、各種インターフェース機器によって実現される。例えば、演算処理部100の外部に接続された機器からの信号をデータとして入力し、システムバス104を介して、RAM102にデータを書き込むなどの機能を実現する。
画像読取装置107は、キャプチャカードなどのようにビデオ画像などの画像信号を入力し、システムバス104を介して、RAM102またはグラフィックスメモリに画像データを書き込む。なお、第1HMD300、第2HMD400、第3HMD800が、工学シースルーの場合は、画像読取装置107を具備しなくてよい。
表示部200は、例えば、CRT、液晶ディスプレイなどの表示装置であり、本発明の複合現実感提示装置の使用者(第1HMD300、第2HMD400、第3HMD800の夫々の使用者)に対し、複合現実感提示装置の動作状況やHMDの位置情報などを表示する。
第1HMD300、第2HMD400、第3HMD800は、本実施形態の複合現実感装置を体験するために、本装置の使用者が装着するHMDである。なお、HMDの数は、3つに限定するものではなき、2つ、4つ又はそれ以上であっても良い。
第1HMD300は、表示装置301、撮像装置302、計測対象303により構成される。第2HMD400は、表示装置401、撮像装置402、計測対象403により構成される。第3HMD800は、表示装置801、撮像装置802、計測対象803により構成される。
本発明の構成では、第1HMD300、第2HMD400、第3HMD800は、同じHMDとして説明するが、必ずしも同じHMDでなくてもよい。また、HMDと同じように使用者の位置をセンサで特定できるものであれば、HMD以外の対象物とHMDの位置関係をもとに注意距離を判定してもよい。
本発明の実施形態中では、ビデオシースルー方HMDを例にして、光学式シースルーHMDであっても本発明を適用することが可能であり、その場合、撮像装置303、403は不要となる。また、以下の説明では、2つのHMDの場合を説明する。
表示装置301、401は、例えば、ビデオシースルー型HMDのディスプレイによって実現される。表示装置301、401は、画像生成装置103から送出される画像信号を表示し、使用者に複合現実感を提示するために用いられる。
撮像装置302、402は、各HMDの使用者の視点から見られる現実世界の画像を撮像するために用いられ、撮像した画像は、画像信号として画像読取装置107に送られる。
計測対象303、403は、センサ600がHMDのそれぞれの位置を認識するために必要な計測対象であり、HMD上に設けられる。
センサ600は、使用者の位置、姿勢を計測する。センサ制御部500はセンサ600を制御し、計測対象303、403、および、センサ600により観測データを取得する。センサ制御部500は、観測データをもとに、計測対象303、403の位置、姿勢情報を算出し、計測値として入力装置106に送信する。
なお、本発明の実施形態では、計測対象303、403、センサ制御部500、センサ600は、センサ装置により、異なる構成であっても適用することができる。
光学式の例として、Northern Digital社の光学式センサOPTOTRAK3020の計測対象303、403は、発光装置によって構成され、センサ制御部500の制御により発光する。センサ600は、受講装置によって構成され、計測対象303、403の発光装置から発した光を観測する。センサ制御部500は、センサ600の観測データと計測対象303、403の位置、姿勢を算出する。
また、別の光学式センサの例として、3rdTech社の光学式センサHiBallの場合は、計測対象303,403は、受光装置によって構成され、センサ600は、発光装置によって構成される。センサ600は、センサ制御部500の制御によって発光する。計測対象303、403は、センサ600の発する光を観測する。センサ制御部500は、計測対象303、403の観測データ、センサ600の配置データをもとに、計測対象303、403の位置、姿勢を算出する。
更に、磁気センサの例として、Polhmus社の磁気センサFastrakの場合は、計測対象303、403はレシーバで構成され、センサ600のトランスミッタが発生する磁界を観測し、観測データを生成する。センサ600は、トランスミッタによって構成され、センサ制御部500の制御によって磁界を発生する。センサ制御部500は、計測対象303、403の観測データをもとに、計測対象303、403の位置、姿勢を算出する。
また、使用者がマーカを装着し、HMDとは別の撮像装置によって撮像した画像に画像処理を施し、画像中からマーカを抽出、マーカの画像中の位置から使用者のHMDの位置、姿勢を算出する手法も適用することができる。
この場合、計測対象303、403をマーカ、センサ600を撮像装置、センサ制御部500を画像処理部とする構成として考えられる。また、計測対象303、403に、特にマーカを装着せず、撮像装置が本装置の使用者を撮像し、使用者の画像特徴を用いて、使用者の位置、姿勢を算出する手法も適応可能である。この場合、計測対象303、403は、本装置の使用者が該当する。
さらに、本装置を使用する空間中にランドマークとなる複数のマーカを設置し、撮像装置302、402によって撮像された画像に対して、画像処理を行い、画像中のマーカの位置から本装置の使用者の位置姿勢を算出する方法や、本装置を使用する空間中にランドマークとして明示的なマーカを設置せずに撮像装置が撮像した画像から画像特徴を抽出することにより、本装置の使用者の位置、姿勢を算出する方法も適応できる。
また、複数のセンサや計測手法を併用して本装置の使用者の位置、姿勢を計測することや位置のみを計測しても本実施の形態に適用することが可能である。
(第1の実施の形態)
図4は、第1の実施の形態を示すフローチャートである。
第1の実施の形態では、センサにより計測される使用者間の距離のみを用いて近接の判定を行う例について、図4のフローチャートを用いて詳細に説明する。
また、ステップS401で、複合現実感提示処理に必要な初期化処理を行う。初期化処理には、例えば、CPU101が仮想世界CGオブジェクトデータ、報知用CGオブジェクトデータ、注意距離データや、プログラムの制御データなど、必要なデータをディスク装置105からRAM102上に読み出す。
ステップS402において、画像読取装置107は、撮像装置302、402によって撮像された本装置の使用者のHMDからの現実世界画像を入力し、RAM102に書き込む。CPU101は、RAM102から画像を読み出し、必要に応じて補正処理を行った後に、画像生成装置103のグラフィックスメモリ上のフレーム・バッファに書き込む。なお、RAM102を介さずに、画像読取装置107が入力した画像を画像生成装置103のグラフィックスメモリ上のフレーム・バッファに直接書き込むようにしてもよい。
なお、表示装置201に光学シースルー型の表示装置を用いる場合には、ステップS402の処理は行う必要はない。
ステップS403において、入力装置106は、センサ部600のセンサ制御部500が出力した計測値を取得する。CPU101は、取得した計測値を本装置の使用者の視点での位置・姿勢に変換し、RAM102に書き込む。更に、ステップS403では、ディスク装置106からステップS401の境界計測値収集処理(センサー計測可能、又は、使用者が移動可能な範囲を収集する処理)によって計測された境界計測値(センサー計測可能、又は、移動可能な範囲の計測値)を読み込み、RAM102に格納する。
CPU101は、ステップS403において変換した本装置の使用者の視点位置とRAM102に格納した複数の境界計測値群とを照合し、本装置の使用者が装着する第1HMD300と第2HMD400のHMD間距離(図2参照)が、注意距離内であるか否かを判定する。
ステップS405では、ステップS404で判定された本装置の使用者の第1HMD300、第2HMD400の位置から算出されるHMD間の距離があらかじめシステムに設定されている注意距離以内であれば、注意表示を行う処理に進む。
注意距離内であれば、ステップS409に進み、CPU101は、RAM102にあらかじめ読み込まれている、注意用CGオブジェクトを表示装置301、401に表示して使用者に報知する。例えば、表示装置301、401のそれぞれの予め決められた位置(中央部など)に、「注意:他のユーザと接触する可能性があります。」と、表示する。
次に、ステップS410においては、CPU101は、RMA102にあらかじめ読み込まれている、例えば、図3に示すようなオペレータパネルのGUIを表示部200に表示し、第1HMD300と第2HMD400の距離を表示するとともに、第1HMD300と第2HMD400の距離が1m(1000mm)以内であれば、アイコンの色をオレンジにし、50cm以内であれば、アイコンの色を赤にするような注意表示を行う。
これらの注意表示には、表示だけでなく、アニメーションの表示、また、注意距離内に存在する使用者のHMD近辺のCGの描画を消すなどのように、他の使用者が注意距離内に存在する表示であれば、他の表示手段を併用してもよい。
また、判定に用いる注意距離の閾値は、使用者の位置、姿勢から、向き、進行方向、速度、に応じて異なる値を使いわけてもよい。
ステップS405において、注意距離内でないと判定されれば、ステップS406において計測値を保持(RAM102に記憶)し、ステップS407に進む。
ステップS407において、CPU101はRAM102から仮想世界のCGオブジェクトのデータを読み出し、算出した本装置の使用者の視点位置・姿勢からCGを描画して、グラフィックスメモリ上に出力する。画像生成装置103は、グラフィックスメモリ上の各種バッファに描画されたデータを合成し、表示装置301、401に対して画像信号を送出する。
ステップS409においては、複合現実感提示処理の続行を判定し、処理を続行する場合にはステップS402に戻る。処理を終了する場合には、本発明の複合現実感提示処理を終了する。
以上、説明のように本実施の形態によれば、複数のHMD装着者の距離が、予め設定した距離以下になると、接触する可能性があることを、HMD装着者に対して報知することができる。また、装置全体を管理するオペレータに対しては、それぞれの距離を提示できると共に接触の可能性の可能性を色によって提示することができる。
(第2の実施の形態)
図5は、本発明の第2の実施の形態における、注意領域の概念を示す図である。
図5において、センサ5010は、複合現実感提示システムのHMDを装着した使用者の位置、姿勢を検知するセンサである。センサ計測域5020は、センサ5010が計測可能な領域を示している。また、計測対象5030は、複合現実感提示処理の使用者のHMDの位置、姿勢や、使用者の手や装着している物体など、使用者が接触の可能性を有するものの位置、姿勢を計測するための計測対象である。本実施の形態では、計測対象として説明するが、計測対象5030が、自らの位置姿勢を計測できるセンサやジャイロであっても構わない。
注意領域5040は、計測対象5030の位置と、あらかじめシステムに設定されている閾値で決定される注意領域である。注意領域間距離5050は使用者ごとの注意領域の最短距離である。本第2の実施の形態では、注意領域間距離5050の値が、あらかじめシステムに設定されている注意距離に応じて使用者に、他の使用者との接近を報知する表示を行う。
図4に示したフローチャートと図5を用いて、第2の実施の形態を詳細に説明する。
なお、第1の実施の形態と異なる部分のみを説明する。
ステップS403において、本装置の使用者が装着する第1HMD300、第2HMD400の位置が、図5の注意領域間距離5050内に存在するか否かを判定する。この注意領域間距離は、複数の計測対象5030と使用者の位置から注意領域5040を設定し、各使用者の注意領域間の距離を用いて判定を行う。この注意領域は、使用者ごとに任意に設定してもよく、使用者の体格や、装着状態に応じて注意領域情報を使い分けることができる。
同一使用者の複数の計測対象5030間の距離については判定を行わず、図5で示すような、計測対象5030を中心とした一定の距離Rの注意領域と、他の使用者の注意領域間の距離で判定する。注意領域の大きさを決定する距離Rは、オペレータが操作入力700から任意に変更することも可能である。
ステップS410における表示は、さらに、相対位置情報、客観的な視点で使用者の位置がマッピングされたマップ画像など、使用者への注意に有効な画像情報を、同時に表示することも可能である。
また、判定に用いる注意領域間距離の閾値は、使用者の位置、姿勢から、向き、進行方向、速度、に応じて異なる値を使いわけてもよい。また、本実施の形態では、第1、第2のHMDの使用者の実施の形態に関して説明しているが、第3の使用者が存在し、オペレータと同様に、第3の使用者に第1、第2のHMDの使用者の接近を通知することも可能である。
以上、説明したように本実施の形態によれば、使用者の形体を考慮して注意領域を設定するため、適切な注意領域を設定することができる。
また、一人の使用者に計測対象を複数設定するため、適切な大きさの注意領域を設定することができ、また、同一使用者の計測対象同士で、近接判断を行わないようにしたので、不要な処理を行うことがない。
(第3の実施の形態)
図6は、本発明の第3の実施の形態おける、注意領域の概念を示す図である。
図6において、センサ6010は、複合現実感提示システムのHMDを装着した使用者の位置、姿勢を検知するセンサである。センサ計測域6020は、センサ6010が計測可能な領域を示している。
図6では、HMD(図6においては不図示)と計測対象6080(図中に四角形で示す)を装着した3人の使用者の相対的な位置関係を示している。すなわち、第1使用者6031、 第2使用者6032、第3使用者6033には、それぞれ任意の数の計測対象とシステムに設定されている注意領域の値により決定される、注意領域6041、6042、6043が算出されて、設定される。
これらの注意領域の最短距離は、それぞれ、第1使用者6031の注意領域6041と、第2使用者6032の注意領域6042の最短距離については注意領域間距離6050、第2使用者6032の注意領域6042と、第3使用者6033の注意領域6043の最短距離については注意領域間距離6060、第3使用者6033の注意領域6043と、第1使用者6032の注意領域6041の最短距離については注意領域間距離6070、で示されている。
計測対象6080は、複合現実感提示装置の使用者のHMDの位置、姿勢や、使用者の手や装着している物体など、使用者が他と接触する可能性を有するものの位置、姿勢を計測するための計測対象である。本実施の形態では、計測対象として説明するが、計測対象5080が、自らの位置姿勢を計測できるセンサやジャイロであっても構わない。また、本発明の第3の実施の形態では、図6に示す3名の使用者が、いずれも、頭部と両手に計測対象6080を装着している例を説明するが、計測対象6080の数や位置は、注意領域を決定するための位置、姿勢を計測できる使用者の体の一部、使用者に装着された物体であれば、どこであってもよく、計測対象6080の数も任意の数であってよい。
図7は、本第3の実施の形態の処理の手順を示すフローチャートである。
図6,7を用いて、以下に本第3の実施の形態について詳細に説明する。
本第3の実施の形態では、センサ計測領域内に第1使用者6031、第2使用者6032、第3使用者6033の3名が、センサ計測域6020内に存在し、はじめは3名とも注意領域間距離が、所定の閾値よりも大きく、注意の必要のない位置(2m)に存在し、その後、第3使用者6033が、第2使用者6032に近づいたために、第3使用者6033と第2使用者6032間の注意領域間距離6060が閾値(1m、50cm)内になり、第2、第3使用者の双方のHMDに近接注意を表示し、第1使用者には、第2、第3使用者が近接していることを通知する手順について説明する。
ステップS701では、複合現実感提示処理に必要な初期化処理を行う。初期化処理には、例えば、CPU101が仮想世界CGオブジェクトデータ、注意用CGオブジェクトデータ、注意領域間距離データや、プログラムの制御データなど、必要なデータをディスク装置105からRAM102上に読み出す。
本実施の形態で用いる、使用者や、使用者の計測対象ごとの注意領域の大きさや、注意を出す閾値となる注意領域間距離などのパラメータはこの時点で、システムに保存されるファイルから読み込まれ、RAM102上に保持される。
ステップS701でシステムの初期化処理が終了すると、ステップS702において、画像読取装置107は、撮像装置302、402、802によって撮像された本装置の使用者のHMDからの現実世界画像を入力し、RAM102にそれぞれ書き込む。
CPU101は、RAM102からそれぞれの画像を読み出し、必要に応じて補正処理を行った後に、画像生成装置103のグラフィックスメモリ上のフレーム・バッファに書き込む。この場合、RAM102を介さずに、画像読取装置107が入力した画像を画像生成装置103のグラフィックスメモリ上のフレーム・バッファに直接書き込むようにしてもよい。なお、表示装置301、401、801に光学シースルー型の表示装置を用いる場合には、ステップS702の処理は行う必要はない。
ステップS703において、入力装置106はセンサ部600(6010)のセンサ制御部300が出力した計測値を取得する。CPU101は、取得した計測値を本装置の使用者の視点での位置・姿勢に変換し、RAM102に書き込む。ステップS703では、ディスク装置106からステップS701の境界計測値収集処理によって計測された境界計測値を読み込み、RAM102に格納する。
次にステップS704において、CPU101は、ステップS703において変換した使用者の視点位置とRAM102に格納した複数の境界計測値群とを照合し、使用者が装着する第1HMD,、第2HMD、第3HMDの位置が、図6の注意領域間距離内に存在するか否かを判定する。この注意領域間距離は、複数の計測対象6080を装着した使用者の位置から注意領域を設定し、各使用者の注意領域間の距離を用いて判定を行う。
この注意領域は、使用者ごとに任意に設定してもよく、使用者の体格や、装着状態に応じて注意領域情報を使い分けることができる。同一使用者の複数の計測対象6080間の距離については判定を行わず、例えば、図5で示すような、計測対象5030を中心とした一定の距離Rで決定される円で囲まれるような注意領域と、他の使用者の注意領域間の距離で判定する。注意領域の大きさを決定する距離Rは任意に変更することも可能である。
また、使用者に近接を報知すべき状況を判定するために使用者、または、使用者が装着する物が接触せずに余裕をもって稼動できる領域であり、使用者ごとの領域を決定できる方法であれば、別の方法であっても構わない。
ステップS705では、ステップS704で判定された使用者の第1HMD、第2HMD、第3HMDの位置から算出されるHMD間の距離があらかじめシステムに設定されている注意領域間距離以内かどうか判定する。
第1使用者6031、第2使用者6032、第3使用者6033の三名は、十分、離れた位置にいるため、それぞれの注意領域6041、6042、6043をもとに、それぞれの注意領域間距離6050、6060、6070を算出すると、2mであり、閾値である1mよりも離れていて注意の必要がない。第1、第2、第3使用者のHMDは、いずれも、それぞれの使用者に対し、注意の必要がないため、ステップS706の判定に進む。
ステップS706において、別の使用者に注意すべき、使用者どうしの近接が発生していないか判断するが、第1、第2、第3HMDの使用者のいずれの注意領域間距離も、閾値以下になっていないため、他の使用者も注意すべき近接は発生していないと判定し、ステップS707に進む。
ステップS707において、第1、第2、第3使用者の各位置、姿勢の計測値を保持し、ステップS708において、それぞれの位置、姿勢に応じて、各使用者のHMDの実写画像に重ねてCGを描画する。そして、ステップS709におてい描画の終了が指示されていなければ、ステップS702に戻り、同様の描画処理を継続する。
次に、第3使用者6033が、第2使用者6032に接近し、第1使用者6031とのそれぞれの距離は1m以上であるが、第2使用者と第3使用者の注意領域間距離が閾値の1m以下になった場合について、説明する。
ステップS702、S703は、閾値以上の場合と同様の処理を実行し、第1使用者6031、第2使用者6032、第3使用者6034とも同様の処理となる。
ステップS704においても判定処理は同様の処理だが、各使用者の距離に応じて、異なる判定結果となる。すなわち、第1使用者6031の注意間距離の判定結果は、いずれも、閾値である1m以上である。
第2使用者6032の注意領域間距離の判定結果は、第1使用者6031との注意領域間距離6050は、閾値以下であるが、第3使用者6033との注意領域間距離6060は、閾値の1m以下と算出される。第3使用者6033も同様に、第1使用者6031との注意領域間距離6070は、閾値の1m以上であり、第2使用者6032との注意領域間距離6060は閾値の1m以下と算出される。
以下は、各使用者ごとに処理が異なるため、使用者別の処理について説明する。
ステップSS705において、第1使用者6031の判定結果は、他の2者との注意領域間距離が、閾値である1m以上であるので、ステップS706に進む。第1使用者6031は、他の2人の使用者とは注意を受ける距離にいないと判定されているが、他の2者どうしが、注意距離内に近づいているため、ステップS710にすすむ。ステップS710において、第2使用者6032と第3使用者6033の注意領域間距離が閾値以下であることを通知できるような描画を行う。表示内容に関しては、例えば、テキストで表示してもよいし、第1、第2使用者を抽象化したモデルでもよいし、画面内の色がオペレータのパネルの表示と同様の色に変更されるなど、定常状態とは区別される表示であればよく、どのような表示内容であっても、識別できる状態であればよい。
次に、ステップS708にすすみ、CPU101はRAM102から仮想世界のCGオブジェクトのデータを読み出し、算出した本装置の使用者の視点位置・姿勢からCGを描画して、グラフィックスメモリ上に出力する。画像生成装置103は、グラフィックスメモリ上の各種バッファに描画されたデータを合成し、すなわち、実写画像データ、注意表示用のデータ、近接注意に関わらず、表示すべきCGオブジェクトの合成画像を作成し、表示装置301に対して画像信号を送出する。
次に、第2使用者6032、第3使用者6033用の処理について、ステップS705の処理から説明する。
ステップS704において、第2使用者6032の判定結果は、第1使用者6031との注意領域間距離6050については、閾値の1m以上であるが、第3使用者6033との注意領域間距離6060は、1m以下と算出されたため、ステップS705では、第1使用者6031とは異なり、ステップS711に進み、注意用のCGを描画する。この描画は、第2使用者6032に対し、第3使用者6033に近づいていることを示す描画でもよいし、または、第2使用者6032と、第3使用者6033の距離を数値的に示すような表示でもよいし、テキストの情報やアイコンなどの簡略化した表示でもよい。
次に、ステップS712にすすみ、オペレータパネル上に、第2使用者6032のHMDが第3使用者6033のHMDとの距離が閾値以下になったことを示すような表示を行う。例えば、1m以下であれば、アイコンの色をブルーからオレンジに変更する、というように、オペレータに対しても、どの使用者のHMDどうしが、どの程度の距離まで接近したか表示し、かつ、閾値に応じて分かりやすい色で表示するような例が考えられる。
オペレータに対する表示も、各使用者のHMDの接近を注意し、閾値ごとに異なり、かつ、接触の可能性の増大を段階的に示すような表示であれば、どのような表示であっても適用することができる。
次に、ステップS713に進み、CG描画の有無を判定する。
例えば、注意領域間距離が第1の閾値1m以下で第2の閾値50cm以上であれば、HMDの近接による接触可能性は比較的小さいと設定されているシステムであれば、ステップS708に進み、注意表示と共にコンテンツのCGの描画も行い、一連の描画処理をシステムが繰り返される。そして、注意領域間距離の判定結果が変わるまで同様の表示を継続する。
そして、注意領域間距離が第2の閾値50cm以下になった場合に、ステップS711において、より接触する可能性が高くなったことを強調するため50cm〜1mの場合の表示とは区別できる別の表示画像を描画し、ステップS712におけるオペレータへの注意表示においても、例えば、オレンジ色のアイコンを赤色にし、ウインドウの表示が最前面になるように描画する。さらに、ステップS713においては、CGの描画をせずに実写と注意用の描画だけを行い、第2使用者6032が、接近する第3使用者6033との近接に対応するために、邪魔になるCG描画を極力しないようにし、システムが終了するか、注意領域間距離の判定が変更されるまで、同様の描画処理を継続する。
第3使用者6033の描画処理も、前述の第2使用者6032の描画処理と同様の判断で実施することができる。
上記のような手順で、第1使用者6031、第2使用者6032、第3使用者6033の描画処理をステップS709において描画の終了を指示されるまで継続することにより、本発明の複合現実感提示方法における、第3の実施の形態を実施できる。
以上説明のように、複合現実感提示装置の使用者が複合現実感を体験中に、使用中の移動や他の使用者の接近による接触から、適切に誘導し、同時に、複合現実感提示装置のオペレータにも、接近による接触の可能性の情報を示すことができる。
また、複数の使用者の情報をオペレータにも提示することができるため、外部からも使用者の状態を適確に判断することができる。
更に、使用者ごとに設定された注意領域間の距離で判断するため、使用者の体格の相違などによる誤差を吸収することができる。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,DVD−ROM,DVD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明の画像処理装置の概略構成を示すブロック図である。 本発明の第1の実施の形態の注意距離の概念を示す図である。 本発明の画像処理装置のオペレータの表示例を示す図である。 本発明の第1、第2の実施の形態の処理手順を示すフローチャートである。 本発明の第2の実施の形態における注意領域間距離の概念を示す図である。 本発明の第3の実施の形態における各使用者の相対的な位置関係と、注意領域間距離の概念を示す図である。 本発明の第3の実施の形態の処理手順を示すフローチャートである。
符号の説明
100 演算処理部
103 画像生成装置
107 画像読取装置
200 表示部
300 第1HMD
400 第2HMD
800 第3HMD
301、401、801 表示装置
302、402、802 撮像装置
303、403、803 計測対象

Claims (13)

  1. ユーザの視点位置および方向から観測される現実世界画像を撮像する撮像工程と、
    前記ユーザの視点位置および視点方向を検出する検出工程と、
    前記視点位置および視点方向に基づいたCGと前記現実世界画像とを合成する合成工程と、
    前記合成した画像を前記ユーザに提示する提示工程と、
    複数のユーザ間の距離を計測する計測工程と、
    前記計測工程で計測した距離が、所定値以下になったか否かを判断する判断工程と、
    前記判断工程により前記所定値以下になったと判断された場合、前記ユーザに他のユーザが接近していることを報知する報知工程とを備えることを特徴とする画像処理方法。
  2. 前記距離に応じて、報知する種類が異なることを特徴とする請求項1に記載の画像処理方法。
  3. 前記判断工程の判定に用いる所定値が、ユーザの向き、進行方向、速度に応じて、異なることを特徴とする請求項1に記載の画像処理方法。
  4. 前記報知工程による報知を、他のユーザにも行うことを特徴とする請求項1に記載の画像処理方法。
  5. 前記報知工程によるユーザへの報知は、前記合成工程による合成画像を使用せず、前記現実世界画像に注意情報を重畳した画像を用いることを特徴とする請求項1に記載の画像処理方法。
  6. 前記報知工程によるユーザへの報知は、前記距離に応じて、前記ユーザに提示する合成画像のCGを半透明にして、現実空間の描画が隠されないようにすることを特徴とする請求項1に記載の画像処理方法。
  7. 前記報知工程によるユーザへの報知は、前記距離と前記ユーザの速度に応じて、前記ユーザに提示する合成画像のCGを半透明にして、現実空間の描画が隠されないようにすることを特徴とする請求項1に記載の画像処理方法。
  8. 複数のユーザの視点位置および視点方向を検出する検出工程と、
    前記計測したそれぞれの視点位置および視点方向に基づいて、各ユーザにCG画像を提示する提示工程と、
    ユーザごとに計測対象を識別する識別工程と、
    前記識別工程で識別された計測対象ごとに領域を設定する設定工程と、
    前記設定された領域毎の距離を演算する演算工程と、
    前記演算した距離が、所定値以下になったか否かを判断する判断工程と、
    前記判断工程により前記所定値以下になったと判断された場合、前記ユーザに接触の可能性があることを報知する報知工程とを備えることを特徴とする画像処理方法。
  9. 前記識別工程においてはユーザ毎に複数の計測対象を識別し、前記設定工程においては識別された計測対象ごとに領域を設定し、前記演算工程においては設定された複数の領域と、他のユーザの複数の領域との間の距離を演算することを特徴とする請求項8に記載の画像処理方法。
  10. ユーザの視点位置および方向から観測される現実世界画像を撮像する撮像手段と、
    前記ユーザの視点位置および視点方向を検出する検出手段と、
    前記視点位置および視点方向に基づいたCGと前記現実世界画像とを合成する合成手段と、
    前記合成した画像を前記ユーザに提示する提示手段と、
    複数のユーザ間の距離を計測する計測手段と、
    前記計測手段で計測した距離が、所定値以下になったか否かを判断する判断手段と、
    前記判断手段により前記所定値以下になったと判断された場合、前記ユーザに他のユーザが接近していることを報知する報知手段とを備えることを特徴とする画像処理装置。
  11. 複数のユーザの視点位置および視点方向を検出する検出手段と、
    前記計測したそれぞれの視点位置および視点方向に基づいて、各ユーザにCG画像を提示する提示手段と、
    ユーザごとに計測対象を識別する識別手段と、
    前記識別手段で識別された計測対象ごとに領域を設定する設定手段と、
    前記設定された領域毎の距離を演算する演算手段と、
    前記演算した距離が、所定値以下になったか否かを判断する判断手段と、
    前記判断手段により前記所定値以下になったと判断された場合、前記ユーザに接触の可能性があることを報知する報知手段とを備えることを特徴とする画像処理装置。
  12. 請求項1乃至9のいずれかに記載の画像処理方法をコンピュータに実行させるためのプログラム。
  13. 請求項1乃至9のいずれかに記載の画像処理方法をコンピュータに実行させるためのプログラムを格納した記憶媒体。
JP2005122369A 2005-04-20 2005-04-20 画像処理方法および画像処理装置 Active JP4642538B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005122369A JP4642538B2 (ja) 2005-04-20 2005-04-20 画像処理方法および画像処理装置
US11/400,000 US7808450B2 (en) 2005-04-20 2006-04-07 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005122369A JP4642538B2 (ja) 2005-04-20 2005-04-20 画像処理方法および画像処理装置

Publications (2)

Publication Number Publication Date
JP2006301924A true JP2006301924A (ja) 2006-11-02
JP4642538B2 JP4642538B2 (ja) 2011-03-02

Family

ID=37470140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005122369A Active JP4642538B2 (ja) 2005-04-20 2005-04-20 画像処理方法および画像処理装置

Country Status (2)

Country Link
US (1) US7808450B2 (ja)
JP (1) JP4642538B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042974A1 (ja) * 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
JP2012155654A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
JP2014170330A (ja) * 2013-03-02 2014-09-18 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法、仮想現実提示装置
JP2016062277A (ja) * 2014-09-18 2016-04-25 泰章 岩井 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法
JP2017010387A (ja) * 2015-06-24 2017-01-12 キヤノン株式会社 システム、複合現実表示装置、情報処理方法及びプログラム
JP2017062720A (ja) * 2015-09-25 2017-03-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017148530A (ja) * 2013-09-30 2017-08-31 株式会社ソニー・インタラクティブエンタテインメント 物理オブジェクトの画像をフェードアウトする方法
US9784972B2 (en) 2014-09-12 2017-10-10 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JPWO2017077660A1 (ja) * 2015-11-06 2017-11-02 株式会社三和機工 体感型仮想現実空間システム
JP2017535901A (ja) * 2014-11-05 2017-11-30 バルブ コーポレーション 仮想現実環境においてユーザをガイドするための感覚フィードバックシステム及び方法
JPWO2017006640A1 (ja) * 2015-07-08 2018-06-07 ソニー株式会社 情報処理装置、表示装置、情報処理方法及びプログラム
WO2018124280A1 (ja) * 2016-12-28 2018-07-05 株式会社バンダイナムコエンターテインメント シミュレーションシステム、画像処理方法及び情報記憶媒体
JP2019192263A (ja) * 2019-06-05 2019-10-31 株式会社Abal 仮想空間体感システム
JP2021002290A (ja) * 2019-06-24 2021-01-07 キヤノン株式会社 画像処理装置およびその制御方法
JP2022027370A (ja) * 2020-07-31 2022-02-10 日本信号株式会社 ロボット
JP2022100325A (ja) * 2017-09-29 2022-07-05 グリー株式会社 ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置
US11527020B2 (en) 2020-02-27 2022-12-13 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
WO2024069831A1 (ja) * 2022-09-29 2024-04-04 マクセル株式会社 情報表示装置

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8083422B1 (en) * 2007-03-02 2011-12-27 Marvell International Ltd. Handheld tattoo printer
US8079765B1 (en) 2007-03-02 2011-12-20 Marvell International Ltd. Hand-propelled labeling printer
US8096713B1 (en) 2007-03-02 2012-01-17 Marvell International Ltd. Managing project information with a hand-propelled device
US8705117B1 (en) 2007-06-18 2014-04-22 Marvell International Ltd. Hand-held printing device and method for tuning ink jet color for printing on colored paper
US8593503B2 (en) * 2008-09-25 2013-11-26 Alcatel Lucent Videoconferencing terminal and method of operation thereof to maintain eye contact
JP5299018B2 (ja) * 2009-03-26 2013-09-25 ソニー株式会社 情報処理装置、コンテンツ処理方法及びプログラム
US8509483B2 (en) * 2011-01-31 2013-08-13 Qualcomm Incorporated Context aware augmentation interactions
US8743244B2 (en) 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
JP6048819B2 (ja) * 2011-05-10 2016-12-21 パナソニックIpマネジメント株式会社 表示装置、表示方法、集積回路、プログラム
US20130055143A1 (en) * 2011-08-31 2013-02-28 Smart Technologies Ulc Method for manipulating a graphical user interface and interactive input system employing the same
US20130194304A1 (en) * 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
US9472013B2 (en) * 2013-04-01 2016-10-18 Ebay Inc. Techniques for displaying an animated calling card
US9908048B2 (en) * 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US9754167B1 (en) * 2014-04-17 2017-09-05 Leap Motion, Inc. Safety for wearable virtual reality devices via object detection and tracking
US9646201B1 (en) 2014-06-05 2017-05-09 Leap Motion, Inc. Three dimensional (3D) modeling of a complex control object
US10007350B1 (en) 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US10719950B2 (en) * 2014-08-05 2020-07-21 Sony Corporation Head mount display (HMD) operated with mobile device for transforming reference coordinate systems for providing screen information
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
CN106687888A (zh) * 2014-09-19 2017-05-17 索尼公司 控制设备、控制方法和程序
US9851786B2 (en) * 2014-12-10 2017-12-26 Sixense Entertainment, Inc. System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
US9898864B2 (en) 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
GB2545275A (en) * 2015-12-11 2017-06-14 Nokia Technologies Oy Causing provision of virtual reality content
DE102016000627B4 (de) * 2016-01-22 2024-03-28 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
JP2018097141A (ja) * 2016-12-13 2018-06-21 富士ゼロックス株式会社 頭部装着型表示装置、仮想物体表示システム
CN109842792B (zh) * 2017-11-27 2021-05-11 中兴通讯股份有限公司 视频播放方法、装置、系统及存储介质
CN112788443B (zh) * 2019-11-11 2023-05-05 北京外号信息技术有限公司 基于光通信装置的交互方法和系统
US12106651B2 (en) * 2020-08-04 2024-10-01 Hewlett-Packard Development Company, L.P. Collision avoidance of head mounted displays

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10504917A (ja) * 1995-05-25 1998-05-12 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ヘッドマウントディスプレイ用衝突警告システム
JP2004287902A (ja) * 2003-03-24 2004-10-14 Olympus Corp 複合現実感画像提示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574469A (en) * 1994-12-21 1996-11-12 Burlington Northern Railroad Company Locomotive collision avoidance method and system
JPH09297620A (ja) * 1996-04-30 1997-11-18 Fuji Heavy Ind Ltd 自走台車の走行制御装置
US6057856A (en) * 1996-09-30 2000-05-02 Sony Corporation 3D virtual reality multi-user interaction with superimposed positional information display for each user
US6064335A (en) * 1997-07-21 2000-05-16 Trimble Navigation Limited GPS based augmented reality collision avoidance system
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
DE10106023A1 (de) * 2001-02-09 2002-08-29 Fraunhofer Ges Forschung Verfahren und Vorrichtung zur Kollisionserkennung von Objekten
US7190378B2 (en) * 2001-08-16 2007-03-13 Siemens Corporate Research, Inc. User interface for augmented and virtual reality systems
JP2004127024A (ja) 2002-10-03 2004-04-22 Canon Inc 複合現実感システム用コンテンツ保護装置及び保護方法
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10504917A (ja) * 1995-05-25 1998-05-12 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ヘッドマウントディスプレイ用衝突警告システム
JP2004287902A (ja) * 2003-03-24 2004-10-14 Olympus Corp 複合現実感画像提示装置

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9196093B2 (en) 2010-09-30 2015-11-24 Fujifilm Corporation Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
JPWO2012042974A1 (ja) * 2010-09-30 2014-02-06 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JP5337915B2 (ja) * 2010-09-30 2013-11-06 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
WO2012042974A1 (ja) * 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
CN102682571A (zh) * 2011-01-28 2012-09-19 索尼公司 信息处理装置、报警方法和程序
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
JP2012155654A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
US9599818B2 (en) 2012-06-12 2017-03-21 Sony Corporation Obstacle avoidance apparatus and obstacle avoidance method
JP2014170330A (ja) * 2013-03-02 2014-09-18 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法、仮想現実提示装置
JP7028917B2 (ja) 2013-09-30 2022-03-02 株式会社ソニー・インタラクティブエンタテインメント 物理オブジェクトの画像をフェードアウトする方法
JP2020175204A (ja) * 2013-09-30 2020-10-29 株式会社ソニー・インタラクティブエンタテインメント 物理オブジェクトの画像をフェードアウトする方法
JP2017148530A (ja) * 2013-09-30 2017-08-31 株式会社ソニー・インタラクティブエンタテインメント 物理オブジェクトの画像をフェードアウトする方法
JP2018099523A (ja) * 2013-09-30 2018-06-28 株式会社ソニー・インタラクティブエンタテインメント 物理オブジェクトの画像をフェードアウトする方法
US9784972B2 (en) 2014-09-12 2017-10-10 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2016062277A (ja) * 2014-09-18 2016-04-25 泰章 岩井 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法
JP2017535901A (ja) * 2014-11-05 2017-11-30 バルブ コーポレーション 仮想現実環境においてユーザをガイドするための感覚フィードバックシステム及び方法
US10241566B2 (en) 2014-11-05 2019-03-26 Valve Corporation Sensory feedback systems and methods for guiding users in virtual reality environments
US11334145B2 (en) 2014-11-05 2022-05-17 Valve Corporation Sensory feedback systems and methods for guiding users in virtual reality environments
JP2017010387A (ja) * 2015-06-24 2017-01-12 キヤノン株式会社 システム、複合現実表示装置、情報処理方法及びプログラム
JPWO2017006640A1 (ja) * 2015-07-08 2018-06-07 ソニー株式会社 情報処理装置、表示装置、情報処理方法及びプログラム
JP2017062720A (ja) * 2015-09-25 2017-03-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JPWO2017077660A1 (ja) * 2015-11-06 2017-11-02 株式会社三和機工 体感型仮想現実空間システム
JP2018109835A (ja) * 2016-12-28 2018-07-12 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
WO2018124280A1 (ja) * 2016-12-28 2018-07-05 株式会社バンダイナムコエンターテインメント シミュレーションシステム、画像処理方法及び情報記憶媒体
JP7352264B2 (ja) 2017-09-29 2023-09-28 グリー株式会社 ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置
JP2022100325A (ja) * 2017-09-29 2022-07-05 グリー株式会社 ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置
JP2019192263A (ja) * 2019-06-05 2019-10-31 株式会社Abal 仮想空間体感システム
JP2021002290A (ja) * 2019-06-24 2021-01-07 キヤノン株式会社 画像処理装置およびその制御方法
JP7378232B2 (ja) 2019-06-24 2023-11-13 キヤノン株式会社 画像処理装置およびその制御方法
US11527020B2 (en) 2020-02-27 2022-12-13 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2022027370A (ja) * 2020-07-31 2022-02-10 日本信号株式会社 ロボット
JP7530247B2 (ja) 2020-07-31 2024-08-07 日本信号株式会社 ロボット
WO2024069831A1 (ja) * 2022-09-29 2024-04-04 マクセル株式会社 情報表示装置

Also Published As

Publication number Publication date
JP4642538B2 (ja) 2011-03-02
US7808450B2 (en) 2010-10-05
US20060273984A1 (en) 2006-12-07

Similar Documents

Publication Publication Date Title
JP4642538B2 (ja) 画像処理方法および画像処理装置
JP4393169B2 (ja) 複合現実感提示方法および装置
JP4434890B2 (ja) 画像合成方法及び装置
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP4883774B2 (ja) 情報処理装置及びその制御方法、プログラム
EP1404126B1 (en) Video combining apparatus and method
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
US7952594B2 (en) Information processing method, information processing apparatus, and image sensing apparatus
EP1437645B1 (en) Position/orientation measurement method, and position/orientation measurement apparatus
JP3631151B2 (ja) 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP2000102036A (ja) 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
US20050174361A1 (en) Image processing method and apparatus
JP2009025918A (ja) 画像処理装置、画像処理方法
JP2011128220A (ja) 情報提示装置、情報提示方法及びプログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
US20170249822A1 (en) Apparatus configured to issue warning to wearer of display, and method therefor
JP2007233971A (ja) 画像合成方法及び装置
JP2017134771A (ja) 情報処理装置、情報処理方法、プログラム
CN112449708A (zh) 虚拟现实系统、程序、以及计算机可读取存储介质
JP2007064684A (ja) マーカ配置補助方法及び装置
JP2005147894A (ja) 計測方法、計測装置
JP2007156561A (ja) 複合現実感提示方法および複合現実感提示システム
JP2006252468A (ja) 画像処理方法、画像処理装置
JP4724476B2 (ja) 情報処理方法及び装置
JP4689344B2 (ja) 情報処理方法、情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101130

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101201

R150 Certificate of patent or registration of utility model

Ref document number: 4642538

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3