JPWO2020044949A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2020044949A1 JPWO2020044949A1 JP2020540188A JP2020540188A JPWO2020044949A1 JP WO2020044949 A1 JPWO2020044949 A1 JP WO2020044949A1 JP 2020540188 A JP2020540188 A JP 2020540188A JP 2020540188 A JP2020540188 A JP 2020540188A JP WO2020044949 A1 JPWO2020044949 A1 JP WO2020044949A1
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- real object
- processing device
- estimated position
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 100
- 238000003672 processing method Methods 0.000 title claims description 14
- 230000014509 gene expression Effects 0.000 claims description 44
- 230000033001 locomotion Effects 0.000 claims description 20
- 230000008859 change Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 33
- 238000000034 method Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 12
- 230000007613 environmental effect Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 241000270666 Testudines Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/01—Determining conditions which influence positioning, e.g. radio environment, state of motion or energy consumption
- G01S5/017—Detecting state or type of motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0257—Hybrid positioning
- G01S5/0263—Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0257—Hybrid positioning
- G01S5/0263—Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
- G01S5/0264—Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems at least one of the systems being a non-radio wave positioning system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S2205/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S2205/01—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0205—Details
- G01S5/0244—Accuracy or reliability of position solution or of measurements contributing thereto
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
前記第1の取得部は、実物体が存在する実空間の撮影画像に基づいて決定された前記実物体の位置を示すカメラベース推定位置を取得する。
前記第2の取得部は、前記実物体に対応した位置から前記実空間に出力される出力波に基づいて決定された前記実物体の位置を示す出力波ベース推定位置を取得する。
前記カメラベース推定位置及び前記出力波ベース推定位置に基づいて、前記実物体に関連する仮想コンテンツの表現に用いられる基準位置を決定する。
前記第1の推定部は、前記撮影画像に基づいて前記カメラベース推定位置を推定する。
前記第2の推定部は、前記出力波に基づいて前記出力波ベース推定位置を推定する。
前記実物体に対応した位置から前記実空間に出力される出力波に基づいて決定された前記実物体の位置を示す出力波ベース推定位置が取得される。
前記カメラベース推定位置及び前記出力波ベース推定位置に基づいて、前記実物体に関連する仮想コンテンツの表現に用いられる基準位置が決定される。
実物体が存在する実空間の撮影画像に基づいて決定された前記実物体の位置を示すカメラベース推定位置を取得するステップ。
前記実物体に対応した位置から前記実空間に出力される出力波に基づいて決定された前記実物体の位置を示す出力波ベース推定位置を取得するステップ。
前記カメラベース推定位置及び前記出力波ベース推定位置に基づいて、前記実物体に関連する仮想コンテンツの表現に用いられる基準位置を決定するステップ。
図1は、本技術の一実施形態に係るAR提供システムの構成例を示す模式図である。AR提供システム100は、本技術に係る情報処理システムの一実施形態に相当する。
図2は、HMD10の外観例を示す斜視図である。HMD10は、透過型のディスプレイを備えたメガネ型の装置であり、ARグラスとも呼ばれる。HMD10は、フレーム11、左眼用レンズ12a及び右眼用レンズ12b、左眼用ディスプレイ13a及び右眼用ディスプレイ13b、左眼用カメラ14a及び右眼用カメラ14b、及び外向きカメラ15を有する。
サーバ装置60は、例えばCPU、ROM、RAM、及びHDD等のコンピュータの構成に必要なハードウェアを有する。CPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、機能ブロックとして電波ベース位置推定部61、及び信頼度判定部62(ともに図6参照)が実現され、本技術に係る情報処理方法が実行される。
実オブジェクト80には、BLEビーコン出力部81が搭載されており(図6参照)、定期的にビーコン信号5が出力される。BLEビーコン出力部81は、実オブジェクト80に内蔵されてもよい。あるいは、例えばビーコン信号5を出力可能なビーコン装置が、実オブジェクト80に取り付けられてもよい。この場合、そのビーコン装置が、BLEビーコン出力部81として機能する。
図5は、AR提供システム100により提供可能なAR体験の一例を説明するための模式図である。所定の空間S1の所定の位置に、実オブジェクト80が配置される。実オブジェクト80の星型のマーク82の中心の位置P1が、実オブジェクト80の実際の位置となる。
視野外の実オブジェクト80の位置測定では、電波等の出力波を利用することにより、視野外の実オブジェクト80に対しても位置を特定することができる。
視野内の位置測定には電波等の出力波を用いた位置測定よりも精度が高い画像認識を使うことによって、高精度の位置測定が可能となる。
電波ベース推定位置及びカメラベース推定位置の両方を算出可能であるので、状況によって最適な位置測定の方法を、適宜切り替えることが可能となる。
電波ベースの位置認識からカメラベースへの位置認識の遷移の際には、お互いの信頼度を使うことにより、実オブジェクト80の位置を徐々に切り替えることが可能となり、不自然さを軽減させるができる。
アプリケーション内にて、実オブジェクト80の位置を特定して記憶しておく必要がないので、負荷の軽減を図ることが可能である。
実オブジェクトの位置を特定するための、絶対位置がわかる他の機器等を配置する必要がなくなり、コストの軽減を図ることが可能である。
カメラベースの位置認識を実行せずとも、実オブジェクト80の位置を算出可能であり、AR音を出力することが可能となる。
画像認識が効かない状況でも、実オブジェクト80の位置特定が可能である。
電波ベースの位置認識の結果を利用することで、カメラベースの認識対象範囲(例えばマッチング処理を実行する対象となる画像の範囲)を絞ることができ、負荷の軽減や精度の向上、認識の高速化も可能である。
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
(1)実物体が存在する実空間の撮影画像に基づいて決定された前記実物体の位置を示すカメラベース推定位置を取得する第1の取得部と、
前記実物体に対応した位置から前記実空間に出力される出力波に基づいて決定された前記実物体の位置を示す出力波ベース推定位置を取得する第2の取得部と、
前記カメラベース推定位置及び前記出力波ベース推定位置に基づいて、前記実物体に関連する仮想コンテンツの表現に用いられる基準位置を決定する決定部と
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記決定部は、前記基準位置として、前記実物体の最終推定位置を決定する
情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
前記出力波は、電波、及び音波の少なくとも1つを含む
情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
前記第1の取得部は、前記カメラベース推定位置に関連する第1の信頼度を取得し、
前記第2の取得部は、前記出力波ベース推定位置に関連する第2の信頼度を取得し、
前記決定部は、前記第1の信頼度及び前記第2の信頼度に基づいて、前記基準位置を決定する
情報処理装置。
(5)(4)に記載の情報処理装置であって、
前記決定部は、前記第1の信頼度が所定の閾値より大きい場合、前記カメラベース推定位置を前記基準位置として決定する
情報処理装置。
(6)(1)から(5)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記基準位置に基づいて、前記仮想コンテンツの表現を制御する表現制御部を具備する
を具備する
情報処理装置。
(7)(6)に記載の情報処理装置であって、
前記表現制御部は、前記実物体に関連する仮想物体の表示を制御する
情報処理装置。
(8)(7)に記載の情報処理装置であって、
前記表現制御部は、前記仮想物体の表示位置を制御する
情報処理装置。
(9)(8)に記載の情報処理装置であって、
前記表現制御部は、ユーザの移動又はユーザの視線の移動が検出されたことに基づき、ユーザが移動している間、又はユーザの視線が移動している間に、前記仮想物体の表示位置を変更する
情報処理装置。
(10)(6)から(9)のうちいずれか1つに記載の情報処理装置であって、
前記表現制御部は、前記実物体に関連する仮想的な音源からの音声の出力を制御する
情報処理装置。
(11)(10)に記載の情報処理装置であって、
前記表現制御部は、前記仮想的な音源の位置を制御する
情報処理装置。
(12)(1)から(11)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記撮影画像に基づいて前記カメラベース推定位置を推定する第1の推定部と、
前記出力波に基づいて前記出力波ベース推定位置を推定する第2の推定部と
を具備する情報処理装置。
(13)(12)に記載の情報処理装置であって、
前記第1の推定部は、前記撮影画像に対する前記実物体のモデル画像のマッチング処理の結果に基づいて、前記第1の信頼度を算出する
情報処理装置。
(14)(12)又は(13)に記載の情報処理装置であって、
前記第2の推定部は、前記出力波に基づいて前記実物体までの距離を算出し、算出された前記距離に基づいて前記実物体が存在する可能性のある候補範囲を算出し、算出された前記候補範囲に含まれる位置を前記出力波ベース推定位置として推定する
情報処理装置。
(15)(14)に記載の情報処理装置であって、
前記第2の推定部は、算出された前記候補範囲の大きさに基づいて、前記第2の信頼度を算出する
情報処理装置。
(16)(13)から(15)のうちいずれか1つに記載の情報処理装置であって、
前記第2の推定部は、他の装置が前記出力波に基づいて算出した前記他の装置から前記実物体までの距離に関する情報を受信し、受信した前記他の装置から前記実物体までの距離に関する情報に基づいて、前記候補範囲を算出する
情報処理装置。
(17)(1)から(16)のうちいずれか1つに記載の情報処理装置であって、
HMD(Head Mounted Display)として構成されている
情報処理装置。
(18)(13)に記載の情報処理装置であって、さらに、
前記撮影画像に基づいて前記モデル画像を生成するモデル画像生成部を具備する
情報処理装置。
(19)実物体が存在する実空間の撮影画像に基づいて決定された前記実物体の位置を示すカメラベース推定位置を取得し、
前記実物体に対応した位置から前記実空間に出力される出力波に基づいて決定された前記実物体の位置を示す出力波ベース推定位置を取得し、
前記カメラベース推定位置及び前記出力波ベース推定位置に基づいて、前記実物体に関連する仮想コンテンツの表現に用いられる基準位置を決定する
ことをコンピュータシステムが実行する情報処理方法。
(20)実物体が存在する実空間の撮影画像に基づいて決定された前記実物体の位置を示すカメラベース推定位置を取得するステップと、
前記実物体に対応した位置から前記実空間に出力される出力波に基づいて決定された前記実物体の位置を示す出力波ベース推定位置を取得するステップと、
前記カメラベース推定位置及び前記出力波ベース推定位置に基づいて、前記実物体に関連する仮想コンテンツの表現に用いられる基準位置を決定するステップと
をコンピュータシステムに実行させるプログラム。
1…ユーザ
5…ビーコン信号
7…仮想オブジェク
10…HMD
13…透過型ディスプレイ
15…外向きカメラ
20…スピーカー
42…認識DB
50…コントローラ
51…自己位置推定部
52…実オブジェクト距離推定部
53…カメラベース位置推定部
54…実オブジェクト位置推定部
55…AR表現制御部
58…信頼度判定部
60…サーバ装置
61…電波ベース位置推定部
62…信頼度判定部
80…実オブジェクト
81…BLEビーコン出力部
90…環境用認識DB作成部
100…AR提供システム
Claims (20)
- 実物体が存在する実空間の撮影画像に基づいて決定された前記実物体の位置を示すカメラベース推定位置を取得する第1の取得部と、
前記実物体に対応した位置から前記実空間に出力される出力波に基づいて決定された前記実物体の位置を示す出力波ベース推定位置を取得する第2の取得部と、
前記カメラベース推定位置及び前記出力波ベース推定位置に基づいて、前記実物体に関連する仮想コンテンツの表現に用いられる基準位置を決定する決定部と
を具備する情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記決定部は、前記基準位置として、前記実物体の最終推定位置を決定する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記出力波は、電波、及び音波の少なくとも1つを含む
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記第1の取得部は、前記カメラベース推定位置に関連する第1の信頼度を取得し、
前記第2の取得部は、前記出力波ベース推定位置に関連する第2の信頼度を取得し、
前記決定部は、前記第1の信頼度及び前記第2の信頼度に基づいて、前記基準位置を決定する
情報処理装置。 - 請求項4に記載の情報処理装置であって、
前記決定部は、前記第1の信頼度が所定の閾値より大きい場合、前記カメラベース推定位置を前記基準位置として決定する
情報処理装置。 - 請求項1に記載の情報処理装置であって、さらに、
前記基準位置に基づいて、前記仮想コンテンツの表現を制御する表現制御部を具備する
情報処理装置。 - 請求項6に記載の情報処理装置であって、
前記表現制御部は、前記実物体に関連する仮想物体の表示を制御する
情報処理装置。 - 請求項7に記載の情報処理装置であって、
前記表現制御部は、前記仮想物体の表示位置を制御する
情報処理装置。 - 請求項8に記載の情報処理装置であって、
前記表現制御部は、ユーザの移動又はユーザの視線の移動が検出されたことに基づき、ユーザが移動している間、又はユーザの視線が移動している間に、前記仮想物体の表示位置を変更する
情報処理装置。 - 請求項6に記載の情報処理装置であって、
前記表現制御部は、前記実物体に関連する仮想的な音源からの音声の出力を制御する
情報処理装置。 - 請求項10に記載の情報処理装置であって、
前記表現制御部は、前記仮想的な音源の位置を制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、さらに、
前記撮影画像に基づいて前記カメラベース推定位置を推定する第1の推定部と、
前記出力波に基づいて前記出力波ベース推定位置を推定する第2の推定部と
を具備する情報処理装置。 - 請求項12に記載の情報処理装置であって、
前記第1の推定部は、前記撮影画像に対する前記実物体のモデル画像のマッチング処理の結果に基づいて、前記第1の信頼度を算出する
情報処理装置。 - 請求項12に記載の情報処理装置であって、
前記第2の推定部は、前記出力波に基づいて前記実物体までの距離を算出し、算出された前記距離に基づいて前記実物体が存在する可能性のある候補範囲を算出し、算出された前記候補範囲に含まれる位置を前記出力波ベース推定位置として推定する
情報処理装置。 - 請求項14に記載の情報処理装置であって、
前記第2の推定部は、前記候補範囲の大きさに基づいて、前記第2の信頼度を算出する
情報処理装置。 - 請求項13に記載の情報処理装置であって、
前記第2の推定部は、他の装置が前記出力波に基づいて算出した前記他の装置から前記実物体までの距離に関する情報を受信し、受信した前記他の装置から前記実物体までの距離に関する情報に基づいて、前記候補範囲を算出する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
HMD(Head Mounted Display)として構成されている
情報処理装置。 - 請求項13に記載の情報処理装置であって、さらに、
前記撮影画像に基づいて前記モデル画像を生成するモデル画像生成部を具備する
情報処理装置。 - 実物体が存在する実空間の撮影画像に基づいて決定された前記実物体の位置を示すカメラベース推定位置を取得し、
前記実物体に対応した位置から前記実空間に出力される出力波に基づいて決定された前記実物体の位置を示す出力波ベース推定位置を取得し、
前記カメラベース推定位置及び前記出力波ベース推定位置に基づいて、前記実物体に関連する仮想コンテンツの表現に用いられる基準位置を決定する
ことをコンピュータシステムが実行する情報処理方法。 - 実物体が存在する実空間の撮影画像に基づいて決定された前記実物体の位置を示すカメラベース推定位置を取得するステップと、
前記実物体に対応した位置から前記実空間に出力される出力波に基づいて決定された前記実物体の位置を示す出力波ベース推定位置を取得するステップと、
前記カメラベース推定位置及び前記出力波ベース推定位置に基づいて、前記実物体に関連する仮想コンテンツの表現に用いられる基準位置を決定するステップと
をコンピュータシステムに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018160254 | 2018-08-29 | ||
JP2018160254 | 2018-08-29 | ||
PCT/JP2019/030450 WO2020044949A1 (ja) | 2018-08-29 | 2019-08-02 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020044949A1 true JPWO2020044949A1 (ja) | 2021-08-12 |
JP7405083B2 JP7405083B2 (ja) | 2023-12-26 |
Family
ID=69643544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020540188A Active JP7405083B2 (ja) | 2018-08-29 | 2019-08-02 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US12039753B2 (ja) |
JP (1) | JP7405083B2 (ja) |
WO (1) | WO2020044949A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11184574B2 (en) | 2017-07-17 | 2021-11-23 | Facebook, Inc. | Representing real-world objects with a virtual reality environment |
US11475639B2 (en) * | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
US12223104B2 (en) | 2020-12-22 | 2025-02-11 | Meta Platforms Technologies, Llc | Partial passthrough in virtual reality |
US12183035B1 (en) | 2021-03-08 | 2024-12-31 | Meta Platforms, Inc. | System and method for positioning a 3D eyeglasses model |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
US12097427B1 (en) | 2022-08-26 | 2024-09-24 | Meta Platforms Technologies, Llc | Alternate avatar controls |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030095186A1 (en) * | 1998-11-20 | 2003-05-22 | Aman James A. | Optimizations for live event, real-time, 3D object tracking |
US20170187991A1 (en) * | 2015-12-29 | 2017-06-29 | General Electric Company | Indoor positioning system using beacons and video analytics |
US20180067204A1 (en) * | 2016-09-07 | 2018-03-08 | OmniPreSense Corporation | Radar enabled weapon detection system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6967612B1 (en) * | 2004-10-22 | 2005-11-22 | Gorman John D | System and method for standoff detection of human carried explosives |
JP5724544B2 (ja) | 2011-03-31 | 2015-05-27 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6065370B2 (ja) * | 2012-02-03 | 2017-01-25 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2014149712A (ja) * | 2013-02-01 | 2014-08-21 | Sony Corp | 情報処理装置、端末装置、情報処理方法及びプログラム |
KR102246553B1 (ko) * | 2014-04-24 | 2021-04-30 | 엘지전자 주식회사 | Hmd 및 그 제어 방법 |
-
2019
- 2019-08-02 JP JP2020540188A patent/JP7405083B2/ja active Active
- 2019-08-02 WO PCT/JP2019/030450 patent/WO2020044949A1/ja active Application Filing
- 2019-08-02 US US17/250,679 patent/US12039753B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030095186A1 (en) * | 1998-11-20 | 2003-05-22 | Aman James A. | Optimizations for live event, real-time, 3D object tracking |
US20170187991A1 (en) * | 2015-12-29 | 2017-06-29 | General Electric Company | Indoor positioning system using beacons and video analytics |
US20180067204A1 (en) * | 2016-09-07 | 2018-03-08 | OmniPreSense Corporation | Radar enabled weapon detection system |
Also Published As
Publication number | Publication date |
---|---|
US12039753B2 (en) | 2024-07-16 |
US20210312658A1 (en) | 2021-10-07 |
WO2020044949A1 (ja) | 2020-03-05 |
JP7405083B2 (ja) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7405083B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CA2913650C (en) | Virtual object orientation and visualization | |
CN112634416B (zh) | 虚拟形象模型的生成方法、装置、电子设备及存储介质 | |
US20160217616A1 (en) | Method and System for Providing Virtual Display of a Physical Environment | |
CN103105926A (zh) | 多传感器姿势识别 | |
CN114761909A (zh) | 针对头戴式显示器的内容稳定 | |
US11195341B1 (en) | Augmented reality eyewear with 3D costumes | |
CN104536579A (zh) | 交互式三维实景与数字图像高速融合处理系统及处理方法 | |
US9547412B1 (en) | User interface configuration to avoid undesired movement effects | |
US11670157B2 (en) | Augmented reality system | |
CN115917465A (zh) | 使用卷帘快门相机的视觉惯性追踪 | |
US12169968B2 (en) | Augmented reality eyewear with mood sharing | |
WO2020050186A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
CN112150560A (zh) | 确定消失点的方法、装置及计算机存储介质 | |
KR102402457B1 (ko) | 콘텐츠 처리 방법 및 이를 지원하는 전자 장치 | |
CN111344776B (zh) | 信息处理装置、信息处理方法和程序 | |
US20230300290A1 (en) | Information display system, information display method, and non-transitory recording medium | |
JP2012018665A (ja) | 画像表示プログラム、装置、システムおよび方法 | |
TWI813068B (zh) | 計算系統、用於識別可控制裝置之位置之方法及非暫時性電腦可讀媒體 | |
CN117616368A (zh) | 一种人机交互方法、装置、计算机装置和存储介质 | |
CN114201028A (zh) | 扩增实境系统与其锚定显示虚拟对象的方法 | |
WO2024087456A1 (zh) | 确定朝向信息以及自动驾驶车辆 | |
JP2012022667A (ja) | 画像表示プログラム、装置、システムおよび方法 | |
WO2021131950A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Tsai | Geometry-aware augmented reality for remote collaboration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220617 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231127 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7405083 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |