JPWO2015111283A1 - 画像表示装置及び画像表示方法 - Google Patents
画像表示装置及び画像表示方法 Download PDFInfo
- Publication number
- JPWO2015111283A1 JPWO2015111283A1 JP2015558739A JP2015558739A JPWO2015111283A1 JP WO2015111283 A1 JPWO2015111283 A1 JP WO2015111283A1 JP 2015558739 A JP2015558739 A JP 2015558739A JP 2015558739 A JP2015558739 A JP 2015558739A JP WO2015111283 A1 JPWO2015111283 A1 JP WO2015111283A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- world
- unit
- real
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims description 36
- 238000009877 rendering Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 26
- 238000012821 model calculation Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 21
- 210000003128 head Anatomy 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 12
- 238000007654 immersion Methods 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 5
- 238000005401 electroluminescence Methods 0.000 description 4
- 230000004886 head movement Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- MWUXSHHQAYIFBG-UHFFFAOYSA-N nitrogen oxide Inorganic materials O=[N] MWUXSHHQAYIFBG-UHFFFAOYSA-N 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003183 myoelectrical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 239000012855 volatile organic compound Substances 0.000 description 2
- SNICXCGAKADSCV-JTQLQIEISA-N (-)-Nicotine Chemical compound CN1CCC[C@H]1C1=CC=CN=C1 SNICXCGAKADSCV-JTQLQIEISA-N 0.000 description 1
- WBMKMLWMIQUJDP-STHHAXOLSA-N (4R,4aS,7aR,12bS)-4a,9-dihydroxy-3-prop-2-ynyl-2,4,5,6,7a,13-hexahydro-1H-4,12-methanobenzofuro[3,2-e]isoquinolin-7-one hydrochloride Chemical compound Cl.Oc1ccc2C[C@H]3N(CC#C)CC[C@@]45[C@@H](Oc1c24)C(=O)CC[C@@]35O WBMKMLWMIQUJDP-STHHAXOLSA-N 0.000 description 1
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 206010062519 Poor quality sleep Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 239000010425 asbestos Substances 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 229910002091 carbon monoxide Inorganic materials 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 229930195733 hydrocarbon Natural products 0.000 description 1
- 150000002430 hydrocarbons Chemical class 0.000 description 1
- 150000002500 ions Chemical class 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229960002715 nicotine Drugs 0.000 description 1
- SNICXCGAKADSCV-UHFFFAOYSA-N nicotine Natural products CN1CCCC1C1=CC=CN=C1 SNICXCGAKADSCV-UHFFFAOYSA-N 0.000 description 1
- 229910017464 nitrogen compound Inorganic materials 0.000 description 1
- 150000002830 nitrogen compounds Chemical class 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000013618 particulate matter Substances 0.000 description 1
- 238000006552 photochemical reaction Methods 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- -1 pollen Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 229910052895 riebeckite Inorganic materials 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
表示部と、
現実世界の画像を取得する現実世界画像取得部と、
現実世界の画像を表示する領域を指定する領域指定部と、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して、前記表示部に表示する画像を生成する画像生成部と、
を具備する、頭部又は顔部に装着する画像表示装置である。
現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法である。
現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
仮想世界の画像を生成する仮想世界画像生成ステップと、
前記領域指定ステップにおいて指定された領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成ステップと、
仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法である。
現実世界の画像を取得する現実世界画像取得ステップと、
現実世界のオブジェクトを検出するオブジェクト検出ステップと、
検出したオブジェクトの仮想世界の3次元モデルVの対応領域RVを指定する領域指定ステップと、
前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する3次元モデル計算ステップと、
仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なって画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、を有する画像表示方法である。
(1)表示部と、
現実世界の画像を取得する現実世界画像取得部と、
現実世界の画像を表示する領域を指定する領域指定部と、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して、前記表示部に表示する画像を生成する画像生成部と、
を具備する、頭部又は顔部に装着する画像表示装置。
(2)前記表示部は、前記画像表示装置を頭部又は顔部に装着するユーザーの眼の位置に配設され、
前記ユーザーの視線方向を撮影する撮影部をさらに備え、
前記現実世界画像取得部は、前記撮影部が撮影する現実世界の画像を取得する、
上記(1)に記載の画像表示装置。
(3)仮想世界の画像を生成する仮想世界画像生成部と、
前記領域指定部が指定した領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成部をさらに備え、
前記画像生成部は、仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて、前記表示部に表示する画像を生成する、
上記(1)又は(2)のいずれかに記載の画像表示装置。
(4)前記領域指定部は、ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する、
上記(3)に記載の画像表示装置。
(5)前記画像生成部は、ユーザーが領域を指定する操作を行なってからの経過時間に基づいて現実世界の画像の混合率を制御する、
上記(4)に記載の画像表示装置。
(6)前記画像生成部は、ユーザーが領域を指定する操作を行なってから一定時間が経過すると、前記対応領域を現実世界の画像RIから仮想世界の画像RVに切り替え、又は、徐々に仮想世界の画像RVに戻す、
上記(5)に記載の画像表示装置。
(7)ユーザーが入力操作を行なう入力部をさらに備え、
前記領域指定部は、前記入力部に対するユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する、
上記(4)乃至(6)のいずれかに記載の画像表示装置。
(8)前記入力部はタッチパネルであり、
前記領域指定部は、前記タッチパネルをユーザーが触れた場所に対応する領域を指定する、
上記(7)に記載の画像表示装置。
(9)前記タッチパネルは、前記表示部の表示画面の背面に配設される、
上記(8)に記載の画像表示装置。
(10)前記領域指定部は、ユーザーのジェスチャー操作に基づいて、現実世界の画像を表示する領域を指定する、
上記(4)乃至(6)のいずれかに記載の画像表示装置。
(11)前記領域指定部は、現実世界の画像と仮想世界の画像の境界に対するユーザーの操作に応じて、現実世界の画像を表示する領域を変更する、
上記(4)乃至(6)のいずれかに記載の画像表示装置。
(12)現実世界のオブジェクトを検出するオブジェクト検出部と、
前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する3次元モデル計算部と、
をさらに備え、
前記画像生成部は、仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なう、
上記(1)又は(2)のいずれかに記載の画像表示装置。
(13)前記オブジェクト検出部は、ユーザーの身体の一部、又は、あらかじめ決められた現実世界の物体を検出する、
上記(12)に記載の画像表示装置。
(14)前記オブジェクト検出部は、前記画像表示装置から一定距離以内にある現実世界の物体を検出する、
上記(12)に記載の画像表示装置。
(15)前記画像生成部は、前記オブジェクト検出部がオブジェクトを検出してからの経過時間に基づいて現実世界の画像の混合率を制御する、
上記(12)乃至(14)のいずれかに記載の画像表示装置。
(16)前記領域指定部は、オブジェクトの現在位置が現実世界の3次元モデルMIと仮想世界Vの境界に重なることを条件として、境界を操作する、
上記(12)乃至(15)のいずれかに記載の画像表示装置。
(17)現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法。
(18)現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
仮想世界の画像を生成する仮想世界画像生成ステップと、
前記領域指定ステップにおいて指定された領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成ステップと、
仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法。
(19)現実世界の画像を取得する現実世界画像取得ステップと、
現実世界のオブジェクトを検出するオブジェクト検出ステップと、
検出したオブジェクトの仮想世界の3次元モデルVの対応領域RVを指定する領域指定ステップと、
前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する3次元モデル計算ステップと、
仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なって画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、を有する画像表示方法。
101L、101R…虚像光学部
103L、103R…マイクロフォン、104L、104R…表示パネル
105…眼幅調整機構
301…制御部、301A…ROM、301B…RAM
302…入力インターフェース部、303…リモコン受信部
304…状態情報取得部、305…通信部、306…記憶部
307…画像処理部、308…表示駆動部
309…表示部、310…虚像光学部、312…外側カメラ
313…音声処理部、314…音声入出力部、
315…タッチパネル、316…環境情報取得部
701…仮想世界画像生成部、702…現実世界画像取得部
703…領域指定部、704…領域画像生成部、705…画像差し替え部
1401…オブジェクト検出部、1402…現実世界画像取得部
1403…3次元モデル計算部、1404…仮想世界画像生成部
Claims (19)
- 表示部と、
現実世界の画像を取得する現実世界画像取得部と、
現実世界の画像を表示する領域を指定する領域指定部と、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して、前記表示部に表示する画像を生成する画像生成部と、
を具備する、頭部又は顔部に装着する画像表示装置。 - 前記表示部は、前記画像表示装置を頭部又は顔部に装着するユーザーの眼の位置に配設され、
前記ユーザーの視線方向を撮影する撮影部をさらに備え、
前記現実世界画像取得部は、前記撮影部が撮影する現実世界の画像を取得する、
請求項1に記載の画像表示装置。 - 仮想世界の画像を生成する仮想世界画像生成部と、
前記領域指定部が指定した領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成部をさらに備え、
前記画像生成部は、仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて、前記表示部に表示する画像を生成する、
請求項1に記載の画像表示装置。 - 前記領域指定部は、ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する、
請求項3に記載の画像表示装置。 - 前記画像生成部は、ユーザーが領域を指定する操作を行なってからの経過時間に基づいて現実世界の画像の混合率を制御する、
請求項4に記載の画像表示装置。 - 前記画像生成部は、ユーザーが領域を指定する操作を行なってから一定時間が経過すると、前記対応領域を現実世界の画像RIから仮想世界の画像RVに切り替え、又は、徐々に仮想世界の画像RVに戻す、
請求項5に記載の画像表示装置。 - ユーザーが入力操作を行なう入力部をさらに備え、
前記領域指定部は、前記入力部に対するユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する、
請求項4に記載の画像表示装置。 - 前記入力部はタッチパネルであり、
前記領域指定部は、前記タッチパネルをユーザーが触れた場所に対応する領域を指定する、
請求項7に記載の画像表示装置。 - 前記タッチパネルは、前記表示部の表示画面の背面に配設される、
請求項8に記載の画像表示装置。 - 前記領域指定部は、ユーザーのジェスチャー操作に基づいて、現実世界の画像を表示する領域を指定する、
請求項4に記載の画像表示装置。 - 前記領域指定部は、現実世界の画像と仮想世界の画像の境界に対するユーザーの操作に応じて、現実世界の画像を表示する領域を変更する、
請求項4に記載の画像表示装置。 - 現実世界のオブジェクトを検出するオブジェクト検出部と、
前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する3次元モデル計算部と、
をさらに備え、
前記画像生成部は、仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なう、
請求項1に記載の画像表示装置。 - 前記オブジェクト検出部は、ユーザーの身体の一部、又は、あらかじめ決められた現実世界の物体を検出する、
請求項12に記載の画像表示装置。 - 前記オブジェクト検出部は、前記画像表示装置から一定距離以内にある現実世界の物体を検出する、
請求項12に記載の画像表示装置。 - 前記画像生成部は、前記オブジェクト検出部がオブジェクトを検出してからの経過時間に基づいて現実世界の画像の混合率を制御する、
請求項12に記載の画像表示装置。 - 前記領域指定部は、オブジェクトの現在位置が現実世界の3次元モデルMIと仮想世界Vの境界に重なることを条件として、境界を操作する、
請求項12に記載の画像表示装置。 - 現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法。 - 現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
仮想世界の画像を生成する仮想世界画像生成ステップと、
前記領域指定ステップにおいて指定された領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成ステップと、
仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法。 - 現実世界の画像を取得する現実世界画像取得ステップと、
現実世界のオブジェクトを検出するオブジェクト検出ステップと、
検出したオブジェクトの仮想世界の3次元モデルVの対応領域RVを指定する領域指定ステップと、
前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する3次元モデル計算ステップと、
仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なって画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014010582 | 2014-01-23 | ||
JP2014010582 | 2014-01-23 | ||
PCT/JP2014/079812 WO2015111283A1 (ja) | 2014-01-23 | 2014-11-11 | 画像表示装置及び画像表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015111283A1 true JPWO2015111283A1 (ja) | 2017-03-23 |
JP6524917B2 JP6524917B2 (ja) | 2019-06-05 |
Family
ID=53681105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015558739A Active JP6524917B2 (ja) | 2014-01-23 | 2014-11-11 | 画像表示装置及び画像表示方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10134189B2 (ja) |
EP (2) | EP3410264B1 (ja) |
JP (1) | JP6524917B2 (ja) |
KR (1) | KR102332326B1 (ja) |
CN (2) | CN105992986B (ja) |
WO (1) | WO2015111283A1 (ja) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
EP2996017B1 (en) | 2014-09-11 | 2022-05-11 | Nokia Technologies Oy | Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display |
JP6340301B2 (ja) * | 2014-10-22 | 2018-06-06 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム |
JP6618260B2 (ja) * | 2015-02-19 | 2019-12-11 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
WO2016191950A1 (zh) * | 2015-05-29 | 2016-12-08 | 深圳市柔宇科技有限公司 | 显示调节的方法及头戴式显示设备 |
WO2017039308A1 (en) * | 2015-08-31 | 2017-03-09 | Samsung Electronics Co., Ltd. | Virtual reality display apparatus and display method thereof |
CN110275619B (zh) * | 2015-08-31 | 2024-08-23 | 北京三星通信技术研究有限公司 | 在头戴式显示器中显示真实物体的方法及其头戴式显示器 |
JP6675209B2 (ja) | 2016-01-20 | 2020-04-01 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置およびユーザガイド提示方法 |
JP6232649B2 (ja) * | 2016-02-18 | 2017-11-22 | 国立大学法人名古屋大学 | 仮想空間表示システム |
JP6790417B2 (ja) * | 2016-03-31 | 2020-11-25 | ソニー株式会社 | 情報処理装置及び情報処理サーバ |
US9851792B2 (en) | 2016-04-27 | 2017-12-26 | Rovi Guides, Inc. | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment |
AU2017255567A1 (en) * | 2016-04-27 | 2018-07-12 | Rovi Guides, Inc. | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment |
US10025376B2 (en) | 2016-04-27 | 2018-07-17 | Rovi Guides, Inc. | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment |
CN106200881A (zh) * | 2016-06-29 | 2016-12-07 | 乐视控股(北京)有限公司 | 一种数据展示方法及装置与虚拟现实设备 |
US10191541B2 (en) * | 2016-06-30 | 2019-01-29 | Sony Interactive Entertainment Inc. | Augmenting virtual reality content with real world content |
CN106383578B (zh) * | 2016-09-13 | 2020-02-04 | 网易(杭州)网络有限公司 | 虚拟现实系统、虚拟现实交互装置及方法 |
US10642345B2 (en) * | 2016-10-18 | 2020-05-05 | Raytheon Company | Avionics maintenance training |
US20190335115A1 (en) * | 2016-11-29 | 2019-10-31 | Sharp Kabushiki Kaisha | Display control device, head-mounted display, and control program |
CN106774869B (zh) * | 2016-12-08 | 2020-05-19 | 广州大西洲科技有限公司 | 一种实现虚拟现实的方法、装置及虚拟现实头盔 |
EP3561570A1 (en) * | 2016-12-22 | 2019-10-30 | Shenzhen Royole Technologies Co., Ltd. | Head-mounted display apparatus, and visual-aid providing method thereof |
JP6969577B2 (ja) * | 2017-01-20 | 2021-11-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN108496107A (zh) * | 2017-03-28 | 2018-09-04 | 深圳市柔宇科技有限公司 | 头戴式显示设备及其显示切换方法 |
CN107172414A (zh) * | 2017-04-20 | 2017-09-15 | 北京安云世纪科技有限公司 | 一种虚拟现实头戴显示器设备及其处理信息的方法 |
GB2555501B (en) * | 2017-05-04 | 2019-08-28 | Sony Interactive Entertainment Europe Ltd | Head mounted display and method |
CN107179876B (zh) * | 2017-06-30 | 2023-08-25 | 吴少乔 | 基于虚拟现实系统的人机交互装置 |
KR102077665B1 (ko) * | 2017-09-26 | 2020-04-07 | 에이케이엔코리아 주식회사 | 혼합 현실에서의 가상 모바일 단말 구현 시스템 및 이의 제어 방법 |
JP7029526B2 (ja) | 2017-09-29 | 2022-03-03 | アップル インコーポレイテッド | 物理的境界監視器 |
US11622153B2 (en) | 2017-10-04 | 2023-04-04 | Interdigital Madison Patent Holdings, Sas | Customized 360-degree media viewing |
JP2021043476A (ja) * | 2017-12-26 | 2021-03-18 | 株式会社Nttドコモ | 情報処理装置 |
DE102018207653A1 (de) * | 2018-05-16 | 2019-11-21 | Siemens Aktiengesellschaft | Anzeigegerät zum Darstellen virtueller Realität mit einer berührungsempfindlichen Bedieneinheit; Anzeigesystem; Bediensystem |
US20190385372A1 (en) * | 2018-06-15 | 2019-12-19 | Microsoft Technology Licensing, Llc | Positioning a virtual reality passthrough region at a known distance |
US10600246B2 (en) | 2018-06-15 | 2020-03-24 | Microsoft Technology Licensing, Llc | Pinning virtual reality passthrough regions to real-world locations |
US10520739B1 (en) | 2018-07-11 | 2019-12-31 | Valve Corporation | Dynamic panel masking |
CN110163977B (zh) * | 2018-07-13 | 2024-04-12 | 腾讯数码(天津)有限公司 | 多世界虚拟场景中的虚拟通道渲染方法及装置 |
JP6739847B2 (ja) * | 2018-09-12 | 2020-08-12 | 株式会社アルファコード | 画像表示制御装置および画像表示制御用プログラム |
US20200111256A1 (en) * | 2018-10-08 | 2020-04-09 | Microsoft Technology Licensing, Llc | Real-world anchor in a virtual-reality environment |
US10776954B2 (en) | 2018-10-08 | 2020-09-15 | Microsoft Technology Licensing, Llc | Real-world anchor in a virtual-reality environment |
KR102145852B1 (ko) * | 2018-12-14 | 2020-08-19 | (주)이머시브캐스트 | 카메라 기반의 혼합현실 글래스 장치 및 혼합현실 디스플레이 방법 |
DE102019135676A1 (de) | 2018-12-26 | 2020-07-02 | Htc Corporation | Objektverfolgungssystem und objektverfolgungsverfahren |
US11064255B2 (en) * | 2019-01-30 | 2021-07-13 | Oohms Ny Llc | System and method of tablet-based distribution of digital media content |
US11265487B2 (en) | 2019-06-05 | 2022-03-01 | Mediatek Inc. | Camera view synthesis on head-mounted display for virtual reality and augmented reality |
US12014459B2 (en) | 2019-09-12 | 2024-06-18 | Sony Interactive Entertainment Inc. | Image processing device, image processing method, and program for forming an accurate three-dimensional map |
US11740742B2 (en) * | 2019-09-23 | 2023-08-29 | Apple Inc. | Electronic devices with finger sensors |
CN112562088A (zh) * | 2019-09-26 | 2021-03-26 | 苹果公司 | 基于用户移动来呈现环境 |
US11842449B2 (en) * | 2019-09-26 | 2023-12-12 | Apple Inc. | Presenting an environment based on user movement |
JP7023005B2 (ja) * | 2019-10-24 | 2022-02-21 | 克己 横道 | 情報処理システム、情報処理方法およびプログラム |
JP7127659B2 (ja) | 2020-02-07 | 2022-08-30 | カシオ計算機株式会社 | 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム |
EP3926588A1 (en) | 2020-06-19 | 2021-12-22 | Alpine Electronics, Inc. | Image displaying apparatus and method of displaying image data on a vr display device, particularly disposed in a vehicle |
KR102543899B1 (ko) * | 2020-08-27 | 2023-06-20 | 네이버랩스 주식회사 | 헤드업 디스플레이 및 그 제어방법 |
CN112558767A (zh) * | 2020-12-11 | 2021-03-26 | 上海影创信息科技有限公司 | 多个功能界面处理的方法和系统及其ar眼镜 |
US11595636B1 (en) * | 2021-08-23 | 2023-02-28 | At&T Intellectual Property I, L.P. | Enhanced emotive engagement with volumetric content |
EP4357838A4 (en) | 2021-09-27 | 2024-10-16 | Samsung Electronics Co Ltd | ELECTRONIC DEVICE AND METHOD FOR DISPLAYING CONTENT |
US11960082B2 (en) * | 2022-07-13 | 2024-04-16 | Htc Corporation | Virtual reality system and object detection method applicable to virtual reality system |
WO2024196221A1 (ko) * | 2023-03-21 | 2024-09-26 | 삼성전자 주식회사 | Xr 컨텐츠를 지원하는 전자 장치 및 이의 입력 모드 지원 방법 |
WO2024204986A1 (ko) * | 2023-03-28 | 2024-10-03 | 삼성전자주식회사 | 터치 입력에 대한 피드백을 제공하기 위한 웨어러블 장치 및 그 방법 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296759A (ja) * | 2002-03-29 | 2003-10-17 | Canon Inc | 情報処理方法および装置 |
JP2006072903A (ja) * | 2004-09-06 | 2006-03-16 | Canon Inc | 画像合成方法及び装置 |
JP2006107437A (ja) * | 2004-09-07 | 2006-04-20 | Canon Inc | 情報処理方法及び装置 |
JP2008096868A (ja) * | 2006-10-16 | 2008-04-24 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2013200325A (ja) * | 2012-03-23 | 2013-10-03 | Sony Corp | ヘッドマウントディスプレイ |
JP2013258573A (ja) * | 2012-06-13 | 2013-12-26 | Sony Corp | 頭部装着型映像表示装置 |
JP2013257716A (ja) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | 障害物回避装置および障害物回避方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2377147A (en) * | 2001-06-27 | 2002-12-31 | Nokia Corp | A virtual reality user interface |
US20060050070A1 (en) * | 2004-09-07 | 2006-03-09 | Canon Kabushiki Kaisha | Information processing apparatus and method for presenting image combined with virtual image |
JP5380789B2 (ja) | 2007-06-06 | 2014-01-08 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
US8964298B2 (en) * | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
JP5434848B2 (ja) | 2010-08-18 | 2014-03-05 | ソニー株式会社 | 表示装置 |
US20120050140A1 (en) * | 2010-08-25 | 2012-03-01 | Border John N | Head-mounted display control |
US20120113223A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
JP2012141461A (ja) * | 2010-12-29 | 2012-07-26 | Sony Corp | ヘッド・マウント・ディスプレイ |
KR20130067450A (ko) * | 2011-12-14 | 2013-06-24 | 한국전자통신연구원 | 현장적용형 증강현실 기반 작업 가이드용 모듈 일체형 안전모 장치 및 이를 이용한 응용 서비스 제공방법 |
US9116666B2 (en) * | 2012-06-01 | 2015-08-25 | Microsoft Technology Licensing, Llc | Gesture based region identification for holograms |
CN103489214A (zh) * | 2013-09-10 | 2014-01-01 | 北京邮电大学 | 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法 |
-
2014
- 2014-11-11 WO PCT/JP2014/079812 patent/WO2015111283A1/ja active Application Filing
- 2014-11-11 US US15/038,950 patent/US10134189B2/en active Active
- 2014-11-11 KR KR1020167013247A patent/KR102332326B1/ko active IP Right Grant
- 2014-11-11 EP EP18184698.1A patent/EP3410264B1/en active Active
- 2014-11-11 CN CN201480064167.2A patent/CN105992986B/zh active Active
- 2014-11-11 EP EP14879372.2A patent/EP3098689B1/en active Active
- 2014-11-11 JP JP2015558739A patent/JP6524917B2/ja active Active
- 2014-11-11 CN CN201910107486.1A patent/CN109828671B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296759A (ja) * | 2002-03-29 | 2003-10-17 | Canon Inc | 情報処理方法および装置 |
JP2006072903A (ja) * | 2004-09-06 | 2006-03-16 | Canon Inc | 画像合成方法及び装置 |
JP2006107437A (ja) * | 2004-09-07 | 2006-04-20 | Canon Inc | 情報処理方法及び装置 |
JP2008096868A (ja) * | 2006-10-16 | 2008-04-24 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2013200325A (ja) * | 2012-03-23 | 2013-10-03 | Sony Corp | ヘッドマウントディスプレイ |
JP2013257716A (ja) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | 障害物回避装置および障害物回避方法 |
JP2013258573A (ja) * | 2012-06-13 | 2013-12-26 | Sony Corp | 頭部装着型映像表示装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3098689A4 (en) | 2017-09-20 |
JP6524917B2 (ja) | 2019-06-05 |
US10134189B2 (en) | 2018-11-20 |
EP3410264B1 (en) | 2020-08-26 |
KR20160111904A (ko) | 2016-09-27 |
CN109828671B (zh) | 2022-02-22 |
WO2015111283A1 (ja) | 2015-07-30 |
CN105992986A (zh) | 2016-10-05 |
CN109828671A (zh) | 2019-05-31 |
US20160379413A1 (en) | 2016-12-29 |
KR102332326B1 (ko) | 2021-11-30 |
CN105992986B (zh) | 2019-03-12 |
EP3098689A1 (en) | 2016-11-30 |
EP3410264A1 (en) | 2018-12-05 |
EP3098689B1 (en) | 2019-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102332326B1 (ko) | 화상 표시 장치 및 화상 표시 방법 | |
JP6079614B2 (ja) | 画像表示装置及び画像表示方法 | |
JP6525010B2 (ja) | 情報処理装置及び情報処理方法、並びに画像表示システム | |
CN111052043B (zh) | 使用现实界面控制外部设备 | |
WO2016013269A1 (ja) | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム | |
US10356398B2 (en) | Method for capturing virtual space and electronic device using the same | |
JP6596883B2 (ja) | ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム | |
JP6428268B2 (ja) | 画像表示装置及び画像表示方法、並びに画像表示システム | |
US11170580B2 (en) | Information processing device, information processing method, and recording medium | |
JPWO2014171200A1 (ja) | 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム | |
JP2016081476A (ja) | ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム | |
JP6822410B2 (ja) | 情報処理システム及び情報処理方法 | |
KR20180010845A (ko) | Hmd 및 그 hmd의 제어 방법 | |
WO2017064926A1 (ja) | 情報処理装置及び情報処理方法 | |
US20240370542A1 (en) | Devices, methods, and graphical user interfaces for transitioning between multiple modes of operation | |
WO2024163798A1 (en) | Devices, methods, and graphical user interfaces for device position adjustment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170915 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190422 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6524917 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |