JP6720341B2 - バーチャルリアリティデバイス及びそのコンテンツの調整方法 - Google Patents
バーチャルリアリティデバイス及びそのコンテンツの調整方法 Download PDFInfo
- Publication number
- JP6720341B2 JP6720341B2 JP2018558140A JP2018558140A JP6720341B2 JP 6720341 B2 JP6720341 B2 JP 6720341B2 JP 2018558140 A JP2018558140 A JP 2018558140A JP 2018558140 A JP2018558140 A JP 2018558140A JP 6720341 B2 JP6720341 B2 JP 6720341B2
- Authority
- JP
- Japan
- Prior art keywords
- change
- content
- amount
- angle
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 57
- 230000008859 change Effects 0.000 claims description 336
- 238000012545 processing Methods 0.000 claims description 49
- 238000004590 computer program Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 18
- 210000003128 head Anatomy 0.000 description 16
- 230000001960 triggered effect Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 10
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0626—Adjustment of display parameters for control of overall brightness
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示するステップと、
ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置及び上記初期位置から位置が変化した後の移動位置を確定するステップと、
上記初期位置と上記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定するステップと、
上記オブジェクトの変化量と上記オブジェクトの変化方向に基づきページをめくることにより、上記対象オブジェクトのオブジェクトコンテンツを調整するステップと、を含む。
上記初期位置から、水平線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定するステップと、
上記移動位置から、水平線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定するステップと、
上記初期角度と上記最終角度から、上記オブジェクトの変化量及びオブジェクトの変化方向を確定するステップと、を含むことが好ましい。
または、上記ナビゲーションコントロールは、水平線に平行で、上記初期位置と上記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定するステップは、
上記初期位置に基づいて、水平線の垂線から上記ユーザが上記初期位置を注視する視線の初期角度を確定するステップと、
上記移動位置に基づいて、水平線の垂線から上記ユーザが上記移動位置を注視する視線の最終角度を確定するステップと、
上記初期角度と上記最終角度から、上記オブジェクトの変化量及びオブジェクトの変化方向を確定するステップと、を含むことが好ましい。
上記ナビゲーションコントロールは、複数のナビゲーション領域を含み、上記対象オブジェクトは、複数のオブジェクトコンテンツを含み、上記複数のナビゲーション領域は、上記複数のオブジェクトコンテンツと一対一で対応し、
上記初期位置と上記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定するステップは、
上記初期位置と上記移動位置との間に含まれる少なくとも1つのナビゲーション領域を確定するステップと、
上記少なくとも1つのナビゲーション領域に対応する少なくとも1つのオブジェクトコンテンツを確定するステップと、
オブジェクトの変化量として、上記少なくとも1つのオブジェクトコンテンツの表示数量を集計するステップと、
オブジェクトの変化方向として、上記初期位置に対応するナビゲーション領域から上記移動位置に対応するナビゲーション領域への移動の方向を取得するステップと、を含み、
上記オブジェクトの変化方向と上記オブジェクトの変化量に基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することは、
上記初期位置のナビゲーション領域に対応するオブジェクトコンテンツから、上記オブジェクトの変化方向に基づき、上記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで上記少なくとも1つのオブジェクトコンテンツを順次表示することを含む。
上記最終角度から上記初期角度を減算して角度差値を得ることと、
上記角度差値の正負から上記オブジェクトの変化方向を確定することと、
上記角度差値とナビゲーション角度の閾値との比較値(比値)を、上記オブジェクトの変化量として確定することと、を含む。
上記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、
上記ユーザの注視点がそれぞれ上記ナビゲーションコントロールの第1端と第2端とに位置するときの、上記ユーザが上記第1端を注視する視線と、上記第2端を注視する視線との間の夾角を確定し、
上記夾角と上記変化総量との比値を計算することで、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定する。
VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示することと、ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置、及び上記初期位置から位置が変化した後の移動位置を確定することと、上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することと、上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することとを実現する。
上記初期位置から、水平線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定し、上記移動位置から、水平線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定し、そして上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することであり、
または、上記ナビゲーションコントロールは、水平線に平行で、上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、
上記初期位置から、水平線の垂線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定し、上記移動位置から、水平線の垂線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定し、そして上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することである。
上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、
上記初期位置と上記移動位置との間に含まれる少なくとも1つのナビゲーション領域を確定し、上記少なくとも1つのナビゲーション領域のそれぞれに対応する少なくとも1つのオブジェクトコンテンツを確定し、オブジェクトの変化量として、上記少なくとも1つのオブジェクトコンテンツの表示数量を集計し、オブジェクトの変化方向として、上記初期位置に対応するナビゲーション領域から上記移動位置に対応するナビゲーション領域へのスライドの方向を取得することであり、
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することは、具体的には、
上記初期位置のナビゲーションコントロールに対応するオブジェクトコンテンツから、上記ナビゲーション領域のスライドの方向に基づき、上記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで各ナビゲーション領域に対応するオブジェクトコンテンツを順次表示することである。
上記最終角度から上記初期角度を減算して角度差値を得て、上記角度差値の正負から上記オブジェクトの変化方向を確定し、上記角度差値と上記ナビゲーション角度の閾値との比値を上記オブジェクトの変化量として確定することである。
上記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、上記ユーザの注視点がそれぞれ上記ナビゲーションコントロールの第1端と第2端とに位置するときの、上記ユーザが上記第1端を注視する視線と、上記第2端を注視する視線との間の夾角を確定し、上記夾角と上記変化総量との比値を計算することで、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定することである。
上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、上記初期位置と上記移動位置とから、表示輝度の変化量及び輝度の変化方向を確定することを含み、
上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、上記輝度の変化方向と輝度の変化量とに基づき、上記表示輝度を調整することを含む。
上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、上記初期位置と上記移動位置とから、表示コンテンツのページめくりのオフセット量及びページめくりの方向を確定することを含み、
上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、上記ページめくりのオフセット量と上記ページめくりの方向とに基づき、上記出力されるコンテンツの表示コンテンツを調整することを含む。
上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、上記初期位置と上記移動位置とから、表示コンテンツの要素に対応する切り替わりの数量及び切り替わりの方向を確定することを含み、
上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、上記対象物体に対応する切り替わりの数量と上記切り替わりの方向とに基づき、上記対象物体の表示コンテンツの要素を調整することを含む。
上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することは、上記初期位置のナビゲーション領域に対応するオブジェクトコンテンツから、上記オブジェクトの変化方向に基づき、上記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで上記少なくとも1つのオブジェクトコンテンツを順次表示することを含んでもよい。
上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記初期位置と上記移動位置とから、表示輝度の変化量及び輝度の変化方向を確定することでもよく、
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、具体的には、上記輝度の変化方向と輝度の変化量とに基づき、上記表示輝度を調整することでもよい。
上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記初期位置と上記移動位置とから、表示コンテンツのページめくりのオフセット量及びページめくりの方向を確定することでもよく、
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、具体的には、上記ページめくりのオフセット量と上記ページめくりの方向とに基づき、上記出力されるコンテンツの表示コンテンツを調整することでもよい。
上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記初期位置と上記移動位置とから、表示コンテンツの要素に対応する切り替わりの数量及び切り替わりの方向を確定することでもよく、
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、具体的には、上記対象物体に対応する切り替わりの数量と上記切り替わりの方向とに基づき、上記対象物体の表示コンテンツの要素を調整することでもよい。
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することは、具体的には、上記初期位置のナビゲーションコントロールに対応するオブジェクトコンテンツから、上記ナビゲーション領域のスライドの方向に基づき、上記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで各ナビゲーション領域に対応するオブジェクトコンテンツを順次表示することでもよい。
Claims (16)
- バーチャルリアリティ(VR)デバイスのコンテンツの調整方法であって、
VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示することと、
ユーザの注視点の前記ナビゲーションコントロールにおける位置変化から、初期位置、及び前記初期位置から位置が変化した後の移動位置を確定することと、
前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することと、
前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトのオブジェクトコンテンツを調整することと、を含み、
前記対象オブジェクトは、VRデバイスから出力されるコンテンツにおける対象物体であり、複数のオブジェクトコンテンツを含み、
前記ナビゲーションコントロールに含まれる複数のナビゲーション領域は、複数のオブジェクトコンテンツと一対一で対応し、
前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトのオブジェクトコンテンツを調整することは、前記オブジェクトの変化方向に基づき、前記初期位置のナビゲーション領域に対応するオブジェクトコンテンツから前記移動位置のナビゲーション領域に対応するオブジェクトコンテンツまでの間の少なくとも1つのナビゲーション領域に対応する少なくとも1つのオブジェクトコンテンツを、表示することを含む
ことを特徴とするバーチャルリアリティデバイスのコンテンツの調整方法。 - 前記ナビゲーションコントロールは、水平線に直交し、
前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
前記初期位置から、水平線からの前記ユーザが前記初期位置を注視する視線の初期角度を確定することと、
前記移動位置から、水平線からの前記ユーザが前記移動位置を注視する視線の最終角度を確定することと、
前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することと、を含む、または、
前記ナビゲーションコントロールは、水平線に平行であり、
前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
前記初期位置から、水平線の垂線からの前記ユーザが前記初期位置を注視する視線の初期角度を確定することと、
前記移動位置から、水平線の垂線からの前記ユーザが前記移動位置を注視する視線の最終角度を確定することと、
前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することと、を含むことを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。 - VRシーンでは、前記ナビゲーションコントロールが連続的に配列して長方形構造を形成する複数のナビゲーション領域を含み、1つの前記対象オブジェクトは複数のオブジェクトコンテンツを含み、前記複数のナビゲーション領域は、前記複数のオブジェクトコンテンツと一対一で対応することを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。
- 前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
前記最終角度から前記初期角度を減算して角度差値を得ることと、
前記角度差値の正負から前記オブジェクトの変化方向を確定することと、
前記角度差値とナビゲーション角度の閾値との比較値を、前記オブジェクトの変化量として確定することと、を含むことを特徴とする請求項2に記載のバーチャルリアリティデバイスのコンテンツの調整方法。 - 前記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、
前記ユーザの注視点がそれぞれ前記ナビゲーションコントロールの第1端と第2端とに位置するときの、前記ユーザが前記第1端を注視する視線と、前記第2端を注視する視線との間の夾角を確定し、
前記夾角と前記変化総量との比較値を計算することにより、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定することを特徴とする請求項4に記載のバーチャルリアリティデバイスのコンテンツの調整方法。 - 前記対象オブジェクトは輝度であり、前記オブジェクトの変化量は輝度の変化値を含み、前記オブジェクトの変化方向は輝度の変化方向を含み、
前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示輝度の変化量及び輝度の変化方向を確定することを含み、
前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記輝度の変化方向と輝度の変化量に基づき、前記表示輝度を調整することを含むことを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。 - 前記対象オブジェクトは出力されるコンテンツであり、前記オブジェクトの変化量はページめくりのオフセット量を含み、前記オブジェクトの変化方向はページめくりの方向を含み、
前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示コンテンツのページめくりのオフセット量及びページめくりの方向を確定することを含み、
前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記ページめくりのオフセット量と前記ページめくりの方向に基づき、前記出力されるコンテンツの表示コンテンツを調整することを含むことを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。 - 前記対象オブジェクトはVRデバイスから出力されるコンテンツにおける対象物体であり、前記オブジェクトの変化量は切り替わりの数量を含み、前記オブジェクトの変化方向は前記切り替わりの方向を含み、
前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示コンテンツの要素に対応する切り替わりの数量及び切り替わりの方向を確定することを含み、
前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記対象物体に対応する切り替わりの数量と前記切り替わりの方向に基づき、前記対象物体の表示コンテンツの要素を調整することを含むことを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。 - バーチャルリアリティデバイスであって、
不揮発性記憶装置と、処理装置とを含み、前記不揮発性記憶装置は、コンピュータ読み取り可能なプログラムコードを記憶し、前記処理装置は、前記コンピュータプログラムコードを実行することにより、
VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示することと、ユーザの注視点の前記ナビゲーションコントロールにおける位置変化から、初期位置、及び移動位置を確定することと、前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することと、前記オブジェクトの変化方向と前記オブジェクトの変化量に基づきページをめくることにより、前記対象オブジェクトのオブジェクトコンテンツを調整することと、を実現し
前記対象オブジェクトは、VRデバイスから出力されるコンテンツにおける対象物体であり、複数のオブジェクトコンテンツを含み、
前記ナビゲーションコントロールに含まれる複数のナビゲーション領域は、複数のオブジェクトコンテンツと一対一で対応し、
前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトのオブジェクトコンテンツを調整することは、前記オブジェクトの変化方向に基づき、前記初期位置のナビゲーション領域に対応するオブジェクトコンテンツから前記移動位置のナビゲーション領域に対応するオブジェクトコンテンツまでの間の少なくとも1つのナビゲーション領域に対応する少なくとも1つのオブジェクトコンテンツを、表示することを特徴とするバーチャルリアリティデバイス。 - 前記ナビゲーションコントロールは、水平線に直交するかまたは水平線に平行であり、前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
前記初期位置から、水平線または水平線の垂線からの前記ユーザが前記初期位置を注視する視線の初期角度を確定し、前記移動位置から、水平線または水平線の垂線からの前記ユーザが前記移動位置を注視する視線の最終角度を確定し、前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することである、または、
前記ナビゲーションコントロールは、水平線に平行であり、前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
前記初期位置から、水平線の垂線からの前記ユーザが前記初期位置を注視する視線の初期角度を確定し、前記移動位置から、水平線の垂線からの前記ユーザが前記移動位置を注視する視線の最終角度を確定し、前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。 - 前記ナビゲーションコントロールは、複数のナビゲーション領域を含み、1つの前記対象オブジェクトは、複数のオブジェクトコンテンツを含み、 前記複数のナビゲーション領域は、前記複数のオブジェクトコンテンツと一対一で対応し、
前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
前記初期位置と前記移動位置との間に含まれる少なくとも1つのナビゲーション領域を確定し、前記少なくとも1つのナビゲーション領域に対応する少なくとも1つのオブジェクトコンテンツを確定し、オブジェクトの変化量として、前記少なくとも1つのオブジェクトコンテンツの表示数量を集計し、オブジェクトの変化方向として、前記初期位置に対応するナビゲーション領域から前記移動位置に対応するナビゲーション領域への移動の方向を取得することであり、
前記処理装置が前記オブジェクトの変化方向と前記オブジェクトの変化量に基づきページをめくることにより、前記対象オブジェクトのオブジェクトコンテンツを調整することは、
前記初期位置のナビゲーションコントロールに対応するオブジェクトコンテンツから、前記オブジェクトの変化方向に基づき、前記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで前記少なくとも1つのオブジェクトコンテンツを順次表示することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。 - 前記処理装置が前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
前記最終角度から前記初期角度を減算して角度差値を得、前記角度差値の正負から前記オブジェクトの変化方向を確定し、前記角度差値とナビゲーション角度の閾値との比較値を前記オブジェクトの変化量として確定することであることを特徴とする請求項10に記載のバーチャルリアリティデバイス。 - 前記処理装置が前記ナビゲーション角度の閾値を確定することは、
前記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、前記ユーザの注視点がそれぞれ前記ナビゲーションコントロールの第1端と第2端とに位置するときの、前記ユーザが前記第1端を注視する視線と、前記第2端を注視する視線との間の夾角を確定し、前記夾角と前記変化総量との比較値を計算することにより、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定することであることを特徴とする請求項12に記載のバーチャルリアリティデバイス。 - 前記対象オブジェクトは輝度であり、前記オブジェクトの変化量は輝度の変化値を含み、前記オブジェクトの変化方向は輝度の変化方向を含み、
前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示輝度の変化量及び輝度の変化方向を確定することであり、
前記処理装置が前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記輝度の変化方向と輝度の変化量に基づき、前記表示輝度を調整することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。 - 前記対象オブジェクトは出力されるコンテンツであり、前記オブジェクトの変化量はページめくりのオフセット量を含み、前記オブジェクトの変化方向はページめくりの方向を含み、
前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示コンテンツのページめくりのオフセット量及びページめくりの方向を確定することであり、
前記処理装置が前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記ページめくりのオフセット量と前記ページめくりの方向に基づき、前記出力されるコンテンツの表示コンテンツを調整することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。 - 前記対象オブジェクトはVRデバイスから出力されるコンテンツにおける対象物体であり、前記オブジェクトの変化量は切り替わりの数量を含み、前記オブジェクトの変化方向は前記切り替わりの方向を含み、
前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示コンテンツの要素に対応する切り替わりの数量及び切り替わりの方向を確定することであり、
前記処理装置が前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記対象物体に対応する切り替わりの数量と前記切り替わりの方向に基づき、前記対象物体の表示コンテンツの要素を調整することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710702444.3A CN107479804A (zh) | 2017-08-16 | 2017-08-16 | 虚拟现实设备及其内容调整方法 |
CN201710702444.3 | 2017-08-16 | ||
PCT/CN2017/098872 WO2019033446A1 (zh) | 2017-08-16 | 2017-08-24 | 虚拟现实设备及其内容调整方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019536118A JP2019536118A (ja) | 2019-12-12 |
JP6720341B2 true JP6720341B2 (ja) | 2020-07-08 |
Family
ID=60600532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018558140A Active JP6720341B2 (ja) | 2017-08-16 | 2017-08-24 | バーチャルリアリティデバイス及びそのコンテンツの調整方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20190129500A1 (ja) |
EP (1) | EP3671408B1 (ja) |
JP (1) | JP6720341B2 (ja) |
KR (1) | KR20190031433A (ja) |
CN (1) | CN107479804A (ja) |
DK (1) | DK3671408T3 (ja) |
WO (1) | WO2019033446A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9959658B2 (en) * | 2015-02-26 | 2018-05-01 | Rovi Guides, Inc. | Methods and systems for generating holographic animations |
US10338766B2 (en) | 2017-09-06 | 2019-07-02 | Realwear, Incorporated | Audible and visual operational modes for a head-mounted display device |
CN108211342A (zh) * | 2018-01-19 | 2018-06-29 | 腾讯科技(深圳)有限公司 | 视角调整方法和装置、存储介质及电子装置 |
CN108181993A (zh) * | 2018-01-26 | 2018-06-19 | 成都科木信息技术有限公司 | 用于增强现实设备的场景绘制方法 |
MX2021003238A (es) | 2018-09-18 | 2021-09-28 | Transrobotics Inc | Tecnologias de accion basadas en la deteccion de objetos. |
US11703593B2 (en) | 2019-04-04 | 2023-07-18 | TransRobotics, Inc. | Technologies for acting based on object tracking |
CN115113532A (zh) * | 2021-03-18 | 2022-09-27 | 云米互联科技(广东)有限公司 | 基于智能家电设备的设备监测方法及装置 |
CN116266071A (zh) * | 2021-12-17 | 2023-06-20 | 广州视享科技有限公司 | 一种显示系统调整方法、装置和显示系统 |
CN116756045B (zh) * | 2023-08-14 | 2023-10-31 | 海马云(天津)信息技术有限公司 | 应用测试方法及装置、计算机设备和存储介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1645944B1 (en) * | 2004-10-05 | 2012-08-15 | Sony France S.A. | A content-management interface |
JP4667111B2 (ja) * | 2005-04-21 | 2011-04-06 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
NZ560457A (en) * | 2007-08-15 | 2010-02-26 | William Bryan Woodard | Image generation system |
JP2014077814A (ja) * | 2011-02-14 | 2014-05-01 | Panasonic Corp | 表示制御装置および表示制御方法 |
KR101824501B1 (ko) * | 2011-05-19 | 2018-02-01 | 삼성전자 주식회사 | 헤드 마운트 디스플레이 장치의 이미지 표시 제어 장치 및 방법 |
WO2013168173A1 (en) * | 2012-05-11 | 2013-11-14 | Umoove Services Ltd. | Gaze-based automatic scrolling |
KR102062310B1 (ko) * | 2013-01-04 | 2020-02-11 | 삼성전자주식회사 | 전자 장치에서 헤드 트래킹 기술을 이용하여 제어 서비스를 제공하기 위한 장치 및 방법 |
US9908048B2 (en) * | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
JP6264871B2 (ja) * | 2013-12-16 | 2018-01-24 | セイコーエプソン株式会社 | 情報処理装置および情報処理装置の制御方法 |
US10564714B2 (en) * | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
KR20160033376A (ko) * | 2014-09-18 | 2016-03-28 | (주)에프엑스기어 | 시선에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램 |
JP6629528B2 (ja) * | 2015-06-16 | 2020-01-15 | 株式会社ファイン | 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム |
EP3174005A1 (en) * | 2015-11-30 | 2017-05-31 | Nokia Technologies Oy | Apparatus and method for controlling audio mixing in virtual reality environments |
US10175773B2 (en) * | 2016-07-01 | 2019-01-08 | Tactual Labs Co. | Touch sensitive keyboard |
CN106325505B (zh) * | 2016-08-17 | 2019-11-05 | 传线网络科技(上海)有限公司 | 基于视点跟踪的控制方法和装置 |
CN106527722B (zh) * | 2016-11-08 | 2019-05-10 | 网易(杭州)网络有限公司 | 虚拟现实中的交互方法、系统及终端设备 |
CN106445173A (zh) * | 2016-11-25 | 2017-02-22 | 四川赞星科技有限公司 | 一种目标体状态转换方法及装置 |
-
2017
- 2017-08-16 CN CN201710702444.3A patent/CN107479804A/zh active Pending
- 2017-08-24 WO PCT/CN2017/098872 patent/WO2019033446A1/zh active Application Filing
- 2017-08-24 EP EP17906783.0A patent/EP3671408B1/en active Active
- 2017-08-24 DK DK17906783.0T patent/DK3671408T3/da active
- 2017-08-24 US US16/097,795 patent/US20190129500A1/en not_active Abandoned
- 2017-08-24 JP JP2018558140A patent/JP6720341B2/ja active Active
- 2017-08-24 KR KR1020187031709A patent/KR20190031433A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
JP2019536118A (ja) | 2019-12-12 |
DK3671408T3 (da) | 2022-09-12 |
EP3671408B1 (en) | 2022-07-27 |
EP3671408A1 (en) | 2020-06-24 |
WO2019033446A1 (zh) | 2019-02-21 |
KR20190031433A (ko) | 2019-03-26 |
US20190129500A1 (en) | 2019-05-02 |
EP3671408A4 (en) | 2020-10-07 |
CN107479804A (zh) | 2017-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6720341B2 (ja) | バーチャルリアリティデバイス及びそのコンテンツの調整方法 | |
EP3571673B1 (en) | Method for displaying virtual image, storage medium and electronic device therefor | |
US20230298146A1 (en) | Gaze Direction-Based Adaptive Pre-Filtering of Video Data | |
US10534428B2 (en) | Image processing device and image processing method, display device and display method, and image display system | |
US9838597B2 (en) | Imaging device, imaging method, and program | |
US10394319B2 (en) | Method of displaying an image, and system therefor | |
JP6130478B1 (ja) | プログラム及びコンピュータ | |
CN104076512A (zh) | 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法 | |
US11694352B1 (en) | Scene camera retargeting | |
US11317072B2 (en) | Display apparatus and server, and control methods thereof | |
US11477433B2 (en) | Information processor, information processing method, and program | |
US10694115B2 (en) | Method, apparatus, and terminal for presenting panoramic visual content | |
JP2020024417A (ja) | 情報処理装置 | |
JP7367689B2 (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
US12039659B2 (en) | Method and device for tailoring a synthesized reality experience to a physical setting | |
JP2024036387A (ja) | 電子機器およびその制御方法 | |
US11287881B2 (en) | Presenting images on a display device | |
CN107958478B (zh) | 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备 | |
WO2019085109A1 (zh) | 图像写入控制方法、装置及电子设备 | |
CN107833265B (zh) | 一种图像切换展示方法和虚拟现实设备 | |
CN108108019B (zh) | 虚拟现实设备及其显示方法 | |
JP2018120521A (ja) | 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200506 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200617 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6720341 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |