[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6720341B2 - バーチャルリアリティデバイス及びそのコンテンツの調整方法 - Google Patents

バーチャルリアリティデバイス及びそのコンテンツの調整方法 Download PDF

Info

Publication number
JP6720341B2
JP6720341B2 JP2018558140A JP2018558140A JP6720341B2 JP 6720341 B2 JP6720341 B2 JP 6720341B2 JP 2018558140 A JP2018558140 A JP 2018558140A JP 2018558140 A JP2018558140 A JP 2018558140A JP 6720341 B2 JP6720341 B2 JP 6720341B2
Authority
JP
Japan
Prior art keywords
change
content
amount
angle
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018558140A
Other languages
English (en)
Other versions
JP2019536118A (ja
Inventor
志興 申
志興 申
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Techology Co Ltd
Original Assignee
Goertek Techology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Techology Co Ltd filed Critical Goertek Techology Co Ltd
Publication of JP2019536118A publication Critical patent/JP2019536118A/ja
Application granted granted Critical
Publication of JP6720341B2 publication Critical patent/JP6720341B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本願発明は、スマートインタラクション技術に関し、さらに詳しくは、バーチャルリアリティデバイス及びそのコンテンツの調整方法に関する。
VR(Virtual Reality、バーチャルリアリティ)デバイスは、ユーザの頭部に装着されるウェアラブルスマートデバイスである。VR技術を用いて仮想の視覚と聴覚効果を作り出して没入型の仮想環境を提供することにより、仮想環境にいる感覚を誘導すると同時に、ユーザと仮想コンテンツとの対話を実現できる。
現在の技術では、ユーザが仮想環境に入っている間に、仮想環境において表示される仮想の対象オブジェクトのオブジェクトコンテンツについて調整することにより、ユーザと仮想コンテンツとの対話を実現する。例えば、対象オブジェクトが、作り出されたVRシーンに表示されるページである場合、ページのコンテンツを調整することにより、仮想環境を調整し、さらには連続的に変化するVRシーンを作り出すことができる。VRシーンにおいては、対象オブジェクトの調整は主として、VRデバイスと制御デバイスを電気的に接続し、ユーザが手動で制御デバイスを操作することにより、仮想環境における対象オブジェクトのオブジェクトコンテンツを調整する方式で行われる。
しかしながら、上記のようなVRシーンにおいて制御デバイスを用いて、対象オブジェクトのオブジェクトコンテンツを調整するという従来の方式は、ユーザの手動操作が必要となるため実現しにくい。
本願発明は、上記実情に鑑みてなされるものであり、主に従来のバーチャルリアリティデバイスにおいて、仮想コンテンツの手動調整が複雑であるという問題を解決し、バーチャルリアリティデバイスにおける仮想コンテンツの調整効率を高めるための、バーチャルリアリティデバイス及びそのコンテンツの調整方法を提供するものである。
本願発明は、上記課題を解決するための、バーチャルリアリティデバイスのコンテンツの調整方法を提供する。本方法は、
VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示するステップと、
ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置及び上記初期位置から位置が変化した後の移動位置を確定するステップと、
上記初期位置と上記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定するステップと、
上記オブジェクトの変化量と上記オブジェクトの変化方向に基づきページをめくることにより、上記対象オブジェクトのオブジェクトコンテンツを調整するステップと、を含む。
上記ナビゲーションコントロールは、水平線に対して直交し、上記初期位置と上記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定するステップは、
上記初期位置から、水平線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定するステップと、
上記移動位置から、水平線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定するステップと、
上記初期角度と上記最終角度から、上記オブジェクトの変化量及びオブジェクトの変化方向を確定するステップと、を含むことが好ましい。
または、上記ナビゲーションコントロールは、水平線に平行で、上記初期位置と上記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定するステップは、
上記初期位置に基づいて、水平線の垂線から上記ユーザが上記初期位置を注視する視線の初期角度を確定するステップと、
上記移動位置に基づいて、水平線の垂線から上記ユーザが上記移動位置を注視する視線の最終角度を確定するステップと、
上記初期角度と上記最終角度から、上記オブジェクトの変化量及びオブジェクトの変化方向を確定するステップと、を含むことが好ましい。
VRシーンでは、上記ナビゲーションコントロールが連続的に配列して長方形構造を形成する複数のナビゲーション領域を含み、1つの上記対象オブジェクトは複数のオブジェクトコンテンツを含み、
上記ナビゲーションコントロールは、複数のナビゲーション領域を含み、上記対象オブジェクトは、複数のオブジェクトコンテンツを含み、上記複数のナビゲーション領域は、上記複数のオブジェクトコンテンツと一対一で対応し、
上記初期位置と上記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定するステップは、
上記初期位置と上記移動位置との間に含まれる少なくとも1つのナビゲーション領域を確定するステップと、
上記少なくとも1つのナビゲーション領域に対応する少なくとも1つのオブジェクトコンテンツを確定するステップと、
オブジェクトの変化量として、上記少なくとも1つのオブジェクトコンテンツの表示数量を集計するステップと、
オブジェクトの変化方向として、上記初期位置に対応するナビゲーション領域から上記移動位置に対応するナビゲーション領域への移動の方向を取得するステップと、を含み、
上記オブジェクトの変化方向と上記オブジェクトの変化量に基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することは、
上記初期位置のナビゲーション領域に対応するオブジェクトコンテンツから、上記オブジェクトの変化方向に基づき、上記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで上記少なくとも1つのオブジェクトコンテンツを順次表示することを含む。
好ましくは、上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
上記最終角度から上記初期角度を減算して角度差値を得ることと、
上記角度差値の正負から上記オブジェクトの変化方向を確定することと、
上記角度差値とナビゲーション角度の閾値との比較値(比値)を、上記オブジェクトの変化量として確定することと、を含む。
好ましくは、上記ナビゲーション角度の閾値は、以下の方法により確定する。
上記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、
上記ユーザの注視点がそれぞれ上記ナビゲーションコントロールの第1端と第2端とに位置するときの、上記ユーザが上記第1端を注視する視線と、上記第2端を注視する視線との間の夾角を確定し、
上記夾角と上記変化総量との比値を計算することで、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定する。
本願発明はさらに、不揮発性記憶装置と、処理装置とを含むバーチャルリアリティデバイスを提供する。上記不揮発性記憶装置は、コンピュータ読み取り可能なプログラムコードを記憶するためのもので、上記処理装置は、上記コンピュータプログラムコードを実行することで、
VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示することと、ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置、及び上記初期位置から位置が変化した後の移動位置を確定することと、上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することと、上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することとを実現する。
好ましくは、上記ナビゲーションコントロールは、水平線に直交し、上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、
上記初期位置から、水平線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定し、上記移動位置から、水平線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定し、そして上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することであり、
または、上記ナビゲーションコントロールは、水平線に平行で、上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、
上記初期位置から、水平線の垂線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定し、上記移動位置から、水平線の垂線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定し、そして上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することである。
好ましくは、上記ナビゲーションコントロールは、複数のナビゲーション領域を含み、上記対象オブジェクトは、複数のオブジェクトコンテンツを含み、上記複数のナビゲーション領域は、上記複数のオブジェクトコンテンツと一対一で対応し、
上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、
上記初期位置と上記移動位置との間に含まれる少なくとも1つのナビゲーション領域を確定し、上記少なくとも1つのナビゲーション領域のそれぞれに対応する少なくとも1つのオブジェクトコンテンツを確定し、オブジェクトの変化量として、上記少なくとも1つのオブジェクトコンテンツの表示数量を集計し、オブジェクトの変化方向として、上記初期位置に対応するナビゲーション領域から上記移動位置に対応するナビゲーション領域へのスライドの方向を取得することであり、
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することは、具体的には、
上記初期位置のナビゲーションコントロールに対応するオブジェクトコンテンツから、上記ナビゲーション領域のスライドの方向に基づき、上記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで各ナビゲーション領域に対応するオブジェクトコンテンツを順次表示することである。
好ましくは、上記処理装置が上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、
上記最終角度から上記初期角度を減算して角度差値を得て、上記角度差値の正負から上記オブジェクトの変化方向を確定し、上記角度差値と上記ナビゲーション角度の閾値との比値を上記オブジェクトの変化量として確定することである。
好ましくは、上記処理装置が上記ナビゲーション角度の閾値を確定することは、具体的には、
上記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、上記ユーザの注視点がそれぞれ上記ナビゲーションコントロールの第1端と第2端とに位置するときの、上記ユーザが上記第1端を注視する視線と、上記第2端を注視する視線との間の夾角を確定し、上記夾角と上記変化総量との比値を計算することで、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定することである。
本願発明では、バーチャルリアリティデバイスにおいてオブジェクトコンテンツを表示すると同時に、VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示することで、上記対象オブジェクトの調整に対する準備を実現してもよい。ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置及び移動位置を確定すし、すなわち、初期位置及び移動位置は、主にユーザの注視点のナビゲーションコントロールにおける位置変化から確定される。上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定し、且つ上記オブジェクトの変化量及びオブジェクトの変化方向に基づきページをめくることで、対応する上記対象オブジェクトのオブジェクトコンテンツを調整する。
本願発明の一実施形態によるバーチャルリアリティデバイスのコンテンツの調整方法を示すフローチャートである。 本願発明の一実施形態によるナビゲーションコントロールを示す概略図である。 本願発明の一実施形態によるオブジェクトコンテンツ及び対応するナビゲーションコントロールの一例を示す概略図である。 本願発明の一実施形態によるオブジェクトコンテンツ及び対応するナビゲーションコントロールの他の例を示す概略図である。 本願発明の一実施形態によるバーチャルリアリティデバイスのコンテンツの調整方法の他の例を示すフローチャートである。 本願発明の一実施形態によるバーチャルリアリティデバイスのコンテンツの調整方法の他の例を示すフローチャートである。 本願発明の一実施形態によるバーチャルリアリティデバイスの概略構造図である。 本願発明の一実施例によるヘッドマウントディスプレイVRデバイスの概略構造図である。
本願発明のいくつかの実施例は、主にバーチャルリアリティデバイスに用いて、スライダーバーによりバーチャルリアリティデバイスにおけるコンテンツの調整操作を制御するものである。
本願発明のいくつかの実施例では、対象オブジェクトにナビゲーションコントロールを関連付け、且つ当該対象オブジェクトに対応するナビゲーションコントロールを表示する。ユーザの注視点が当該ナビゲーションコントロールにおいて変化すると、当該ユーザの注視点の上記ナビゲーションコントロールにおける位置変化を確定し、初期位置及び移動位置を確定し、上記初期位置と上記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定し、上記オブジェクトの変化量及びオブジェクトの変化方向に基づき、対象オブジェクトのオブジェクトコンテンツの調整を実現する。
図1は、本願発明の一実施例によるバーチャルリアリティデバイスのコンテンツの調整方法を示し、当該方法は以下のステップ101〜104を含んでもよい。
ステップ101:VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示する。
VRデバイスでは、仮想環境に取り囲まれた没入型の体験を作り出すことができる。上記VRデバイスは、例えば、VRヘルメット、VR眼鏡などである。VRデバイスが仮想環境を作り出す際、様々なタイプのオブジェクトを表示する必要がある。上記対象オブジェクトは、上記VRデバイスにより作り出された仮想環境に表示される全てのタイプのオブジェクトで、例えば、当該仮想環境における輝度、音声、出力されるコンテンツ、出力されるコンテンツにおける対象物体、または出力されるコンテンツにおける領域別のコンテンツなどである。
ナビゲーションコントロールは、上記対象オブジェクトに関連付けられ、上記ナビゲーションコントロールにより、上記対象オブジェクトのオブジェクトコンテンツのページめくり操作を制御できる。上記対象オブジェクトのオブジェクトコンテンツは、調整操作の変化に伴って変更する。上記ナビゲーションコントロールは、対象オブジェクトと一対一で対応してもよ。すなわち、1つのナビゲーションコントロールは、1つの対象オブジェクトを制御し、上記対象オブジェクトについてのみ調整操作を実現してもよい。
上記ナビゲーションコントロールは、スライダーバーであってもよい。上記スライダーバーのスライドポイントが上記スライダーバーにおいてスライドすると、上記対象オブジェクトのオブジェクトコンテンツの調整操作を実現できる。上記対象オブジェクトのオブジェクトコンテンツの変化の総量に応じて上記スライダーバーを複数の領域に区画し、各領域を1つのオブジェクトコンテンツに対応させてもよい。例えば、対象オブジェクトが6つのオブジェクトコンテンツを含むクロックであれば、上記スライダーバーを6つのスライド領域に区画してもよい。もちろん、その他の方式によりナビゲーションコントロールに対応する対象オブジェクトの複数のオブジェクトコンテンツを確定してもよい。以下の実施例での方式について詳しく説明する。
ステップ102:ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置、及び上記初期位置から位置が変化した後の移動位置を確定する。
上記ナビゲーションコントロールがトリガーされたことを検出するとき、ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置、及び上記初期位置から位置が変化した後の移動位置を確定してもよい。
上記ナビゲーションコントロールは、上記対象オブジェクトに関連付けられ、上記ナビゲーションコントロールにより上記対象オブジェクトの調整操作を実現できる。上記ナビゲーションコントロールがトリガーされるとき、トリガーされた時のユーザの注視点の位置を初期位置として確定してもよい。
上記ナビゲーションコントロールにボックスコライダを設けてもよい。ユーザの注視点が上記ナビゲーションコントロールのボックスコライダの位置する衝突領域に移動すると、上記ナビゲーションコントロールをトリガーする。ナビゲーションコントロールがトリガーされると、ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、上記対象オブジェクトのオブジェクトコンテンツの調整操作を制御できる。
上記ナビゲーションコントロールがトリガーされると、ユーザは注視点を制御して上記ナビゲーションコントロールにおいて注視点を移動させることができる。ユーザが頭部を上下、または左右に移動させる方式により、上記ユーザの注視点の上記ナビゲーションコントロールにおける位置変化を実現してもよい。例えば、俯瞰または仰視、左または右へ注視する方式により、上記ユーザの注視点の上記ナビゲーションコントロールにおける位置変化を実現できる。上記ナビゲーションコントロールにおいてユーザの注視点の位置が変化するごとに、対応する初期位置及び移動位置を確定してもよい。初期位置とは、ナビゲーションコントロールがトリガーされるときの注視点の位置、または注視点が静止状態から移動状態に調整されるときの位置を指してもよい。ユーザの視線が移動する過程では、上記移動位置が、ユーザの連続的に移動する間におけるある位置であってもよいが、上記ユーザの視線移動が停止するときの最終の移動位置であってもよい。つまり、ユーザの注視点が移動する過程では、上記初期位置及び移動位置が視線の変化に伴って変化し、移動位置が次の移動における初期位置となる。
ユーザの注視点を以下の方法により確定してもよい。
ユーザの両眼を結ぶ線の中点を確定し、上記中点を上記VRデバイスのディスプレイスクリーンにマッピングし、マッピングポイントを上記ユーザの注視点とする。
上記ユーザの注視点は仮想の点で、両眼の位置を検出することにより確定してもよい。また上記ユーザの注視点は、実在の点で、例えば、VRデバイスにおける2つの光学レンズの中心位置にレーザー発射器を設け、レーザー発射器によりユーザの注視点をシミュレーションしてもよい。
上記ユーザの注視点が上記ナビゲーションコントロールに位置するとき、当該ナビゲーションコントロールをトリガーする。ナビゲーションコントロールがトリガーされると、ユーザの注視点の初期位置を確定できる。ユーザは注視点を制御して移動させ、移動が停止すると、当該ユーザの注視点の上記ナビゲーションコントロールにおける移動位置を確定できる。移動位置から移動を再開するとき、当該移動位置を新たな初期位置として、上記対象オブジェクトのオブジェクトコンテンツの調整操作を続行する。
場合によっては、上記ナビゲーションコントロールを複数のナビゲーション領域に均一に区画し、各ナビゲーション領域が1つのオブジェクトコンテンツに対応してもよい。上記ユーザの注視点がいずれかのナビゲーション領域に位置するとき、当該ナビゲーション領域に対応するオブジェクトコンテンツを表示する。例えば、図2に示すように、ナビゲーションコントロール200は、ナビゲーション領域201と、ナビゲーション領域202と、ナビゲーション領域203との、3つのナビゲーション領域に区画されており、各ナビゲーション領域が1つのオブジェクトコンテンツに対応する。
ステップ103:上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定する。
ステップ104:上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整する。
対象オブジェクトは、複数のオブジェクトコンテンツを含み、複数のオブジェクトコンテンツの間において調整操作を行うことができる。上記対象オブジェクトのオブジェクトコンテンツが、上記対象オブジェクトに関連付けられる実在のコンテンツで、例えば、上記対象オブジェクトが輝度の場合、上記オブジェクトコンテンツは、表示輝度であってもよい。上記対象オブジェクトが音声の場合、上記オブジェクトコンテンツは、出力される音声であってもよい。上記対象オブジェクトが、出力されるコンテンツの場合、上記オブジェクトコンテンツは、上記コンテンツが出力されて表示されるコンテンツであってもよい。上記対象オブジェクトが、出力されるコンテンツにおける対象物体である場合、上記オブジェクトコンテンツは、出力されたコンテンツにおける対象物体に対応する表示コンテンツの要素であってもよい。上記対象オブジェクトが、出力されるコンテンツにおける領域別のコンテンツである場合、上記オブジェクトコンテンツは、出力されたコンテンツにおける領域ごとに表示されるコンテンツであってもよい。
上記対象オブジェクトの調整操作はリアルタイムに行われ、対応する移動位置をリアルタイムに取得して対象オブジェクトのオブジェクトコンテンツのリアルタイムな調整を実行できる。上記ナビゲーションコントロールと上記対象オブジェクトのオブジェクトコンテンツとを一対一で対応付け、各ナビゲーション位置を対応するオブジェクトコンテンツと対応付け、上記移動位置が変化すると、対応するオブジェクトコンテンツについて対応する調整を行ってもよい。
上記オブジェクトの変化方向とは、上記対象オブジェクトの当該オブジェクトコンテンツについてのオブジェクトの変化方向を指す。具体的には、当該オブジェクトコンテンツについての前方への変位、後方への変位、または大きくなる変化、小さくなる変化を指す。前方への変位の場合、当該表示コンテンツの前方に配列する表示コンテンツを表示し、後方への変位の場合、当該表示コンテンツの後方に配列する表示コンテンツを表示してもよい。大きくなる変化の場合、当該VRシーンにおける表示輝度、表示音声などを増加し、小さくなる変化の場合、当該VRシーンにおける表示輝度、表示音声などを減少してもよい。
場合によっては、上記ナビゲーションコントロールの複数のナビゲーション領域と対象オブジェクトの複数のオブジェクトコンテンツが一対一で対応する場合、ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置及び移動位置を確定でき、さらに当該初期位置に該当するナビゲーション領域のオブジェクトコンテンツ、及び移動位置に該当するナビゲーション領域に対応するオブジェクトコンテンツを確定できる。そして移動位置に該当するナビゲーション領域に対応するオブジェクトコンテンツに対する初期位置に該当するナビゲーション領域のオブジェクトコンテンツのコンテンツ変化から、オブジェクトの変化量及びオブジェクトの変化方向を確定できる。
なお、ユーザの注視点が初期位置から移動位置に移動する過程で、いずれかの当該位置に該当するナビゲーション領域オブジェクトのオブジェクトコンテンツについて、オブジェクトの変化量及びページめくりについてのコンテンツを計算し、そして対象オブジェクトのオブジェクトコンテンツを調整し、対象オブジェクトのオブジェクトコンテンツを動的に変化させ、移動位置に到達したら移動位置に対応するオブジェクトコンテンツを表示してもよい。
本願発明の実施例では、VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示し、ユーザは表示されるナビゲーションコントロールについて、対象オブジェクトのコンテンツ調整を実現できる。ユーザの注視点が上記ナビゲーションコントロールにおいて変化するとき、注視点に該当する初期位置及び移動位置を確定できる。初期位置及び移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定し、そして当該オブジェクトの変化量及びオブジェクトの変化方向に基づき、上記対象オブジェクトのオブジェクトコンテンツを調整できる。ユーザは、ナビゲーションコントロールを制御するだけでオブジェクトコンテンツの調整を実現できるため、コンテンツの調整効率が向上する。
本願発明のいくつかの実施例では、上記対象オブジェクトは、上記VRデバイスにより作り出される仮想環境における輝度、出力されるコンテンツ、出力されるコンテンツにおける対象物体などであってもよい。次に上記対象オブジェクトのいくつかの可能な実施形態について詳しく説明する。
実施形態1
上記対象オブジェクトは輝度で、上記オブジェクトの変化量は輝度の変化値を含み、上記オブジェクトの変化方向は輝度の変化方向を含み、
上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、上記初期位置と上記移動位置とから、表示輝度の変化量及び輝度の変化方向を確定することを含み、
上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、上記輝度の変化方向と輝度の変化量とに基づき、上記表示輝度を調整することを含む。
同様の対象オブジェクトの調整原理に基づく場合、上記対象オブジェクトは、再生される音声、表示色彩値などを含んでもよい。表示輝度とは、上記VRシーンに表示されるページコンテンツの輝度を指す。上記表示輝度について表示画面に表示コントロールを設定してもよい。VRデバイスが、ユーザの注視点が上記表示コントロールを注視する時間が予め設定された時間を超えると判断する場合、VRデバイスの輝度調整をオンにすることで、輝度調整を簡素化することができる。
実施形態2
上記対象オブジェクトは出力されるコンテンツで、上記オブジェクトの変化量はページめくりのオフセット量を含み、上記オブジェクトの変化方向はページめくりの方向を含み、
上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、上記初期位置と上記移動位置とから、表示コンテンツのページめくりのオフセット量及びページめくりの方向を確定することを含み、
上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、上記ページめくりのオフセット量と上記ページめくりの方向とに基づき、上記出力されるコンテンツの表示コンテンツを調整することを含む。
上記表示コンテンツは複数含んでもよく、複数の表示コンテンツの間においてページめくりにより、対象オブジェクトのオブジェクトコンテンツの調整操作を実現できる。上記表示コンテンツとは、当該VRデバイスのスクリーンに表示される仮想コンテンツを指す。具体的には、上記仮想コンテンツは複数の表示画像であってもよい。仮想表示する過程では、上記表示画像を連続的に表示することで、表示コンテンツが連続的に変化するVRシーンを作り出すことができる。表示する過程において各表示コンテンツは、いずれも仮想シーンを作り出して、ユーザに没入型のVR体験を提供することができる。
ユーザの注視点は、表示されるページコンテンツにおいて常に変化し、そして対応するオブジェクトの変化量及びオブジェクトの変化方向を生成できる。本実施形態では、オブジェクトの変化量とは、ページめくりのオフセット量を指す。具体的には、表示コンテンツについてのページめくりの度合いを指す。上記ページめくりの度合いに応じて、上記表示ページを徐々に変化させてもよい。例えば、上記表示コンテンツが景色の場合、ユーザの注視点は、表示コンテンツが徐々に変化することで、景色が視線に従って徐々に変化する体験を作り出すことができる。
実施形態3
上記対象オブジェクトはVRデバイスから出力されるコンテンツにおける対象物体で、上記オブジェクトの変化量は切り替わりの数量を含み、上記オブジェクトの変化方向は上記切り替わりの方向を含み、
上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、上記初期位置と上記移動位置とから、表示コンテンツの要素に対応する切り替わりの数量及び切り替わりの方向を確定することを含み、
上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、上記対象物体に対応する切り替わりの数量と上記切り替わりの方向とに基づき、上記対象物体の表示コンテンツの要素を調整することを含む。
上記対象物体は複数の表示コンテンツの要素に対応し、対応する切り替わりの数量及び切り替わりの方向に基づき、上記対象物体に対応する表示コンテンツの要素について切り替えてもよく、上記切り替わりの数量は、上記対象物体の切り替わりの数量に基づき確定してもよい。
上記表示ページにおける対象物体とは、具体的には、当該VRシーンにおけるいずれかの物体を指してもよい。例えば、上記VRシーンが作り出される仮想の部屋である場合、上記対象物体は作り出される仮想の部屋の中のクロックであってもよい。理解しやすくするために、次に例を挙げて説明する。図3及び図4に示すように、対象オブジェクト301がクロックである場合、対象オブジェクト301に対応する複数のオブジェクトコンテンツは、異なる時間情報を表示するクロック画面である。対象オブジェクトが6つのオブジェクトコンテンツを含むとすると、図3に表示されているのは、2つ目のオブジェクトコンテンツ3011となる。ナビゲーションコントロール302がトリガーされている間、ユーザの注視点のナビゲーションコントロール302における位置変化から、オブジェクトの変化量及びオブジェクトの変化方向を確定できる。オブジェクトの変化方向が後方へページをめくることで、オブジェクトの変化量が3であるとすると、図4に示すとおり、対象オブジェクト301を5つ目のオブジェクトコンテンツ3012に調整する。
本願発明の実施例では、上記対象オブジェクトの実施形態について詳しく説明している。様々な実施形態に関する表示は、VRシーンにおいて制御を実現できる。VRシーンにおいて対象オブジェクトを制御する過程を、ナビゲーションコントロールを用いて制御することで、制御過程がより簡素化され、より実現しやすくなる。
場合によっては、ユーザの注視点のナビゲーションコントロールにおける位置変化は、頭部の上下移動、もしくは眼球の上下回転により実現するか、または頭部の左右移動、もしくは眼球の左右回転により実現してもよい。上記ナビゲーションコントロールが水平線に直交する場合、頭部の上下移動、もしくは眼球の上下回転により注視点の位置変化を実現し、ユーザの俯仰角を確定できる。上記ナビゲーションコントロールが上記水平線に平行の場合、頭部の左右移動、もしくは眼球の左右回転により注視点の位置変化を実現し、水平線の垂線に基づき、左方もしくは右方へのオフセット角を確定できる。
したがって、ユーザの俯仰角または左方もしくは右方へのオフセット角から、オブジェクトの変化量及びオブジェクトの変化方向を計算してもよい。
上記ナビゲーションコントロールが上記水平線に直交する場合、図5に示すように、本願発明の実施例によるバーチャルリアリティデバイスのコンテンツの調整方法は、以下のステップ501〜ステップ506を含んでもよい。
ステップ501:VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示する。
上記頭部が上下に移動して上記注視点を協働させて上下に変化するとき、上記ナビゲーションコントロールが上記水平線に直交する。
ステップ502:ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置、及び上記初期位置から位置が変化した後の移動位置を確定する。
ステップ503:上記初期位置から、水平線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定する。
ステップ504:上記移動位置から、水平線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定する。
ステップ505:上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定する。
場合によっては、上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、上記最終角度から上記初期角度を減算して角度差値を得ることと、上記角度差値の正負から上記オブジェクトの変化方向を確定することと、上記角度差値とナビゲーション角度の閾値との比値を上記オブジェクトの変化量として確定することと、を含んでもよい。
場合によっては、上記ナビゲーション角度の閾値を以下の方法により確定してもよい。
上記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、上記ユーザの注視点がそれぞれ上記ナビゲーションコントロールの第1端と第2端とに位置するときの、上記ユーザが上記第1端を注視する視線と、上記第2端を注視する視線との間の夾角を確定し、上記夾角と上記変化総量との比値を計算することで、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定する。
ステップ506:上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整する。
本願発明の実施例では、初期位置により初期角度を確定し、移動位置により最終角度を確定し、初期角度と最終角度とから対応するページめくりの角度及びオブジェクトの変化方向を確定でき、つまり、角度により対応するページめくりの角度及びオブジェクトの変化方向を確定する。当該解決手段の制御過程は比較的シンプルで、異なる位置に対応するオブジェクトコンテンツを別途設定する必要がなく、さほど複雑でない計算により、オブジェクトの変化量及びオブジェクトの変化方向を確定できるため、対象オブジェクトのオブジェクトコンテンツの調整効率が向上する。
または、上記ナビゲーションコントロールが上記水平線に平行の場合、図6に示すように、本願発明の実施例によるバーチャルリアリティデバイスのコンテンツの調整方法は、以下のステップS601〜ステップS606を含んでもよい。
ステップ601:VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示する。
上記頭部が左右に移動して上記注視点を協働させて左右に変化するとき、上記ナビゲーションコントロールが水平線に平行となる。
ステップ602:ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置、及び上記初期位置から位置が変化した後の移動位置を確定する。
ステップ603:上記初期位置から、水平線の垂線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定する。
ステップ604:上記移動位置から、水平線の垂線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定する。
ステップ605:上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定する。
場合によっては、上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、上記最終角度から上記初期角度を減算して角度差値を得ることと、上記角度差値の正負から上記オブジェクトの変化方向を確定することと、上記角度差値と上記ナビゲーション角度の閾値との比値を上記オブジェクトの変化量として確定することと、を含んでもよい。
ステップ606:上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整する。
本願発明の実施例では、初期位置により初期角度を確定し、移動位置により最終角度を確定し、初期角度と最終角度とから対応するページめくりの角度及びオブジェクトの変化方向を確定でき、つまり、角度により対応するページめくりの角度及びオブジェクトの変化方向を確定する。当該解決手段の制御過程は比較的シンプルで、異なる位置に対応するオブジェクトコンテンツを別途設定する必要がなく、さほど複雑でない計算により、オブジェクトの変化量及びオブジェクトの変化方向を確定できるため、対象オブジェクトのオブジェクトコンテンツの調整効率が向上する。
一実施例として、上記ナビゲーション角度の閾値を以下の方法により確定してもよい。
上記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、上記ユーザの注視点がそれぞれ上記ナビゲーションコントロールの第1端と第2端とに位置するときの、上記ユーザが上記第1端を注視する視線と、上記第2端を注視する視線との間の夾角を確定し、上記夾角と上記変化総量との比値を計算することで、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定する。
場合によっては、上記ナビゲーションコントロールの両端はそれぞれ、当該ナビゲーションコントロールの両端におけるユーザの視線の最大揺動角度に対応し、上記揺動角度とは、上下に揺動する角度、または左右に揺動する角度を指してもよい。
ユーザが上記ナビゲーションコントロールを注視するとき、ユーザが上記第1端を注視する視線と、上記第2端を注視する視線との間の夾角は、ユーザの視線が揺動するときに達する最大夾角としてもよい。当該夾角と上記変化総量との比値を計算し、当該比値を丸め処理して各オブジェクトコンテンツに対応するナビゲーション角度の閾値としてもよい。
一般的には、ユーザの視線がナビゲーションコントロールの両端に位置するときに確定される夾角は、一つの定数である。各オブジェクトコンテンツが順次めくられるため、上記変化総量が十分に大きければ、上記夾角と上記変化総量とから確定されるナビゲーション角度の閾値が十分に小さくなる。すなわち、各オブジェクトコンテンツをめくる時間が十分に短くなり、そして連続的に調整する効果が得られる。この場合、当該ナビゲーションコントロールに対応する対象オブジェクトを連続的に再生される映像と見なしてよい。例えば、上記対象オブジェクトがテレビの場合、当該テレビのナビゲーションコントロールについて、多くのオブジェクトコンテンツ及び十分に小さいナビゲーション角度の閾値を設定すると、上記オブジェクトコンテンツが連続的に調整されるとき、当該テレビに映像が再生している効果を作り出すことができる。
本願発明の実施例では、ナビゲーションコントロールのナビゲーション範囲と上記オブジェクトコンテンツの変化総量とから、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定すると、上記ナビゲーション角度の閾値の大きさを確定し、そして後続のページめくりにおける対象ページ及びオブジェクトの変化方向を確定し、オブジェクトコンテンツの迅速な調整を実現できる。
もう一つの実施例として、VRシーンでは、上記ナビゲーションコントロールが連続的に配列して長方形構造を形成する複数のナビゲーション領域を含み、1つの上記対象オブジェクトは複数のオブジェクトコンテンツを含み、上記複数のナビゲーション領域は、上記複数のオブジェクトコンテンツと一対一で対応する。
上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、上記初期位置と上記移動位置との間に含まれる少なくとも1つのナビゲーション領域を確定することと、上記少なくとも1つのナビゲーション領域に対応する少なくとも1つのオブジェクトコンテンツを確定することと、オブジェクトの変化量として、上記少なくとも1つのオブジェクトコンテンツの表示数量を集計することと、オブジェクトの変化方向として、上記初期位置に対応するナビゲーション領域から上記移動位置に対応するナビゲーション領域への移動の方向を取得することと、を含んでもよく、
上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することは、上記初期位置のナビゲーション領域に対応するオブジェクトコンテンツから、上記オブジェクトの変化方向に基づき、上記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで上記少なくとも1つのオブジェクトコンテンツを順次表示することを含んでもよい。
本願発明の実施例では、ナビゲーションコントロールについてナビゲーション領域を設定することで、各ナビゲーション領域に対応するオブジェクトコンテンツをそれぞれ表示できる。注視点が上記ナビゲーション領域に位置すると、対応する上記オブジェクトコンテンツを表示でき、オブジェクトコンテンツの調整をより容易に実現できる。
図7は、本願発明の実施例に係る記憶装置702(不揮発性記憶装置)と、処理装置701とを含むバーチャルリアリティデバイスを示す。記憶装置702は、コンピュータ読み取り可能なプログラムコードを記憶するためのもので、処理装置701は、上記コンピュータプログラムコードを実行することで、VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示することと、ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置、及び上記初期位置から位置が変化した後の移動位置を確定することと、上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することと、上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトの表示コンテンツを調整することと、を実現する。
VRデバイスは、仮想環境に取り囲まれる没入型の体験を作り出すことができ、上記VRデバイスは、例えば、VRヘルメット、VR眼鏡などである。VRデバイスが仮想環境を作り出す際、様々なタイプのオブジェクトを表示する必要がある。上記対象オブジェクトは、上記VRデバイスにより作り出された仮想環境に表示される全てのタイプのオブジェクトで、例えば、当該仮想環境における輝度、音声、出力されるコンテンツ、出力されるコンテンツにおける対象物体、または出力されるコンテンツにおける領域別のコンテンツなどである。
ナビゲーションコントロールは、上記対象オブジェクトに関連付けられ、上記ナビゲーションコントロールにより、上記対象オブジェクトのオブジェクトコンテンツのページめくり操作を制御できる。上記対象オブジェクトのオブジェクトコンテンツは、調整操作の変化に伴って変更する。上記ナビゲーションコントロールは、対象オブジェクトと一対一で対応してもよく、すなわち、1つのナビゲーションコントロールは、1つの対象オブジェクトを制御し、上記対象オブジェクトのみについての調整操作を実現してもよい。
場合によっては、上記ナビゲーションコントロールは、スライダーバーであってもよい。上記スライダーバーのスライドポイントが上記スライダーバーにおいてスライドすると、上記対象オブジェクトのオブジェクトコンテンツの調整操作を実現できる。上記対象オブジェクトのオブジェクトコンテンツの変化総量に応じて上記スライダーバーを複数の領域に区画し、各領域が1つのオブジェクトコンテンツに対応してもよい。例えば、対象オブジェクトが6つのオブジェクトコンテンツを含むクロックであるとすると、上記スライダーバーを6つのスライド領域に区画してもよい。無論、その他の方式でナビゲーションコントロールに対応する対象オブジェクトの複数のオブジェクトコンテンツを確定してもよく、以下の実施例でこれについて詳しく説明する。
場合によっては、上記ナビゲーションコントロールがトリガーされることを検出するとき、ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置、及び上記初期位置から位置が変化した後の移動位置を確定してもよい。
上記ナビゲーションコントロールは、上記対象オブジェクトに関連付けられ、上記ナビゲーションコントロールにより上記対象オブジェクトの調整操作を実現できる。上記ナビゲーションコントロールがトリガーされるとき、トリガーされた時点のユーザの注視点の位置を初期位置として確定してもよい。
上記ナビゲーションコントロールにボックスコライダを設けてもよい。ユーザの注視点が上記ナビゲーションコントロールのボックスコライダの位置する衝突領域に移動すると、上記ナビゲーションコントロールをトリガーする。ナビゲーションコントロールがトリガーされると、ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、上記対象オブジェクトのオブジェクトコンテンツの調整操作を制御できる。
上記ナビゲーションコントロールがトリガーされると、ユーザは注視点を制御して上記ナビゲーションコントロールにおいて移動させることができる。ユーザが頭部を上下、または左右に移動させる方式で、上記ユーザの注視点の上記ナビゲーションコントロールにおける位置変化を実現してもよい。例えば、俯瞰または仰視、左または右へ注視する方式により、上記ユーザの注視点の上記ナビゲーションコントロールにおける位置変化を実現できる。ユーザの注視点が上記ナビゲーションコントロールにおいて位置が変化するごとに、対応する初期位置及び移動位置を確定してもよい。初期位置とは、ナビゲーションコントロールがトリガーされるときの注視点の位置、または注視点が静止状態から移動状態に調整されるときの位置を指してもよい。ユーザの視線が移動する過程では、上記移動位置が、ユーザの連続的に移動する間におけるある位置であってもよいが、上記ユーザの視線移動が停止するときの最終の移動位置であってもよい。つまり、ユーザの注視点が移動する過程では、上記初期位置及び移動位置が視線の変化に伴って変化し、移動位置が次の移動における初期位置となる。
場合によっては、処理装置701が以下の方法によりユーザの注視点を確定してもよい。
ユーザの両眼を結ぶ線の中点を確定し、上記中点を上記VRデバイスのディスプレイスクリーンにマッピングし、マッピングポイントを上記ユーザの注視点とする。
場合によっては、上記ユーザの注視点は仮想の点で、両眼の位置を検出することで確定してもよい。また上記ユーザの注視点は、実在の点で、例えば、VRデバイスにおける2つの光学レンズの中心位置にレーザー発射器を設け、レーザー発射器によりユーザの注視点をシミュレーションしてもよい。
上記ユーザの注視点が上記ナビゲーションコントロールに位置するとき、当該ナビゲーションコントロールをトリガーする。ナビゲーションコントロールがトリガーされると、ユーザの注視点の初期位置を確定できる。ユーザは注視点を制御して移動させ、移動が停止すると、当該ユーザの注視点の上記ナビゲーションコントロールにおける移動位置を確定できる。移動位置から移動を再開するとき、当該移動位置を新たな初期位置として、上記対象オブジェクトのオブジェクトコンテンツの調整操作を続行する。
場合によっては、上記ナビゲーションコントロールを複数のナビゲーション領域に均一に区画し、各ナビゲーション領域が1つのオブジェクトコンテンツに対応してもよい。上記ユーザの注視点がいずれかのナビゲーション領域に位置するとき、当該ナビゲーション領域に対応するオブジェクトコンテンツを表示する。
対象オブジェクトは、複数のオブジェクトコンテンツを含み、複数のオブジェクトコンテンツの間において調整操作を行うことができる。上記対象オブジェクトのオブジェクトコンテンツが、上記対象オブジェクトに関連付けられる実在のコンテンツで、例えば、上記対象オブジェクトが輝度の場合、上記オブジェクトコンテンツは、表示輝度であってもよい。上記対象オブジェクトが音声の場合、上記オブジェクトコンテンツは、出力される音声であってもよい。上記対象オブジェクトが、出力されるコンテンツの場合、上記オブジェクトコンテンツは、上記コンテンツが出力されて表示されるコンテンツであってもよい。上記対象オブジェクトが、出力されるコンテンツにおける対象物体である場合、上記オブジェクトコンテンツは、出力されたコンテンツにおける対象物体に対応する表示コンテンツであってもよい。上記対象オブジェクトが、出力されるコンテンツにおける領域別のコンテンツである場合、上記オブジェクトコンテンツは、出力されたコンテンツにおける領域ごとに表示されるコンテンツであってもよい。
上記対象オブジェクトの調整操作はリアルタイムに行われ、対応する移動位置をリアルタイムに取得して対象オブジェクトのオブジェクトコンテンツのリアルタイムな調整を実行できる。上記ナビゲーションコントロールと上記対象オブジェクトのオブジェクトコンテンツとを一対一で対応付け、各ナビゲーション位置を対応するオブジェクトコンテンツと対応付け、上記移動位置が変化すると、対応するオブジェクトコンテンツについて対応する調整を行ってもよい。
上記オブジェクトの変化方向とは、上記対象オブジェクトの当該オブジェクトコンテンツについてのオブジェクトの変化方向を指す。具体的には、当該オブジェクトコンテンツについての前方への変位、後方への変位、または大きくなる変化、小さくなる変化を指す。前方への変位の場合、当該表示コンテンツの前方に配列する表示コンテンツを表示し、後方への変位の場合、当該表示コンテンツの後方に配列する表示コンテンツを表示してもよい。大きくなる変化の場合、当該VRシーンにおける表示輝度、表示音声などを増加し、小さくなる変化の場合、当該VRシーンにおける表示輝度、表示音声などを減少してもよい。
場合によっては、上記ナビゲーションコントロールの複数のナビゲーション領域と対象オブジェクトの複数のオブジェクトコンテンツが一対一で対応する場合、ユーザの注視点の上記ナビゲーションコントロールにおける位置変化から、初期位置及び移動位置を確定でき、さらに当該初期位置に該当するナビゲーション領域のオブジェクトコンテンツ、及び移動位置に該当するナビゲーション領域に対応するオブジェクトコンテンツを確定できる。そして移動位置に該当するナビゲーション領域に対応するオブジェクトコンテンツに対する初期位置に該当するナビゲーション領域のオブジェクトコンテンツのコンテンツ変化から、オブジェクトの変化量及びオブジェクトの変化方向を確定できる。
なお、ユーザの注視点が初期位置から移動位置に移動する過程で、いずれかの当該位置に該当するナビゲーション領域オブジェクトのオブジェクトコンテンツについて、オブジェクトの変化量及びページめくりについてのコンテンツを計算し、そして対象オブジェクトのオブジェクトコンテンツを調整し、対象オブジェクトのオブジェクトコンテンツを動的に変化させ、移動位置に到達したら移動位置に対応するオブジェクトコンテンツを表示してもよい。
本願発明の実施例では、VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示し、ユーザは表示されるナビゲーションコントロールについて、対象オブジェクトのコンテンツ調整を実現できる。ユーザの注視点が上記ナビゲーションコントロールにおいて変化するとき、注視点に該当する初期位置及び移動位置を確定できる。初期位置及び移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定し、そして当該オブジェクトの変化量及びオブジェクトの変化方向に基づき、上記対象オブジェクトのオブジェクトコンテンツを調整できる。ユーザは、ナビゲーションコントロールを制御するだけでオブジェクトコンテンツの調整を実現できるため、コンテンツの調整効率が向上する。
本願発明のいくつかの実施例では、上記対象オブジェクトは、上記VRデバイスにより作り出される仮想環境における輝度、出力されるコンテンツ、出力されるコンテンツにおける対象物体などであってもよい。次に上記対象オブジェクトのいくつかの可能な実施形態について詳しく説明する。
実施形態4
上記対象オブジェクトは輝度で、上記オブジェクトの変化量は輝度の変化値を含み、上記オブジェクトの変化方向は輝度の変化方向を含み、
上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記初期位置と上記移動位置とから、表示輝度の変化量及び輝度の変化方向を確定することでもよく、
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、具体的には、上記輝度の変化方向と輝度の変化量とに基づき、上記表示輝度を調整することでもよい。
同様の対象オブジェクトの調整原理に基づく場合、上記対象オブジェクトは、再生される音声、表示色彩値などを含んでもよい。表示輝度とは、上記VRシーンに表示されるページコンテンツの輝度を指す。上記表示輝度について表示画面に表示コントロールを設定してもよい。VRデバイスが、ユーザの注視点が上記表示コントロールを注視する時間が予め設定された時間を超えると判断する場合、VRデバイスの輝度調整をオンにすることで、輝度調整を簡素化することができる。
実施形態5
上記対象オブジェクトは出力されるコンテンツで、上記オブジェクトの変化量はページめくりのオフセット量を含み、上記オブジェクトの変化方向はページめくりの方向を含み、
上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記初期位置と上記移動位置とから、表示コンテンツのページめくりのオフセット量及びページめくりの方向を確定することでもよく、
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、具体的には、上記ページめくりのオフセット量と上記ページめくりの方向とに基づき、上記出力されるコンテンツの表示コンテンツを調整することでもよい。
上記表示コンテンツは複数含んでもよく、複数の表示コンテンツの間においてページめくりにより、対象オブジェクトのオブジェクトコンテンツの調整操作を実現できる。上記表示コンテンツとは、当該VRデバイスのスクリーンに表示される仮想コンテンツを指す。具体的には、上記仮想コンテンツは複数の表示画像であってもよい。仮想表示する過程では、上記表示画像を連続的に表示することで、表示コンテンツが連続的に変化するVRシーンを作り出すことができる。表示する過程において各表示コンテンツは、いずれも仮想シーンを作り出して、ユーザに没入型のVR体験を提供することができる。
ユーザの注視点は、表示されるページコンテンツにおいて常に変化し、そして対応するオブジェクトの変化量及びオブジェクトの変化方向を生成できる。本実施形態では、オブジェクトの変化量とは、ページめくりのオフセット量を指す。具体的には、表示コンテンツについてのページめくりの度合いを指す。上記ページめくりの度合いに応じて、上記表示ページを徐々に変化させてもよい。例えば、上記表示コンテンツが景色の場合、ユーザの注視点は、表示コンテンツが徐々に変化することで、景色が視線に従って徐々に変化する体験を作り出すことができる。
実施形態6
上記対象オブジェクトはVRデバイスから出力されるコンテンツにおける対象物体で、上記オブジェクトの変化量は切り替わりの数量を含み、上記オブジェクトの変化方向は上記切り替わりの方向を含み、
上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記初期位置と上記移動位置とから、表示コンテンツの要素に対応する切り替わりの数量及び切り替わりの方向を確定することでもよく、
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づき、上記対象オブジェクトを調整することは、具体的には、上記対象物体に対応する切り替わりの数量と上記切り替わりの方向とに基づき、上記対象物体の表示コンテンツの要素を調整することでもよい。
上記対象物体は複数の表示コンテンツの要素に対応し、対応する切り替わりの数量及び切り替わりの方向に基づき、上記対象物体に対応する表示コンテンツの要素について切り替えてもよく、上記切り替わりの数量は、上記対象物体の切り替わりの数量に基づき確定してもよい。上記表示ページにおける対象物体とは、具体的には、当該VRシーンにおけるいずれかの物体を指してもよい。
本願発明の実施例では、上記対象オブジェクトの実施形態について詳しく説明している。様々な実施形態に関する表示は、VRシーンにおいて制御を実現できる。VRシーンにおいて対象オブジェクトを制御する過程を、ナビゲーションコントロールを用いて制御することで、制御過程がより簡素化され、より実現しやすくなる。
場合によっては、ユーザの注視点のナビゲーションコントロールにおける位置変化は、頭部の上下移動、もしくは眼球の上下回転により実現するか、または頭部の左右移動、もしくは眼球の左右回転により実現してもよい。上記ナビゲーションコントロールが水平線に直交する場合、頭部の上下移動、もしくは眼球の上下回転により注視点の位置変化を実現し、ユーザの俯仰角を確定できる。上記ナビゲーションコントロールが上記水平線に平行の場合、頭部の左右移動、もしくは眼球の左右回転により注視点の位置変化を実現し、水平線の垂線に基づき、左方もしくは右方へのオフセット角を確定できる。
したがって、ユーザの俯仰角または左方もしくは右方へのオフセット角から、オブジェクトの変化量及びオブジェクトの変化方向を計算してもよい。
上記ナビゲーションコントロールが上記水平線に直交する場合、上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記初期位置から、水平線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定し、上記移動位置から、水平線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定し、そして上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することでもよい。
上記頭部が上下に移動して上記注視点を協働させて上下に変化するとき、上記ナビゲーションコントロールが上記水平線に直交する。
上記処理装置が上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記最終角度から上記初期角度を減算して角度差値を得て、上記角度差値の正負から上記オブジェクトの変化方向を確定し、上記角度差値とナビゲーション角度の閾値との比値を上記オブジェクトの変化量として確定することでもよい。
本願発明の実施例では、初期位置により初期角度を確定し、移動位置により最終角度を確定し、初期角度と最終角度とから対応するページめくりの角度及びオブジェクトの変化方向を確定でき、つまり、角度により対応するページめくりの角度及びオブジェクトの変化方向を確定する。当該解決手段の制御過程は比較的シンプルで、異なる位置に対応するオブジェクトコンテンツを別途設定する必要がなく、さほど複雑でない計算により、オブジェクトの変化量及びオブジェクトの変化方向を確定できるため、対象オブジェクトのオブジェクトコンテンツの調整効率が向上する。
または、上記ナビゲーションコントロールが上記水平線に平行の場合、上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記初期位置から、水平線の垂線からの上記ユーザが上記初期位置を注視する視線の初期角度を確定し、上記移動位置から、水平線の垂線からの上記ユーザが上記移動位置を注視する視線の最終角度を確定し、そして上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することでもよい。
上記頭部が左右に移動して上記注視点を協働させて左右に変化するとき、上記ナビゲーションコントロールが水平線に平行となる。
上記処理装置が上記初期角度と上記最終角度とから、上記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記最終角度から上記初期角度を減算して角度差値を得て、上記角度差値の正負から上記オブジェクトの変化方向を確定し、上記角度差値と上記ナビゲーション角度の閾値との比値を上記オブジェクトの変化量として確定することでもよい。
本願発明の実施例では、初期位置により初期角度を確定し、移動位置により最終角度を確定し、初期角度と最終角度とから対応するページめくりの角度及びオブジェクトの変化方向を確定でき、つまり、角度により対応するページめくりの角度及びオブジェクトの変化方向を確定する。当該解決手段の制御過程は比較的シンプルで、異なる位置に対応するオブジェクトコンテンツを別途設定する必要がなく、さほど複雑でない計算により、オブジェクトの変化量及びオブジェクトの変化方向を確定できるため、対象オブジェクトのオブジェクトコンテンツの調整効率が向上する。
一実施例として、上記処理装置が上記ナビゲーション角度の閾値を確定することは、具体的には、上記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、上記ユーザの注視点がそれぞれ上記ナビゲーションコントロールの第1端と第2端とに位置するときの、上記ユーザが上記第1端を注視する視線と、上記第2端を注視する視線との間の夾角を確定し、上記夾角と上記変化総量との比値を計算することで、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定することでもよい。
場合によっては、上記ナビゲーションコントロールの両端はそれぞれ、当該ナビゲーションコントロールの両端におけるユーザの最大揺動角度に対応し、上記揺動角度とは、上下に揺動する角度、または左右に揺動する角度を指してもよい。
ユーザが上記ナビゲーションコントロールを注視するとき、ユーザが上記第1端を注視する視線と、上記第2端を注視する視線との間の夾角は、ユーザが揺動するときに達する最大夾角としてもよい。当該夾角と上記変化総量との比値を計算し、当該比値を丸め処理して各オブジェクトコンテンツに対応するナビゲーション角度の閾値としてもよい。
一般的には、ユーザの視線がナビゲーションコントロールの両端に位置するときに確定される夾角は、一つの定数である。各オブジェクトコンテンツが順次めくられるため、上記変化総量が十分に大きければ、上記夾角と上記変化総量とから確定されるナビゲーション角度の閾値が十分に小さくなる。すなわち、各オブジェクトコンテンツをめくる時間が十分に短くなり、そして連続的に調整する効果が得られる。この場合、当該ナビゲーションコントロールに対応する対象オブジェクトを連続的に再生される映像と見なしてよい。例えば、上記対象オブジェクトがテレビの場合、当該テレビのナビゲーションコントロールについて、多くのオブジェクトコンテンツ及び十分に小さいナビゲーション角度の閾値を設定すると、上記オブジェクトコンテンツが連続的に調整されるとき、当該テレビに映像が再生している効果を作り出すことができる。
本願発明の実施例では、ナビゲーションコントロールのナビゲーション範囲と上記オブジェクトコンテンツの変化総量とから、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定すると、上記ナビゲーション角度の閾値の大きさを確定し、そして後続のページめくりにおける対象ページ及びオブジェクトの変化方向を確定し、オブジェクトコンテンツの迅速な調整を実現できる。
もう一つの実施例として、VRシーンでは、上記ナビゲーションコントロールが連続的に配列して長方形構造を形成する複数のナビゲーション領域を含み、1つの上記対象オブジェクトは複数のオブジェクトコンテンツを含み、上記複数のナビゲーション領域は、上記複数のオブジェクトコンテンツと一対一で対応する。
上記処理装置が上記初期位置と上記移動位置とから、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、具体的には、上記初期位置と上記移動位置との間に含まれる少なくとも1つのナビゲーション領域を確定し、上記少なくとも1つのナビゲーション領域のそれぞれに対応する少なくとも1つのオブジェクトコンテンツを確定し、オブジェクトの変化量として、上記少なくとも1つのオブジェクトコンテンツの表示数量を集計し、オブジェクトの変化方向として、初期位置に対応するナビゲーション領域から、移動位置のナビゲーション領域へのスライドの方向を取得することでもよく、
上記処理装置が上記オブジェクトの変化方向と上記オブジェクトの変化量とに基づきページをめくることで、上記対象オブジェクトのオブジェクトコンテンツを調整することは、具体的には、上記初期位置のナビゲーションコントロールに対応するオブジェクトコンテンツから、上記ナビゲーション領域のスライドの方向に基づき、上記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで各ナビゲーション領域に対応するオブジェクトコンテンツを順次表示することでもよい。
本願発明の実施例では、ナビゲーションコントロールについてナビゲーション領域を設定することで、各ナビゲーション領域に対応するオブジェクトコンテンツをそれぞれ表示できる。注視点が上記ナビゲーション領域に位置すると、対応する上記オブジェクトコンテンツを表示でき、オブジェクトコンテンツの調整をより容易に実現できる。
本願発明の実施例では、上記バーチャルデバイスはヘッドマウントディスプレイVRデバイスであってもよい。
図8は、本願発明の実施例に係るヘッドマウントディスプレイVRデバイス800の内部構造の概略図を示す。当該ヘッドマウントディスプレイVRデバイスは、表示手段801と、仮想画像光学手段802と、入力操作手段803と、状態情報取得手段804と、通信手段805とを含んでもよい。
表示手段801は、ヘッドマウントディスプレイデバイス800におけるユーザの顔に対向する側面に設けられる表示パネルを含んでもよい。上記表示パネルは、一体的に構成されるパネルか、またはユーザの左眼及び右眼にそれぞれ対応する左パネルと右パネルとからなってもいい。なお上記表示パネルは、エレクトロルミネセンス(EL)素子、液晶ディスプレイや類似の構造を有するマイクロディスプレイ、または網膜に直接表示するディスプレイや類似のレーザー走査型ディスプレイであってもよい。
仮想画像光学手段802は、表示手段801に表示される画像を拡大撮影し、ユーザは、拡大された仮想画像にて表示される画像を観察することが可能である。表示手段801に出力される表示画像としては、コンテンツを再生するデバイス(ブルーレイディスクやDVDプレイヤなど)、ストリーミングメディアサーバから提供される仮想シーンの画像、または外部カメラ810で実在のシーンを撮影する画像であってもよい。いくつかの実施例では、仮想画像光学手段802はレンズ手段、例えば球面レンズ、非球面レンズ、フレネルレンズなどを含んでもよい。
入力操作手段803は、入力操作を実行するための操作部品、例えば、キー、ボタン、スイッチ、または類似の機能を有するその他の部品を少なくとも1つ含み、操作部品によりユーザの指令を受信し、且つ制御手段807へ指令を出力する。
状態情報取得手段804は、ヘッドマウントディスプレイデバイス800を装着するユーザの状態情報を取得するためのもので、ユーザ本人の状態情報を検出するための様々なセンサを含んでもよく、且つ通信手段805により外部デバイス(例えばスマートフォン、腕時計、及びユーザに装着されるその他の多機能端末)から状態情報を取得できる。状態情報取得手段804はユーザの頭部の位置情報及び/または姿勢情報を取得でき、ジャイロメータセンサ、加速度センサ、全地球測位システム(GPS)センサ、地磁気センサ、ドップラー効果センサ、赤外線センサ、電波強度センサのうち1つまたは複数を含んでもよい。また、状態情報取得手段804は、ヘッドマウントディスプレイデバイス800を装着するユーザの状態情報、例えば、ユーザの操作状態(ユーザがヘッドマウントディスプレイデバイス800を装着しているか否か)、ユーザの動作状態(静止、走行、走りなどの移動状態、手や指先の姿勢、目の開閉状態、視線方向、瞳孔のサイズ)、精神的状態(例えば、ユーザが表示される画像に見入っているか)、さらには生理的状態を取得する。
通信手段805は、外部装置との通信処理、変調・復調処理、及び通信信号の符号化・復号処理を実行する。また、制御手段807は、通信手段805を通じて外部装置にデータを伝送できる。通信方式としては、有線、または無線の方式であってもよく、例えば、モバイルハイデフニションリンク(MHL)、ユニバーサルシリアルバス(USB)、ハイデフィニションマルチメディアインタフェース(HDMI)、ワイファイ(WI−FI)(登録商標)、ブルートゥース(登録商標)通信と低消費ブルートゥース(登録商標)通信、またはIEEE802.11s規格のメッシュネットワークなどでもよい。また、通信手段805は、広帯域符号分割多元接続(W−CDMA)、ロングタームエヴォリューション(LTE)、または類似の規格にて動作するセルラ無線送受信機であってもよい。
いくつかの実施例では、ヘッドマウントディスプレイデバイス800は記憶手段をさらに含んでもよい。記憶手段806は、ソリッドステートドライブ(SSD)などを備える大容量の記憶デバイスとして配置される。いくつかの実施例では、記憶手段806は、アプリケーションプログラムまたは様々なデータを記憶できる。例えば、ユーザがヘッドマウントディスプレイデバイス800を用いて視聴するコンテンツを記憶手段806に記憶してもよい。
いくつかの実施例では、ヘッドマウントディスプレイデバイス800は、制御手段をさらに含んでもよい。「ROM107A」と「RAM107B」を含む制御手段807は、コンピュータ処理装置(CPU)、または類似の機能を有するその他のデバイスを含んでもよい。いくつかの実施例では、制御手段807は、記憶手段806に記憶されるアプリケーションプログラムを実行するか、または、本願発明のいくつかの実施例に開示される方法、機能や操作を実行する回路に用いることができる。
画像処理手段808は、例えば、制御手段807から出力される画像信号に関する画像品質補正、及び解像度を表示手段801のスクリーンに対応するように変換するなど、信号の処理を実行するためのものである。そして、表示駆動手段809は、表示手段801の各行の画素を順次選択し、行ごとに表示手段801の各行の画素を順次走査することにより、信号処理を経た画像信号に基づく画素信号を提供する。
いくつかの実施例では、ヘッドマウントディスプレイデバイス800は、外部カメラをさらに含んでもよい。外部カメラ810は、ヘッドマウントディスプレイデバイス800の本体の前面に1つまたは複数設けられてもよく、3次元情報を取得でき、且つ距離センサとして用いてもよい。また、物体からの反射信号を検知する位置検出素子(PSD)やその他のタイプの距離センサを外部カメラ810と共に利用してもよい。外部カメラ810と距離センサは、ヘッドマウントディスプレイデバイス800を装着するユーザの身体位置、姿勢及び形状などの検出に用いることができる。また、状況によっては、ユーザは、外部カメラ810から直接実在のシーンを鑑賞したりプレビューしたりすることもできる。
いくつかの実施例では、ヘッドマウントディスプレイデバイス800は、音声処理手段をさらに含んでもよい。音声処理手段811は、制御手段807から出力される音声信号について音声品質補正や音声拡大、入力される音声信号の信号処理などを実行できる。そして、音声入力/出力手段812が音声処理後に音声を外部へ出力し、またはマイクから音声を入力する。
なお、図8では、点線枠にて囲まれる構造、または部品は、ヘッドマウントディスプレイデバイス800から独立してもよい。例えば、外部処理システム(例えばコンピュータシステム)に設けてヘッドマウントディスプレイデバイス800と共に用いるか、またはヘッドマウントディスプレイデバイス800の内部もしくは表面に設けられてもよい。
代表的な構成として、コンピュータデバイスは、1つまたは複数の処理手段(CPU)と、入力/出力インタフェースと、ネットワークインタフェースと、メモリとを含む。
メモリは、コンピュータ読み取り可能な媒体のうち非永続的メモリ、ランダムアクセスメモリ(RAM)及び/または不揮発性メモリなどの形態、例えば、リードオンリーメモリ(ROM)やフラッシュメモリ(flash RAM)などを含んでもよい。メモリがコンピュータ読み取り可能な媒体の一例である。
コンピュータ読み取り可能な媒体は、あらゆる方法または技術により情報の記憶を実現可能な永続的もしくは非永続的媒体、携帯型もしくは非携帯型の媒体を含む。上記情報は、コンピュータ読み取り可能な指令、データ構造、プログラムのモジュールまたはその他のデータであってもよい。コンピュータの記憶媒体としては、相変化メモリ(PRAM)、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)、その他のタイプのランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、電気的消去可能プログラマブルリードオンリーメモリ(EEPROM)、フラッシュメモリやその他のメモリ技術、コンパクトディスクリードオンリーメモリ(CD−ROM)、デジタル多機能ディスク(DVD)やその他の光学的記憶手段、カセットテープ、テープ磁気ディスクメモリやその他の磁気記憶デバイス、またはその他のあらゆる非伝送媒体を含みこれらに限定されず、コンピュータデバイスのアクセス可能な情報の記憶に用いることができる。本明細書の規定によれば、コンピュータ読み取り可能な媒体は、非一過性の媒体(transitory media)、例えば、変調されたデータ信号やキャリアなどを含まない。
明細書及び請求項において特定の言葉で特定の要素を指す場合には、当業者にとって自明なように、ハードウェアメーカがこれとは異なる用語で同一の要素を呼ぶ可能性がある。本明細書及び請求項では、名称の違いにより要素を区別するのではなく、機能上の違いを区別するための基準とする。明細書及び請求項全体にわたり用いられる「含む」という用語は、開放的な意味を表す場合、「当該対象を含むが、ただしこれだけに限定されない」と解釈されるべきである。「ほぼ」という用語は、当業者が許容可能な誤差範囲において当該技術的課題を解決し、基本的に所望の技術的効果を得ることを指す。また、「接続」という用語は、あらゆる直接的または間接的な電気接続手段を含む。このため、「第1のデバイスが第2のデバイスに接続される」と記載される場合、当該第1のデバイスは、直接当該第2のデバイスに電気的に接続されるか、またはその他のデバイスや接続手段を介して間接的に当該第2のデバイスと電気的に接続されることを意味する。また、明細書では本願発明の好ましい実施形態として説明される場合、当該内容は、本願発明の一般的な原則において説明するもので、本願発明の範囲を限定するものではなく、本願発明の保護範囲は、特許請求の範囲に準拠すべきである。
なお、「含む」、またはこれに類する他の用語は、非除外的に包含することを意図することで、一連の要素を含む製品またはシステムは、それらの要素だけでなく、明記しないその他の要素も含み、あるいはこのような製品、またはシステムに固有の要素も含むものである。このため、特記がない限り、「一つの……を含む」という文言で限定された要素は、上記要素を含む製品、またはシステムにはさらに同一の要素が存在する場合を除外しない。
上記のとおり、本願発明のいくつかの好ましい実施例を挙げて説明しているが、本願発明は、その他の実施例を除外しここに示される形態に限定されず、その他の様々な組み合わせ、修正または環境に用いることもできる。また、本明細書に記載される当該発明の趣旨を超えない限り、上記の知見、関連分野の技術と知識に基づき変更を加えることも可能である。当業者による変更や変形などは、本願発明の趣旨と範囲から逸脱しないものであれば、いずれも添付の特許請求の範囲に含まれるものとする。

Claims (16)

  1. バーチャルリアリティ(VR)デバイスのコンテンツの調整方法であって、
    VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示することと、
    ユーザの注視点の前記ナビゲーションコントロールにおける位置変化から、初期位置、及び前記初期位置から位置が変化した後の移動位置を確定することと、
    前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することと、
    前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトのオブジェクトコンテンツを調整することと、を含み、
    前記対象オブジェクトは、VRデバイスから出力されるコンテンツにおける対象物体であり、複数のオブジェクトコンテンツを含み、
    前記ナビゲーションコントロールに含まれる複数のナビゲーション領域は、複数のオブジェクトコンテンツと一対一で対応し
    前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトのオブジェクトコンテンツを調整することは、前記オブジェクトの変化方向に基づき、前記初期位置のナビゲーション領域に対応するオブジェクトコンテンツから前記移動位置のナビゲーション領域に対応するオブジェクトコンテンツまでの間の少なくとも1つのナビゲーション領域に対応する少なくとも1つのオブジェクトコンテンツを、表示することを含む
    ことを特徴とするバーチャルリアリティデバイスのコンテンツの調整方法。
  2. 前記ナビゲーションコントロールは、水平線に直交し、
    前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
    前記初期位置から、水平線からの前記ユーザが前記初期位置を注視する視線の初期角度を確定することと、
    前記移動位置から、水平線からの前記ユーザが前記移動位置を注視する視線の最終角度を確定することと、
    前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することと、を含む、または、
    前記ナビゲーションコントロールは、水平線に平行であり、
    前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
    前記初期位置から、水平線の垂線からの前記ユーザが前記初期位置を注視する視線の初期角度を確定することと、
    前記移動位置から、水平線の垂線からの前記ユーザが前記移動位置を注視する視線の最終角度を確定することと、
    前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することと、を含むことを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。
  3. VRシーンでは、前記ナビゲーションコントロールが連続的に配列して長方形構造を形成する複数のナビゲーション領域を含み、1つの前記対象オブジェクトは複数のオブジェクトコンテンツを含み、前記複数のナビゲーション領域は、前記複数のオブジェクトコンテンツと一対一で対応することを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。
  4. 前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
    前記最終角度から前記初期角度を減算して角度差値を得ることと、
    前記角度差値の正負から前記オブジェクトの変化方向を確定することと、
    前記角度差値とナビゲーション角度の閾値との比較値を、前記オブジェクトの変化量として確定することと、を含むことを特徴とする請求項2に記載のバーチャルリアリティデバイスのコンテンツの調整方法。
  5. 前記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、
    前記ユーザの注視点がそれぞれ前記ナビゲーションコントロールの第1端と第2端とに位置するときの、前記ユーザが前記第1端を注視する視線と、前記第2端を注視する視線との間の夾角を確定し、
    前記夾角と前記変化総量との比較値を計算することにより、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定することを特徴とする請求項4に記載のバーチャルリアリティデバイスのコンテンツの調整方法。
  6. 前記対象オブジェクトは輝度であり、前記オブジェクトの変化量は輝度の変化値を含み、前記オブジェクトの変化方向は輝度の変化方向を含み、
    前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示輝度の変化量及び輝度の変化方向を確定することを含み、
    前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記輝度の変化方向と輝度の変化量に基づき、前記表示輝度を調整することを含むことを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。
  7. 前記対象オブジェクトは出力されるコンテンツであり、前記オブジェクトの変化量はページめくりのオフセット量を含み、前記オブジェクトの変化方向はページめくりの方向を含み、
    前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示コンテンツのページめくりのオフセット量及びページめくりの方向を確定することを含み、
    前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記ページめくりのオフセット量と前記ページめくりの方向に基づき、前記出力されるコンテンツの表示コンテンツを調整することを含むことを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。
  8. 前記対象オブジェクトはVRデバイスから出力されるコンテンツにおける対象物体であり、前記オブジェクトの変化量は切り替わりの数量を含み、前記オブジェクトの変化方向は前記切り替わりの方向を含み、
    前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示コンテンツの要素に対応する切り替わりの数量及び切り替わりの方向を確定することを含み、
    前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記対象物体に対応する切り替わりの数量と前記切り替わりの方向に基づき、前記対象物体の表示コンテンツの要素を調整することを含むことを特徴とする請求項1に記載のバーチャルリアリティデバイスのコンテンツの調整方法。
  9. バーチャルリアリティデバイスであって、
    不揮発性記憶装置と、処理装置とを含み、前記不揮発性記憶装置は、コンピュータ読み取り可能なプログラムコードを記憶し、前記処理装置は、前記コンピュータプログラムコードを実行することにより、
    VRシーンにおいて対象オブジェクトに対応するナビゲーションコントロールを表示することと、ユーザの注視点の前記ナビゲーションコントロールにおける位置変化から、初期位置、及び移動位置を確定することと、前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することと、前記オブジェクトの変化方向と前記オブジェクトの変化量に基づきページをめくることにより、前記対象オブジェクトのオブジェクトコンテンツを調整することと、を実現し
    前記対象オブジェクトは、VRデバイスから出力されるコンテンツにおける対象物体であり、複数のオブジェクトコンテンツを含み、
    前記ナビゲーションコントロールに含まれる複数のナビゲーション領域は、複数のオブジェクトコンテンツと一対一で対応し
    前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトのオブジェクトコンテンツを調整することは、前記オブジェクトの変化方向に基づき、前記初期位置のナビゲーション領域に対応するオブジェクトコンテンツから前記移動位置のナビゲーション領域に対応するオブジェクトコンテンツまでの間の少なくとも1つのナビゲーション領域に対応する少なくとも1つのオブジェクトコンテンツを、表示することを特徴とするバーチャルリアリティデバイス。
  10. 前記ナビゲーションコントロールは、水平線に直交するかまたは水平線に平行であり、前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
    前記初期位置から、水平線または水平線の垂線からの前記ユーザが前記初期位置を注視する視線の初期角度を確定し、前記移動位置から、水平線または水平線の垂線からの前記ユーザが前記移動位置を注視する視線の最終角度を確定し、前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することである、または、
    前記ナビゲーションコントロールは、水平線に平行であり、前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
    前記初期位置から、水平線の垂線からの前記ユーザが前記初期位置を注視する視線の初期角度を確定し、前記移動位置から、水平線の垂線からの前記ユーザが前記移動位置を注視する視線の最終角度を確定し、前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。
  11. 前記ナビゲーションコントロールは、複数のナビゲーション領域を含み、1つの前記対象オブジェクトは、複数のオブジェクトコンテンツを含み、 前記複数のナビゲーション領域は、前記複数のオブジェクトコンテンツと一対一で対応し、
    前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
    前記初期位置と前記移動位置との間に含まれる少なくとも1つのナビゲーション領域を確定し、前記少なくとも1つのナビゲーション領域に対応する少なくとも1つのオブジェクトコンテンツを確定し、オブジェクトの変化量として、前記少なくとも1つのオブジェクトコンテンツの表示数量を集計し、オブジェクトの変化方向として、前記初期位置に対応するナビゲーション領域から前記移動位置に対応するナビゲーション領域への移動の方向を取得することであり、
    前記処理装置が前記オブジェクトの変化方向と前記オブジェクトの変化量に基づきページをめくることにより、前記対象オブジェクトのオブジェクトコンテンツを調整することは、
    前記初期位置のナビゲーションコントロールに対応するオブジェクトコンテンツから、前記オブジェクトの変化方向に基づき、前記移動位置のナビゲーション領域に対応するオブジェクトコンテンツが表示されるまで前記少なくとも1つのオブジェクトコンテンツを順次表示することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。
  12. 前記処理装置が前記初期角度と前記最終角度から、前記オブジェクトの変化量及びオブジェクトの変化方向を確定することは、
    前記最終角度から前記初期角度を減算して角度差値を得、前記角度差値の正負から前記オブジェクトの変化方向を確定し、前記角度差値とナビゲーション角度の閾値との比較値を前記オブジェクトの変化量として確定することであることを特徴とする請求項10に記載のバーチャルリアリティデバイス。
  13. 前記処理装置が前記ナビゲーション角度の閾値を確定することは、
    前記対象オブジェクトのオブジェクトコンテンツの変化総量を集計し、前記ユーザの注視点がそれぞれ前記ナビゲーションコントロールの第1端と第2端とに位置するときの、前記ユーザが前記第1端を注視する視線と、前記第2端を注視する視線との間の夾角を確定し、前記夾角と前記変化総量との比較値を計算することにより、各オブジェクトコンテンツに対応するナビゲーション角度の閾値を確定することであることを特徴とする請求項12に記載のバーチャルリアリティデバイス。
  14. 前記対象オブジェクトは輝度であり、前記オブジェクトの変化量は輝度の変化値を含み、前記オブジェクトの変化方向は輝度の変化方向を含み、
    前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示輝度の変化量及び輝度の変化方向を確定することであり、
    前記処理装置が前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記輝度の変化方向と輝度の変化量に基づき、前記表示輝度を調整することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。
  15. 前記対象オブジェクトは出力されるコンテンツであり、前記オブジェクトの変化量はページめくりのオフセット量を含み、前記オブジェクトの変化方向はページめくりの方向を含み、
    前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示コンテンツのページめくりのオフセット量及びページめくりの方向を確定することであり、
    前記処理装置が前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記ページめくりのオフセット量と前記ページめくりの方向に基づき、前記出力されるコンテンツの表示コンテンツを調整することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。
  16. 前記対象オブジェクトはVRデバイスから出力されるコンテンツにおける対象物体であり、前記オブジェクトの変化量は切り替わりの数量を含み、前記オブジェクトの変化方向は前記切り替わりの方向を含み、
    前記処理装置が前記初期位置と前記移動位置から、オブジェクトの変化量及びオブジェクトの変化方向を確定することは、前記初期位置と前記移動位置から、表示コンテンツの要素に対応する切り替わりの数量及び切り替わりの方向を確定することであり、
    前記処理装置が前記オブジェクトの変化方向と前記オブジェクトの変化量に基づき、前記対象オブジェクトを調整することは、前記対象物体に対応する切り替わりの数量と前記切り替わりの方向に基づき、前記対象物体の表示コンテンツの要素を調整することであることを特徴とする請求項9に記載のバーチャルリアリティデバイス。
JP2018558140A 2017-08-16 2017-08-24 バーチャルリアリティデバイス及びそのコンテンツの調整方法 Active JP6720341B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710702444.3A CN107479804A (zh) 2017-08-16 2017-08-16 虚拟现实设备及其内容调整方法
CN201710702444.3 2017-08-16
PCT/CN2017/098872 WO2019033446A1 (zh) 2017-08-16 2017-08-24 虚拟现实设备及其内容调整方法

Publications (2)

Publication Number Publication Date
JP2019536118A JP2019536118A (ja) 2019-12-12
JP6720341B2 true JP6720341B2 (ja) 2020-07-08

Family

ID=60600532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018558140A Active JP6720341B2 (ja) 2017-08-16 2017-08-24 バーチャルリアリティデバイス及びそのコンテンツの調整方法

Country Status (7)

Country Link
US (1) US20190129500A1 (ja)
EP (1) EP3671408B1 (ja)
JP (1) JP6720341B2 (ja)
KR (1) KR20190031433A (ja)
CN (1) CN107479804A (ja)
DK (1) DK3671408T3 (ja)
WO (1) WO2019033446A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9959658B2 (en) * 2015-02-26 2018-05-01 Rovi Guides, Inc. Methods and systems for generating holographic animations
US10338766B2 (en) 2017-09-06 2019-07-02 Realwear, Incorporated Audible and visual operational modes for a head-mounted display device
CN108211342A (zh) * 2018-01-19 2018-06-29 腾讯科技(深圳)有限公司 视角调整方法和装置、存储介质及电子装置
CN108181993A (zh) * 2018-01-26 2018-06-19 成都科木信息技术有限公司 用于增强现实设备的场景绘制方法
MX2021003238A (es) 2018-09-18 2021-09-28 Transrobotics Inc Tecnologias de accion basadas en la deteccion de objetos.
US11703593B2 (en) 2019-04-04 2023-07-18 TransRobotics, Inc. Technologies for acting based on object tracking
CN115113532A (zh) * 2021-03-18 2022-09-27 云米互联科技(广东)有限公司 基于智能家电设备的设备监测方法及装置
CN116266071A (zh) * 2021-12-17 2023-06-20 广州视享科技有限公司 一种显示系统调整方法、装置和显示系统
CN116756045B (zh) * 2023-08-14 2023-10-31 海马云(天津)信息技术有限公司 应用测试方法及装置、计算机设备和存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1645944B1 (en) * 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
NZ560457A (en) * 2007-08-15 2010-02-26 William Bryan Woodard Image generation system
JP2014077814A (ja) * 2011-02-14 2014-05-01 Panasonic Corp 表示制御装置および表示制御方法
KR101824501B1 (ko) * 2011-05-19 2018-02-01 삼성전자 주식회사 헤드 마운트 디스플레이 장치의 이미지 표시 제어 장치 및 방법
WO2013168173A1 (en) * 2012-05-11 2013-11-14 Umoove Services Ltd. Gaze-based automatic scrolling
KR102062310B1 (ko) * 2013-01-04 2020-02-11 삼성전자주식회사 전자 장치에서 헤드 트래킹 기술을 이용하여 제어 서비스를 제공하기 위한 장치 및 방법
US9908048B2 (en) * 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
JP6264871B2 (ja) * 2013-12-16 2018-01-24 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法
US10564714B2 (en) * 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR20160033376A (ko) * 2014-09-18 2016-03-28 (주)에프엑스기어 시선에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램
JP6629528B2 (ja) * 2015-06-16 2020-01-15 株式会社ファイン 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム
EP3174005A1 (en) * 2015-11-30 2017-05-31 Nokia Technologies Oy Apparatus and method for controlling audio mixing in virtual reality environments
US10175773B2 (en) * 2016-07-01 2019-01-08 Tactual Labs Co. Touch sensitive keyboard
CN106325505B (zh) * 2016-08-17 2019-11-05 传线网络科技(上海)有限公司 基于视点跟踪的控制方法和装置
CN106527722B (zh) * 2016-11-08 2019-05-10 网易(杭州)网络有限公司 虚拟现实中的交互方法、系统及终端设备
CN106445173A (zh) * 2016-11-25 2017-02-22 四川赞星科技有限公司 一种目标体状态转换方法及装置

Also Published As

Publication number Publication date
JP2019536118A (ja) 2019-12-12
DK3671408T3 (da) 2022-09-12
EP3671408B1 (en) 2022-07-27
EP3671408A1 (en) 2020-06-24
WO2019033446A1 (zh) 2019-02-21
KR20190031433A (ko) 2019-03-26
US20190129500A1 (en) 2019-05-02
EP3671408A4 (en) 2020-10-07
CN107479804A (zh) 2017-12-15

Similar Documents

Publication Publication Date Title
JP6720341B2 (ja) バーチャルリアリティデバイス及びそのコンテンツの調整方法
EP3571673B1 (en) Method for displaying virtual image, storage medium and electronic device therefor
US20230298146A1 (en) Gaze Direction-Based Adaptive Pre-Filtering of Video Data
US10534428B2 (en) Image processing device and image processing method, display device and display method, and image display system
US9838597B2 (en) Imaging device, imaging method, and program
US10394319B2 (en) Method of displaying an image, and system therefor
JP6130478B1 (ja) プログラム及びコンピュータ
CN104076512A (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
US11694352B1 (en) Scene camera retargeting
US11317072B2 (en) Display apparatus and server, and control methods thereof
US11477433B2 (en) Information processor, information processing method, and program
US10694115B2 (en) Method, apparatus, and terminal for presenting panoramic visual content
JP2020024417A (ja) 情報処理装置
JP7367689B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
US12039659B2 (en) Method and device for tailoring a synthesized reality experience to a physical setting
JP2024036387A (ja) 電子機器およびその制御方法
US11287881B2 (en) Presenting images on a display device
CN107958478B (zh) 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备
WO2019085109A1 (zh) 图像写入控制方法、装置及电子设备
CN107833265B (zh) 一种图像切换展示方法和虚拟现实设备
CN108108019B (zh) 虚拟现实设备及其显示方法
JP2018120521A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200617

R150 Certificate of patent or registration of utility model

Ref document number: 6720341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250