[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7382954B2 - Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム - Google Patents

Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム Download PDF

Info

Publication number
JP7382954B2
JP7382954B2 JP2020553765A JP2020553765A JP7382954B2 JP 7382954 B2 JP7382954 B2 JP 7382954B2 JP 2020553765 A JP2020553765 A JP 2020553765A JP 2020553765 A JP2020553765 A JP 2020553765A JP 7382954 B2 JP7382954 B2 JP 7382954B2
Authority
JP
Japan
Prior art keywords
moving image
swing
swing control
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020553765A
Other languages
English (en)
Other versions
JPWO2020090477A5 (ja
JPWO2020090477A1 (ja
Inventor
順 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2020090477A1 publication Critical patent/JPWO2020090477A1/ja
Publication of JPWO2020090477A5 publication Critical patent/JPWO2020090477A5/ja
Application granted granted Critical
Publication of JP7382954B2 publication Critical patent/JP7382954B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0159Head-up displays characterised by mechanical features with movable elements with mechanical means other than scaning means for positioning the whole image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、VR酔い低減システム、ヘッドマウントディスプレイ、VR酔い低減方法及びプログラムに関する。
特許文献1には、仮想環境におけるイベントとは無関係な低周波振動を使用してバーチャルリアリティ(VR)によって引き起こされる酔い(いわゆるVR酔い)を低減する技術が記載されている。
米国特許出願公開第2015/0325027号明細書
発明者らは、ヘッドマウントディスプレイ(HMD)の筐体の前面に設けられる振動モータなどを用いてHMDを装着しているユーザの頭部を揺動させることでVR酔いを低減する技術を検討している。VR酔いは、視点から見た様子を表す動画像がユーザの眼前に配置されているHMDの表示部に表示されている状況における、当該視点の動きとユーザの体感とのずれが引き起こすものと考えられている。そのため表示される動画像と頭部の揺動とを連携させることで、VR酔いをより低減できるものと思われる。
しかし特許文献1に記載の技術では、上述のように仮想環境におけるイベントとは無関係な低周波振動を使用してVR酔いを低減しており、VR酔いを低減させることを目的としたHMDの表示と振動との連携は行われていない。
本発明は上記実情に鑑みてなされたものであって、その目的の一つは、VR酔いをより低減できるVR酔い低減システム、ヘッドマウントディスプレイ、VR酔い低減方法及びプログラムを提供することにある。
上記課題を解決するために、本発明に係るVR酔い低減システムは、装着した際にユーザの眼前に配置される表示部を備えたヘッドマウントディスプレイと、前記ヘッドマウントディスプレイを装着している前記ユーザの頭部を揺動可能な揺動部と、視点から見た様子を表す動画像を前記表示部に表示させる表示制御部と、前記表示部に表示されている前記動画像における前記視点の加速状況に応じて、前記揺動部の揺動を制御する揺動制御部と、を含む。
本発明の一態様では、前記揺動制御部は、前記表示部に表示されている前記動画像が、前記視点が加速している状況を表すものであるか否かに応じて、前記揺動部を揺動させるか否かを制御する。
この態様では、前記表示制御部は、仮想空間内に配置された仮想カメラから前記仮想空間を見た様子を表す前記動画像を前記表示部に表示させ、前記仮想カメラが前記仮想空間内において加速度運動をしているか否かを判定する判定部、をさらに含み、前記揺動制御部は、前記判定部による判定の結果に応じて、前記揺動部を揺動させるか否かを制御してもよい。
あるいは、前記動画像を示す動画像データと、当該動画像において前記視点が加速している状況が表れているフレーム画像を特定可能な揺動制御データと、を含む揺動制御動画像データを取得する取得部、をさらに含み、前記表示制御部は、前記揺動制御動画像データに含まれる前記動画像データが示す動画像を前記表示部に表示させ、前記揺動制御動画像データに含まれる前記揺動制御データに基づいて、前記視点が加速している状況が表れているフレーム画像が前記表示部に表示されているか否かを判定する判定部、をさらに含み、前記揺動制御部は、前記判定部による判定の結果に応じて、前記揺動部を揺動させるか否かを制御してもよい。
この態様では、前記動画像データに基づいて、前記揺動制御データを生成する揺動制御データ生成部、をさらに含んでいてもよい。
あるいは、仮想空間内に配置された仮想カメラから前記仮想空間を見た様子を表す動画像を示す前記動画像データと、前記仮想カメラが前記仮想空間内において加速度運動をしているか否かの判定の結果に基づいて生成される前記揺動制御データと、を含む前記揺動制御動画像データを生成する揺動制御動画像データ生成部、をさらに含んでいてもよい。
また、本発明の一態様では、前記表示制御部は、仮想空間内に配置された仮想カメラから前記仮想空間を見た様子を表す前記動画像を前記表示部に表示させ、前記仮想カメラが前記仮想空間内において加速度運動をしているか否かを判定する判定部、をさらに含み、前記揺動制御部は、前記判定部による判定の結果、及び、前記仮想空間内に配置された仮想オブジェクトと前記仮想カメラとの間の距離に基づいて、前記揺動部の揺動を制御する。
この態様では、前記揺動制御部は、前記判定部による判定の結果、及び、前記仮想カメラの画角内の前記仮想オブジェクトと前記仮想カメラとの間の距離に基づいて、前記揺動部の揺動を制御してもよい。
また、前記揺動制御部は、前記判定部による判定の結果、及び、前記仮想カメラに最も近い前記仮想オブジェクトと前記仮想カメラとの間の距離に基づいて、前記揺動部の揺動を制御してもよい。
また、前記揺動制御部は、前記判定部による判定の結果、及び、前記仮想空間内に配置された仮想オブジェクトと前記仮想カメラとの間の距離に基づいて、前記揺動部を揺動させるか否かを制御してもよい。
あるいは、前記揺動制御部は、前記仮想空間内に配置された仮想オブジェクトと前記仮想カメラとの間の距離に基づいて、前記揺動部の揺動量を制御してもよい。
また、本発明の一態様では、前記揺動制御部は、前記動画像に写るオブジェクトの単位時間あたりの移動量に基づいて、前記揺動部の揺動を制御する。
この態様では、前記揺動制御部は、前記動画像に写るオブジェクトの単位時間あたりの移動量に基づいて、前記揺動部を揺動させるか否かを制御してもよい。
あるいは、前記揺動制御部は、前記動画像に写るオブジェクトの単位時間あたりの移動量に基づいて、前記揺動部の揺動量を制御してもよい。
また、本発明の一態様では、前記動画像を示す動画像データと、当該動画像における前記視点の加速状況を特定可能な揺動制御データと、を含む揺動制御動画像データを取得する取得部、をさらに含み、前記表示制御部は、前記揺動制御動画像データに含まれる前記動画像データが示す動画像を前記表示部に表示させ、前記揺動制御動画像データに含まれる前記揺動制御データに基づいて、前記表示部に表示されている動画像における前記視点の加速状況を判定する判定部、をさらに含み、前記揺動制御部は、前記判定部による判定の結果に応じて、前記揺動部の揺動を制御する。
この態様では、前記動画像データに基づいて、前記揺動制御データを生成する揺動制御データ生成部、をさらに含んでいてもよい。
あるいは、仮想空間内に配置された仮想カメラから前記仮想空間を見た様子を表す動画像を示す前記動画像データと、前記仮想カメラが前記仮想空間内において加速度運動をしているか否かの判定の結果に基づいて生成される前記揺動制御データと、を含む前記揺動制御動画像データを生成する揺動制御動画像データ生成部、をさらに含んでいてもよい。
また、本発明の一態様では、前記揺動部は、前記ヘッドマウントディスプレイの筐体の前面に設けられている。
また、本発明に係るヘッドマウントディスプレイは、装着した際にユーザの眼前に配置される表示部と、前記ユーザの頭部を揺動可能な揺動部と、視点から見た様子を表す動画像を前記表示部に表示させる表示制御部と、前記表示部に表示されている前記動画像における前記視点の加速状況に応じて、前記揺動部を揺動させるか否かを制御する揺動制御部と、を含む。
また、本発明に係るVR酔い低減方法は、ヘッドマウントディスプレイを装着した際にユーザの眼前に配置される表示部に、視点から見た様子を表す動画像を表示させるステップと、前記表示部に表示されている前記動画像における前記視点の加速状況に応じて、前記ヘッドマウントディスプレイを装着している前記ユーザの頭部を揺動可能な揺動部を揺動させるか否かを制御するステップと、を含む。
また、本発明に係るプログラムは、ヘッドマウントディスプレイを装着した際にユーザの眼前に配置される表示部に、視点から見た様子を表す動画像を表示させる手順、前記表示部に表示されている前記動画像における前記視点の加速状況に応じて、前記ヘッドマウントディスプレイを装着している前記ユーザの頭部を揺動可能な揺動部を揺動させるか否かを制御する手順、をコンピュータに実行させる。
本発明の一実施形態に係るエンタテインメントシステムの全体構成の一例を示す図である。 本発明の一実施形態に係るヘッドマウントディスプレイの構成の一例を示す図である。 本発明の一実施形態に係るエンタテインメント装置の構成の一例を示す図である。 仮想空間の一例を示す図である。 揺動制御動画像データのデータ構造の一例を模式的に示す図である。 本発明の一実施形態に係るエンタテインメント装置で実装される機能の一例を示す機能ブロック図である。 本発明の一実施形態に係るエンタテインメント装置において行われる処理の流れの一例を示すフロー図である。 本発明の一実施形態に係るエンタテインメント装置において行われる処理の流れの一例を示すフロー図である。 仮想空間の一例を示す図である。 本発明の一実施形態に係るエンタテインメント装置において行われる処理の流れの一例を示すフロー図である。 本発明の一実施形態に係るエンタテインメント装置において行われる処理の流れの一例を示すフロー図である。
以下、本発明の一実施形態について、図面を参照しながら説明する。
図1は、本発明の一実施形態に係るエンタテインメントシステム10の全体構成の一例を示す図である。図2Aは、本実施形態に係るヘッドマウントディスプレイ(HMD)12の構成の一例を示す図である。図2Bは、本実施形態に係るエンタテインメント装置14の構成の一例を示す図である。
図1に示すように、本実施形態に係るエンタテインメントシステム10は、HMD12とエンタテインメント装置14と中継装置16とディスプレイ18とカメラマイクユニット20とコントローラ22とを含んでいる。
本実施形態に係るHMD12には、例えば図2Aに示すように、プロセッサ30、記憶部32、通信部34、入出力部36、表示部38、センサ部40、揺動部42、が含まれる。
プロセッサ30は、例えばHMD12にインストールされるプログラムに従って動作するマイクロプロセッサ等のプログラム制御デバイスである。
記憶部32は、例えばROMやRAM等の記憶素子などである。記憶部32には、プロセッサ30によって実行されるプログラムなどが記憶される。
通信部34は、例えば無線LANモジュールなどの通信インタフェースである。
入出力部36は、例えばHDMI(登録商標)(High-Definition Multimedia Interface)ポートやUSBポートなどの入出力ポートである。
表示部38は、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイであり、エンタテインメント装置14が生成する映像などを表示させる。図1に示すように、表示部38は、HMD12をユーザが装着した際に当該ユーザの眼前に配置される。表示部38は、例えばエンタテインメント装置14が出力して中継装置16で中継される映像信号を受信して、当該映像信号が表す映像を出力するようにしてもよい。本実施形態に係る表示部38は、例えば左目用の画像と右目用の画像を表示することによって三次元画像を表示させることができるようになっている。なお表示部38は三次元画像の表示ができず二次元画像の表示のみができるものであっても構わない。
センサ部40は、例えば、加速度センサやモーションセンサなどのセンサである。センサ部40は、HMD12の姿勢、回転量、移動量などの計測結果を所定のサンプリングレートで、プロセッサ30に出力してもよい。
揺動部42は、本実施形態では、例えば入力される信号に応じて揺動するデバイスである。図1に示すように本実施形態では揺動部42は、HMD12の筐体44の前面に設けられている。揺動部42は、例えば、振動モータなどの振動子であってもよい。また揺動部42が偏心モータである場合に、入力される信号に応じて揺動部42に含まれる錘が概ね前後方向に沿った軸として回転することにより、揺動部42が振動するようにしてもよい。
図1の例では揺動部42はHMD12の筐体44の前面中央に1つ設けられている。そして揺動部42は、HMD12を装着しているユーザの頭部を揺動可能である。なおHMD12に揺動部42が複数設けられていてもよい。またこの場合、複数の揺動部42が左右対称に設けられていてもよい。
本実施形態に係るエンタテインメント装置14は、例えばゲームコンソール、DVDプレイヤ、Blu-ray(登録商標)プレイヤなどといったコンピュータである。本実施形態に係るエンタテインメント装置14は、例えば記憶されている、あるいは、光ディスクに記録された、ゲームプログラムの実行やコンテンツの再生などによって映像や音声を生成する。そして本実施形態に係るエンタテインメント装置14は、生成される映像を表す映像信号や生成される音声を表す音声信号を、中継装置16を経由してディスプレイ18に出力する。
本実施形態に係るエンタテインメント装置14には、例えば図2Bに示すように、プロセッサ50、記憶部52、通信部54、入出力部56が含まれる。
プロセッサ50は、例えばエンタテインメント装置14にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。本実施形態に係るプロセッサ50には、CPUから供給されるグラフィックスコマンドやデータに基づいてフレームバッファに画像を描画するGPU(Graphics Processing Unit)も含まれている。
記憶部52は、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部52には、プロセッサ50によって実行されるプログラムなどが記憶される。また、本実施形態に係る記憶部52には、GPUにより画像が描画されるフレームバッファの領域が確保されている。
通信部54は、例えば無線LANモジュールなどの通信インタフェースなどである。
入出力部56は、HDMI(登録商標)(High-Definition Multimedia Interface)ポート、USBポートなどの入出力ポートである。
本実施形態に係る中継装置16は、例えば制御回路、画像処理回路、音声処理回路等の制御部、メモリ等の記憶部、などを備えたコンピュータである。中継装置16は、エンタテインメント装置14から出力される映像信号や音声信号を中継してHMD12やディスプレイ18に出力する。
本実施形態に係るディスプレイ18は、例えば液晶ディスプレイ等であり、エンタテインメント装置14から出力される映像信号が表す映像などを表示させる。
本実施形態に係るカメラマイクユニット20は、例えば被写体を撮像した画像をエンタテインメント装置14に出力するカメラ20a及び周囲の音声を取得して当該音声を音声データに変換してエンタテインメント装置14に出力するマイク20bを含んでいる。また本実施形態に係るカメラ20aはステレオカメラである。
HMD12と中継装置16とは、例えば、無線によるデータの送受信が互いに可能になっている。なおHMD12と中継装置16とが、HDMIケーブルやUSBケーブルなどの有線を介して接続されていてもよい。エンタテインメント装置14と中継装置16とは、例えば、HDMIケーブルやUSBケーブルなどを介して接続されている。中継装置16とディスプレイ18とは、例えば、HDMIケーブルなどを介して接続されている。エンタテインメント装置14とカメラマイクユニット20とは、例えば、AUXケーブルなどを介して接続されている。
本実施形態に係るコントローラ22は、エンタテインメント装置14に対する操作入力を行うための操作入力装置である。ユーザは、コントローラ22が備える方向キーやボタンを押下したり、操作スティックを傾けたりすることで、コントローラ22を用いて各種の操作入力を行うことができる。そして本実施形態では、コントローラ22は、操作入力に対応付けられる入力データをエンタテインメント装置14に出力する。また本実施形態に係るコントローラ22は、USBポートを備えている。そしてコントローラ22は、USBケーブルでエンタテインメント装置14と接続することで、有線で入力データをエンタテインメント装置14に出力することができる。また本実施形態に係るコントローラ22は、無線通信モジュール等を備えており、無線で入力データをエンタテインメント装置14に出力することができるようにもなっている。
本実施形態では例えば、エンタテインメント装置14において一人称視点のゲームのプログラムが実行される。そして例えば、図3に示す仮想空間60に配置されている仮想カメラ62から撮影方向64を見た様子を表す動画像が生成される。ここでは例えば、所定のフレームレートで、当該フレームにおける仮想カメラ62の位置から撮影方向64を見た様子を表すフレーム画像が生成される。また図3に示す仮想空間60は、仮想三次元空間である。仮想カメラ62の位置や撮影方向64は、例えばプレイヤによるコントローラ22の操作やゲームにおいて発生するイベントなどといったゲームのプレイ状況に応じて変化する。仮想カメラ62の位置や撮影方向64の変化に応じてHMD12の表示部38に表示されるコンテンツは変化する。仮想カメラ62の位置や撮影方向64の更新、フレーム画像の生成、及び、フレーム画像の表示を含む、ゲームのプレイ状況に応じた処理が、上述の所定のフレームレートで実行されてもよい。
そして本実施形態では例えば、仮想カメラ62の動きに基づいて、仮想カメラ62が加速度運動をしているか否かが判定される。ここで加速度運動とは、例えば、円運動、等加速度運動、変加速度運動などを指す。なお当該加速度運動が指す運動に、等角加速度運動、変角加速度運動などといった角加速度運動が含まれてもよいし、含まれなくてもよい。例えば一人称視点のゲームにおいては、一人称視点のキャラクタがジャンプしたりダッシュしたりする際に、仮想カメラ62が加速度運動をしていると判定される。ここで例えば、直近の所定数のフレームにおける仮想カメラ62の位置や撮影方向64に基づいて、仮想カメラ62が加速度運動をしているか否かが判定されてもよい。
そして当該判定の結果に応じて、揺動部42の揺動(例えば、揺動部42を揺動させるか否か)が制御される。ここで揺動部42が振動モータである場合、周波数帯としては10~20ヘルツ、加速度値(G値)としては0.05~0.5Gとなるよう振動モータが振動するよう制御されてもよい。
以上のように本実施形態では、表示部38に表示されている動画像が、仮想カメラ62が加速している状況を表すものであるか否かに応じて、揺動部42を揺動させるか否かが制御される。
HMD12を装着しているユーザの酔い(いわゆるVR酔い)は、視点から見た様子を表す動画像がユーザの眼前に配置されている表示部38に表示されている状況における、当該視点の動きとユーザの体感とのずれが引き起こすものと考えられている。上述の例では、当該視点の位置が仮想カメラ62の位置に相当する。また、当該視点の向きが撮影方向64に相当する。すなわち上述の例におけるVR酔いは、仮想カメラ62の動きとユーザの体感とのずれが引き起こすものと考えられている。特に感覚器官が集中している頭部の体感はVR酔いに与える影響が大きいものと思われる。
本実施形態では、表示部38に表示されている動画像における視点の加速状況に応じて、揺動部42の揺動が制御される。例えば、以上で説明したように、表示部38に表示されている動画像が、視点が加速している状況を表すものであるか否かに応じて、揺動部42を揺動させるか否かが制御される。このようにして本実施形態によれば、表示される動画像と頭部の揺動とを連携させることで、VR酔いをより低減できることとなる。
なお本発明は、仮想カメラ62によって撮影される仮想空間60の動画像が表示部38に表示される場面だけでなく、実カメラによって撮影される実空間の動画像が表示部38に表示される場面においても同様に適用可能である。例えば、当該実カメラが加速している状況を表すものであるか否かに応じて、揺動部42を揺動させるか否かが制御されるようにしてもよい。また本発明は、実カメラや仮想カメラ62によって撮影される動画像ではない、映画コンテンツの動画像などといった、視点から見た様子を表す一般的な動画像についても同様に適用可能である。
また上述のように、本実施形態に係る揺動部42は、HMD12の筐体44の前面に設けられている。そのため、揺動部42をHMD12に容易に取り付けることができる。
なお、揺動部42は、HMD12を装着しているユーザの頭部を揺動可能であれば、HMD12の筐体44の前面に設けられている必要はない。例えば、揺動部42が筐体44の内側の面に設けられていてもよい。また、揺動部42がHMD12に設けられている必要もない。
図4は、本実施形態に係る揺動制御動画像データ66のデータ構造の一例を模式的に示す図である。本実施形態において、図4に示す揺動制御動画像データ66が生成されるようにしてもよい。揺動制御動画像データ66には、例えば、動画像データ68と、揺動制御データ70と、が含まれる。
動画像データ68は、例えば、再生することにより表示部38に表示される、視点から見た様子を表す動画像を示すデータである。ここで例えば、以上で説明した仮想カメラ62の動きに応じて生成される動画像が表示部38に表示されるようにしつつ、当該動画像を示す動画像データ68が生成されるようにしてもよい。
揺動制御データ70は、例えば、動画像データ68が示す動画像における視点の加速状況を特定可能なデータである。揺動制御データ70は、例えば、動画像データ68が示す動画像において視点が加速している状況が表れているフレーム画像を特定可能なデータであってもよい。
本実施形態では例えば、動画像データ68には、所定のフレームレートで生成される複数のフレーム画像が含まれることとする。また本実施形態では、揺動制御データ70には、それぞれフレーム画像に関連付けられるフレーム揺動制御データが複数含まれることとする。フレーム揺動制御データは、関連付けられるフレーム画像が、視点が加速している状況を表すものである場合は1が設定され、視点が加速している状況を表すものでない場合は0が設定されるフラグであってもよい。図4に示す揺動制御データ70では、視点が加速している状況が表れているフレーム画像に関連付けられるフレーム揺動制御データ、すなわち値が1であるフレーム揺動制御データは黒塗りで模式的に表現されている。
なお、揺動制御データ70のデータ形式は上述のものに限定されない。例えば、揺動制御データ70が、視点が加速している状況が表れているフレーム画像のフレーム番号を示すデータであってもよい。
揺動制御データ70は、例えば、動画像データ68が示す動画像を見ながらオペレータが行う操作に応じて設定されてもよい。例えば視点が加速している状況が表れているとオペレータが判断したフレーム画像について、当該オペレータが当該フレーム画像に関連付けられるフレーム揺動制御データの値として1を設定する操作を行ってもよい。そして当該操作に応じて、当該フレーム揺動制御データの値として1が設定されてもよい。
また例えば、画像解析技術を用いることで、動画像データ68に基づいて、それぞれのフレーム画像について、視点が加速している状況が表れているフレーム画像であるか否かが判定されるようにしてもよい。例えば視点が加速している状況が表れているフレーム画像であるか否かが、当該フレーム画像までの連続する所定数のフレーム画像に基づいて判定されるようにしてもよい。そして当該特定の結果に基づいて、揺動制御データ70が生成されるようにしてもよい。
また例えば、上述した、仮想カメラ62の動きに基づく仮想カメラ62が加速度運動をしているか否かの判定の結果に基づいて、揺動制御データ70が生成されるようにしてもよい。例えば上述の例において揺動部42が揺動するよう制御されるタイミングに表示されるフレーム画像に関連付けられるフレーム揺動制御データの値として1が設定されるようにしてもよい。
そして本実施形態において例えば、揺動制御動画像データ66に含まれる動画像データ68が示す動画像の再生に応じて、当該揺動制御動画像データ66に含まれる揺動制御データ70に基づく揺動制御が行われるようにしてもよい。例えば、揺動制御データ70に基づいて、視点が加速している状況が表れているフレーム画像が表示部38に表示されているか否かが判定されてもよい。そして視点が加速している状況が表れているフレーム画像が表示されていると判定された際に、揺動部42が揺動するよう制御されてもよい。例えば表示部38に表示されるフレーム画像に関連付けられるフレーム揺動制御データの値が1である場合に、揺動部42が揺動するようにしてもよい。
また例えば、視点の加速度値又は角加速度値が判定されるようにしてもよい。そして当該加速度値又は角加速度値に応じた揺動制御が行われるようにしてもよい。例えば加速度値又は角加速度値が大きいほど揺動部42が大きく揺動するよう揺動部42が制御されてもよい。また逆に、表示部38に表示されている動画像が、視点が加速している状況を表すものである際に、視点の加速度値又は角加速度値に関係なく、揺動部42が所定の大きさの揺動をするよう制御されてもよい。
また例えばゲーム配信の場面において、ゲームのプレイ中にリアルタイムで揺動制御動画像データ66の生成、及び、ネットワークを介して接続された他のエンタテインメントシステム10への当該揺動制御動画像データ66の送信が行われるようにしてもよい。そして揺動制御動画像データ66を受信したエンタテインメントシステム10において、当該揺動制御動画像データ66に含まれる動画像データ68が示す動画像が表示されるようにしてもよい。また揺動制御動画像データ66を受信したエンタテインメントシステム10において、上述のような、当該揺動制御動画像データ66に含まれる揺動制御データ70に基づく、表示される動画像と連携した揺動部42の揺動制御が行われるようにしてもよい。
以下、本実施形態に係るエンタテインメント装置14で実装される機能、及び、本実施形態に係るエンタテインメント装置14で行われる処理について、さらに説明する。
図5は、本実施形態に係るエンタテインメント装置14で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るエンタテインメント装置14で、図5に示す機能のすべてが実装される必要はなく、また、図5に示す機能以外の機能が実装されていても構わない。
図5に示すように、本実施形態に係るエンタテインメント装置14には、機能的には例えば、プログラム実行部80、動画像データ生成部82、判定部84、揺動制御データ生成部86、揺動制御動画像データ生成部88、揺動制御動画像データ記憶部90、揺動制御動画像データ取得部92、表示制御部94、揺動制御部96、が含まれる。
プログラム実行部80、動画像データ生成部82、判定部84、揺動制御データ生成部86、揺動制御動画像データ生成部88は、プロセッサ50を主として実装される。揺動制御動画像データ記憶部90は、記憶部52を主として実装される。揺動制御動画像データ取得部92は、プロセッサ30又は通信部54を主として実装される。表示制御部94、揺動制御部96は、プロセッサ50及び入出力部56を主として実装される。
そして以上の機能は、コンピュータであるエンタテインメント装置14にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ50で実行することにより実装されている。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してエンタテインメント装置14に供給される。
プログラム実行部80は、本実施形態では例えば、ゲームのプログラムなどのプログラムを実行する。
動画像データ生成部82は、本実施形態では例えば、ゲームのプレイ状況に応じた動画像などといった、プログラム実行部80によるプログラムの実行結果に応じた動画像を示す動画像データ68を生成する。動画像データ生成部82は、仮想空間60内に配置された仮想カメラ62から仮想空間60を見た様子を表す動画像を生成してもよい。
判定部84は、本実施形態では例えば、表示部38に表示されているフレーム画像における視点の加速状況を判定する。ここで判定部84は、視点が加速している状況が表れているフレーム画像が表示部38に表示されているか否かを判定してもよい。判定部84は、例えば、仮想カメラ62が仮想空間60内において加速度運動をしているか否かを判定してもよい。ここで上述のように、当該加速度運動が指す運動に、角加速度運動が含まれてもよいし、含まれなくてもよい。
揺動制御データ生成部86は、本実施形態では例えば、上述の揺動制御データ70を生成する。揺動制御データ生成部86は、判定部84による、仮想空間60内に配置された仮想カメラ62が仮想空間60内において加速度運動をしているか否かの判定の結果に基づいて、揺動制御データ70を生成してもよい。
また、揺動制御データ生成部86は、視点から見た様子を表す動画像を示す動画像データ68に基づいて、揺動制御データ70を生成してもよい。例えば揺動制御データ生成部86は、動画像データ生成部82が生成する動画像データ68に基づいて、揺動制御データ70を生成してもよい。
揺動制御動画像データ生成部88は、本実施形態では例えば、上述の揺動制御動画像データ66を生成する。ここで揺動制御動画像データ生成部88が、例えば、動画像データ生成部82が生成する動画像データ68と、揺動制御データ生成部86が生成する揺動制御データ70と、を含む揺動制御動画像データ66を生成してもよい。ここで当該動画像データ68が、仮想カメラ62から仮想空間60を見た様子を表す動画像を示すデータであり、当該揺動制御データ70が、仮想カメラ62が仮想空間60内において加速度運動をしているか否かの判定の結果に応じたデータであってもよい。
また揺動制御動画像データ66に含まれる動画像データ68は、プログラム実行部80によるプログラムの実行結果に応じた動画像を示す動画像データ68である必要はない。揺動制御動画像データ66に含まれる動画像データ68は、例えば上述のように、実カメラによって撮影される実空間の動画像を示す動画像データ68であってもよい。また動画像データ68は、ゲームのプレイ状況に応じた動画像を示すものである必要はなく、例えば、映画等のコンテンツの動画像を示すものであってもよい。また動画像データ68が示す動画像は、実カメラや仮想カメラ62により撮影される動画像である必要もない。
揺動制御動画像データ記憶部90は、本実施形態では例えば、上述の揺動制御動画像データ66を記憶する。ここで揺動制御動画像データ記憶部90が、揺動制御動画像データ生成部88が生成する揺動制御動画像データ66を記憶してもよい。
また揺動制御動画像データ66はユーザによって購入可能であってもよい。そしてユーザによって購入された揺動制御動画像データ66が揺動制御動画像データ記憶部90に記憶されてもよい。
揺動制御動画像データ取得部92は、本実施形態では例えば、揺動制御動画像データ66を取得する。ここで揺動制御動画像データ取得部92が、揺動制御動画像データ記憶部90に記憶されている揺動制御動画像データ66を取得してもよい。また揺動制御動画像データ取得部92が、他のエンタテインメントシステム10から送信される揺動制御動画像データ66を受信してもよい。
表示制御部94は、本実施形態では例えば、視点から見た様子を表す動画像を表示部38に表示させる。ここで例えば、表示制御部94は、中継装置16を経由してHMD12に当該動画像を送信してもよい。そしてHMD12が、受信した動画像を表示部38に表示させてもよい。
また、表示制御部94は、仮想空間60内に配置された仮想カメラ62から仮想空間60を見た様子を表す動画像を表示部38に表示させてもよい。また表示制御部94は、実空間内に配置された実カメラから実空間を見た様子を表す動画像を表示部38に表示させてもよい。
また、表示制御部94は、揺動制御動画像データ取得部92が取得する揺動制御動画像データ66に含まれる動画像データ68が示す動画像を表示部38に表示させてもよい。
揺動制御部96は、本実施形態では例えば、表示部38に表示されている動画像における視点の加速状況に応じて、揺動部42の揺動を制御する。揺動制御部96は、表示部38に表示されている、視点から見た様子を表す動画像が、当該視点が加速している状況を表すものであるか否かに応じて、揺動部42を揺動させるか否かを制御してもよい。ここで例えば、揺動制御部96は、揺動部42を制御するための制御信号を、中継装置16を経由してHMD12に送信してもよい。そしてHMD12は、受信した制御信号に基づいて揺動部42の揺動制御を行ってもよい。
また揺動制御部96は、判定部84による判定の結果に応じて、揺動部42を揺動させるか否かを制御してもよい。
また判定部84が、揺動制御動画像データ取得部92が取得する揺動制御動画像データ66に含まれる揺動制御データ70に基づいて、視点が加速している状況が表れているフレーム画像が表示部38に表示されているか否かを判定してもよい。例えば表示されるフレーム画像に関連付けられているフレーム揺動制御データの値が1である場合に、視点が加速している状況が表れているフレーム画像が表示部38に表示されていると判定されてもよい。そして揺動制御部96は、判定部84による当該判定の結果に応じて、揺動部42を揺動させるか否かを制御してもよい。
ここで、本実施形態に係るエンタテインメント装置14において行われる処理の流れの一例を、図6に例示するフロー図を参照しながら説明する。図6に示す処理例は、仮想カメラ62の動きに基づく、揺動部42の揺動制御処理の流れの一例である。なお本処理例では、揺動制御動画像データ生成部88によって予め生成された空の揺動制御動画像データ66が、揺動制御動画像データ記憶部90に記憶されていることとする。
また図6に示すS101~S107に示す処理は、所定のフレームレートで繰り返し実行される。
まず、プログラム実行部80が、コントローラ22から受け付ける操作信号やゲームにおいて発生したイベントなどを含むゲームのプレイ状況に基づいて、仮想カメラ62の位置及び撮影方向64を変更する(S101)。
そして動画像データ生成部82が、仮想カメラ62から撮影方向64を見た様子を表すフレーム画像を生成する(S102)。
そして判定部84が、仮想カメラ62が加速度運動をしているか否かを判定する(S103)。
ここで仮想カメラ62が加速度運動をしていると判定されたとする(S103:Y)。この場合は、表示制御部94が、S102に示す処理で生成されたフレーム画像をHMD12の表示部38に表示させる表示制御を実行するとともに、揺動制御部96が、揺動部42を揺動させる揺動制御を実行する(S104)。この場合は、揺動部42は揺動する。
一方、仮想カメラ62が加速度運動をしていないと判定されたとする(S103:N)。この場合は、表示制御部94が、S102に示す処理で生成されたフレーム画像をHMD12の表示部38に表示させる表示制御を実行する(S105)。この場合は、揺動部42は揺動しない。ここで揺動制御部96が、揺動部42を揺動させない揺動制御を実行してもよい。
S104又はS105に示す処理が終了すると、揺動制御データ生成部86が、S103に示す処理における判定結果に応じた、本ループにおけるフレーム揺動制御データを生成する(S106)。ここでは例えば本ループにおいてS104に示す処理が実行された場合は、値が1であるフレーム揺動制御データが生成される。また例えば本ループにおいてS105に示す処理が実行された場合は、値が0であるフレーム揺動制御データが生成される。
そして、揺動制御動画像データ生成部88が、揺動制御動画像データ記憶部90に記憶されている揺動制御動画像データ66を更新する(S107)。ここでは例えば、S102に示す処理で生成されたフレーム画像が当該揺動制御動画像データ66に含まれる動画像データ68に追加される。また例えば、S106に示す処理で生成された本ループにおけるフレーム揺動制御データが、当該フレーム画像に関連付けられた状態で、当該揺動制御動画像データ66に含まれる揺動制御データ70に追加される。そして、S101に示す処理に戻る。
なお、S106に示す処理及びS107に示す処理が実行されなくてもよい。
次に、本実施形態に係るエンタテインメント装置14において行われる別の処理の流れの一例を、図7に例示するフロー図を参照しながら説明する。図7に示す処理例は、揺動制御動画像データ取得部92が取得する揺動制御動画像データ66に含まれる動画像データ68が示す動画像の再生の際に実行される、揺動部42の揺動制御処理の流れの一例である。
また図7に示すS201~S204に示す処理は、所定のフレームレートで繰り返し実行される。
まず、表示制御部94が、揺動制御動画像データ66に含まれる動画像データ68に示されている、本ループにおけるフレーム画像を特定する(S201)。
そして、判定部84が、揺動制御動画像データ66に含まれる揺動制御データ70に基づいて、S201に示す処理で特定されたフレーム画像が、視点が加速している状況を表すものであるか否かを判定する(S202)。ここでは例えば、S201に示す処理で特定されたフレーム画像に関連付けられているフレーム揺動制御データの値が1である場合に、S201に示す処理で特定されたフレーム画像が、視点が加速している状況を表すものであると判定される。またS201に示す処理で特定されたフレーム画像に関連付けられているフレーム揺動制御データの値が0である場合に、S201に示す処理で特定されたフレーム画像が、視点が加速している状況を表すものではないと判定される。
ここでS201に示す処理で特定されたフレーム画像が、視点が加速している状況を表すものであると判定されたとする(S202:Y)。この場合は、表示制御部94が、S201に示す処理で特定されたフレーム画像をHMD12の表示部38に表示させる表示制御を実行するとともに、揺動制御部96が、揺動部42を揺動させる揺動制御を実行する(S203)。この場合は、揺動部42は揺動する。
一方、S201に示す処理で特定されたフレーム画像が、視点が加速している状況を表すものでないと判定されたとする(S202:N)。この場合は、表示制御部94が、S102に示す処理で生成されたフレーム画像をHMD12の表示部38に表示させる表示制御を実行する(S204)。この場合は、揺動部42は揺動しない。ここで揺動制御部96が、揺動部42を揺動させない揺動制御を実行してもよい。
そして、S201に示す処理に戻る。
なお、本実施形態において、揺動制御部96が、判定部84による判定の結果、及び、図8に示す仮想空間60内に配置された仮想オブジェクト100と仮想カメラ62との間の距離dに基づいて、揺動部42の揺動を制御してもよい。例えば、揺動制御部96が、判定部84による判定の結果、及び、仮想空間60内に配置された仮想オブジェクト100と仮想カメラ62との間の距離dに基づいて、揺動部42を揺動させるか否かを制御してもよい。
揺動制御部96は、判定部84による判定の結果、及び、仮想カメラ62の画角(撮影範囲)内に配置されている仮想オブジェクト100と仮想カメラ62との間の距離dに基づいて、揺動部42の揺動を制御してもよい。ここで、揺動制御部96は、仮想カメラ62の視点の位置P1と当該視点の位置P1に最も近い仮想オブジェクト100の表面上の点の位置P2との間の距離dを特定してもよい。
また、揺動制御部96は、複数の仮想オブジェクトのうちから特定される仮想カメラ62に最も近い仮想オブジェクトと、仮想カメラ62と、の間の距離dを特定してもよい。
例えば、仮想カメラ62の画角内に複数の仮想オブジェクトが配置されているとする。この場合、揺動制御部96は、これらの仮想オブジェクトのうちから仮想カメラ62に最も近い仮想オブジェクトを特定してもよい。そして、揺動制御部96は、特定された仮想オブジェクトと仮想カメラ62との間の距離dを特定してもよい。
そして、判定部84によって仮想カメラ62が仮想空間60内において加速度運動をしていると判定され、かつ、距離dが所定の距離d1よりも短い場合に、揺動制御部96は、揺動部42を揺動させる揺動制御を実行してもよい。
また、揺動制御部96は、仮想空間60内に配置された仮想オブジェクト100と仮想カメラ62との間の距離dに基づいて、揺動部42の揺動量を制御してもよい。例えば、揺動制御部96は、距離dに基づいて、揺動部42の揺動量を決定してもよい。そして、揺動制御部96は、決定される揺動量で揺動するよう揺動部42を制御してもよい。ここで例えば、距離dが短いほど大きな揺動量が決定されてもよい。この場合、距離dが短いほど揺動部42が大きく揺動するよう揺動部42は制御される。
また、揺動制御部96は、画像解析技術を用いることで、動画像データ68が示す動画像に写るオブジェクトを特定してもよい。そして、揺動制御部96が、特定されるオブジェクトのフレーム画像内における単位時間あたりの移動量を特定してもよい。この場合、表示部38が三次元画像の表示ができるものであっても、揺動制御部96は、当該三次元画像を二次元画像に置き換えて、オブジェクトの移動量を特定してもよい。すなわち、オブジェクトの移動量を特定する際には、オブジェクトの奥行き方向の移動は考慮されなくてもよい。
そして、揺動制御部96は、特定される移動量に基づいて、揺動部42の揺動を制御してもよい。
揺動制御部96は、例えば、特定される移動量に基づいて、揺動部42を揺動させるか否かを制御してもよい。揺動制御部96は、例えば、特定される移動量が所定の移動量よりも大きい場合に、揺動部42を揺動させる揺動制御を実行してもよい。
また、揺動制御部96は、特定される移動量に基づいて、揺動部42の揺動量を制御してもよい。例えば、特定される移動量が大きいほど揺動部42が大きく揺動するよう揺動部42が制御されてもよい。
例えば、あるフレームのフレーム画像に写るオブジェクトの中心の位置と、当該フレームの直前のフレームのフレーム画像に写る当該オブジェクトの中心の位置と、の間の距離が特定されてもよい。そして、特定される距離に基づいて、揺動部42の揺動を制御してもよい。例えば特定される距離が所定の距離よりも大きい場合に、揺動制御部96は、揺動部42を揺動させる揺動制御を実行してもよい。また、特定される距離が大きいほど揺動部42が大きく揺動するよう揺動部42が制御されてもよい。
また、動画像データ68が示す動画像に写る複数のオブジェクトが特定される場合は、フレーム画像内における単位時間あたりの移動量が最も大きなオブジェクトが特定されてもよい。そして、特定されるオブジェクトの単位時間あたりの移動量に基づいて、揺動部42の揺動が制御されてもよい。
また、揺動制御部96は、当該フレームのフレーム画像に含まれる画素の画素値と、直前のフレームのフレーム画像に含まれる当該画素に対応する画素の画素値と、の差を特定してもよい。そして、揺動制御部96は、すべての画素について特定される画素値の差の合計に基づいて、揺動部42の揺動を制御してもよい。例えば特定される合計が所定値よりも大きい場合に、揺動制御部96は、揺動部42を揺動させる揺動制御を実行してもよい。また、特定される合計が大きいほど揺動部42が大きく揺動するよう揺動部42が制御されてもよい。
ここで、本実施形態に係るエンタテインメント装置14において行われる別の処理の流れの一例を、図9に例示するフロー図を参照しながら説明する。図9に示す処理例は、図6に示すような、仮想カメラ62の動きに基づく、揺動部42の揺動制御処理の流れの別の一例である。なお本処理例では、揺動制御動画像データ生成部88によって予め生成された空の揺動制御動画像データ66が、揺動制御動画像データ記憶部90に記憶されていることとする。
また図9に示すS301~S308に示す処理は、所定のフレームレートで繰り返し実行される。
図9に示すS301~S303に示す処理は、図6に示すS101~S103に示す処理と同様であるため、説明を省略する。
S303に示す処理で、仮想カメラ62が加速度運動をしていると判定されたとする(S303:Y)。この場合は、揺動制御部96は、上述のようにして、仮想カメラ62と仮想オブジェクト100との間の距離dを特定し、距離dが所定の距離d1よりも短いか否かを判定する(S304)。
距離dが所定の距離d1よりも短い場合は、表示制御部94が、S302に示す処理で生成されたフレーム画像をHMD12の表示部38に表示させる表示制御を実行するとともに、揺動制御部96が、揺動部42を揺動させる揺動制御を実行する(S305)。この場合は、揺動部42は揺動する。
S303に示す処理で、仮想カメラ62が加速度運動をしていないと判定されたとする(S303:N)。あるいは、S304に示す処理で、距離dが所定の距離d1以上であると判定されたとする(S304:N)。これらのいずれかの場合は、表示制御部94が、S302に示す処理で生成されたフレーム画像をHMD12の表示部38に表示させる表示制御を実行する(S306)。この場合は、揺動部42は揺動しない。ここで揺動制御部96が、揺動部42を揺動させない揺動制御を実行してもよい。
S305又はS306に示す処理が終了すると、揺動制御データ生成部86が、S303及びS304に示す処理における判定結果に応じた、本ループにおけるフレーム揺動制御データを生成する(S307)。ここでは例えば本ループにおいてS305に示す処理が実行された場合は、値が1であるフレーム揺動制御データが生成される。また例えば本ループにおいてS306に示す処理が実行された場合は、値が0であるフレーム揺動制御データが生成される。
そして、揺動制御動画像データ生成部88が、揺動制御動画像データ記憶部90に記憶されている揺動制御動画像データ66を更新する(S308)。ここでは例えば、S302に示す処理で生成されたフレーム画像が当該揺動制御動画像データ66に含まれる動画像データ68に追加される。また例えば、S307に示す処理で生成された本ループにおけるフレーム揺動制御データが、当該フレーム画像に関連付けられた状態で、当該揺動制御動画像データ66に含まれる揺動制御データ70に追加される。そして、S301に示す処理に戻る。
なお、S307に示す処理及びS308に示す処理が実行されなくてもよい。
次に、本実施形態に係るエンタテインメント装置14において行われる別の処理の流れの一例を、図10に例示するフロー図を参照しながら説明する。図10に示す処理例は、図9に示すS301~S308に示す処理で生成された揺動制御動画像データ66に含まれる動画像データ68が示す動画像の再生の際に実行される、揺動部42の揺動制御処理の流れの一例である。
また図10に示すS401~S404に示す処理は、所定のフレームレートで繰り返し実行される。
まず、表示制御部94が、揺動制御動画像データ66に含まれる動画像データ68に示されている、本ループにおけるフレーム画像を特定する(S401)。
そして、判定部84が、S401に示す処理で特定されたフレーム画像に関連付けられているフレーム揺動制御データの値が1であるか否かを確認する(S402)。
ここでフレーム揺動制御データの値が1であることが確認されたとする(S402:Y)。この場合は、表示制御部94が、S201に示す処理で特定されたフレーム画像をHMD12の表示部38に表示させる表示制御を実行するとともに、揺動制御部96が、揺動部42を揺動させる揺動制御を実行する(S403)。この場合は、揺動部42は揺動する。
一方、フレーム揺動制御データの値が0であることが確認されたとする(S402:N)。この場合は、表示制御部94が、S102に示す処理で生成されたフレーム画像をHMD12の表示部38に表示させる表示制御を実行する(S404)。この場合は、揺動部42は揺動しない。ここで揺動制御部96が、揺動部42を揺動させない揺動制御を実行してもよい。
そして、S401に示す処理に戻る。
本実施形態において、上述のフレーム揺動制御データが、揺動量を示すデータであってもよい。そしてこの場合、例えば、揺動制御データ生成部86は、揺動量を示すフレーム揺動制御データが生成されてもよい。ここで、揺動部42を揺動させない場合は、揺動制御データ生成部86は、値が0であるフレーム揺動制御データを生成してもよい。そしてこの場合、揺動制御部96が、フレーム揺動制御データが示す揺動量で揺動するよう揺動部42を揺動させる揺動制御を実行してもよい。
なお、本発明は上述の実施形態に限定されるものではない。
例えばHMD12、エンタテインメント装置14、中継装置16の役割分担は上述のものに限定されない。例えば図5に示す機能の一部(例えば表示制御部94、及び、揺動制御部96)又は全部がHMD12によって実装されてもよい。
また例えば、揺動制御部96が、例えばユーザの操作などによって、揺動部42の揺動制御のオン、オフを切り替えるようにしてもよい。
また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。

Claims (7)

  1. 装着した際にユーザの眼前に配置される表示部を備えたヘッドマウントディスプレイと、
    前記ヘッドマウントディスプレイを装着している前記ユーザの頭部を揺動可能な揺動部と、
    動画像を示す動画像データと、当該動画像において視点が加速している状況が表れているフレーム画像を特定可能な揺動制御データと、を含む揺動制御動画像データを取得する取得部と、
    前記揺動制御動画像データに含まれる前記動画像データが示す前記動画像を前記表示部に表示させる表示制御部と、
    前記揺動制御動画像データに含まれる前記揺動制御データに基づいて、前記視点が加速している状況が表れているフレーム画像が前記表示部に表示されているか否かを判定する判定部と、
    前記判定部による判定の結果に応じて、前記揺動部を揺動させるか否かを制御する揺動制御部と、
    を含むことを特徴とするVR酔い低減システム。
  2. 前記動画像データに基づいて、前記揺動制御データを生成する揺動制御データ生成部、をさらに含む、
    ことを特徴とする請求項に記載のVR酔い低減システム。
  3. 仮想空間内に配置された仮想カメラから前記仮想空間を見た様子を表す動画像を示す前記動画像データと、前記仮想カメラが前記仮想空間内において加速度運動をしているか否かの判定の結果に基づいて生成される前記揺動制御データと、を含む前記揺動制御動画像データを生成する揺動制御動画像データ生成部、をさらに含む、
    ことを特徴とする請求項に記載のVR酔い低減システム。
  4. 前記揺動部は、前記ヘッドマウントディスプレイの筐体の前面に設けられている、
    ことを特徴とする請求項1からのいずれか一項に記載のVR酔い低減システム。
  5. 装着した際にユーザの眼前に配置される表示部と、
    前記ユーザの頭部を揺動可能な揺動部と、
    動画像を示す動画像データと、当該動画像において視点が加速している状況が表れているフレーム画像を特定可能な揺動制御データと、を含む揺動制御動画像データを取得する取得部と、
    前記揺動制御動画像データに含まれる前記動画像データが示す前記動画像を前記表示部に表示させる表示制御部と、
    前記揺動制御動画像データに含まれる前記揺動制御データに基づいて、前記視点が加速している状況が表れているフレーム画像が前記表示部に表示されているか否かを判定する判定部と、
    前記判定部による判定の結果に応じて、前記揺動部を揺動させるか否かを制御する揺動制御部と、
    を含むことを特徴とするヘッドマウントディスプレイ。
  6. 動画像を示す動画像データと、当該動画像において視点が加速している状況が表れているフレーム画像を特定可能な揺動制御データと、を含む揺動制御動画像データを取得するステップと、
    ヘッドマウントディスプレイを装着した際にユーザの眼前に配置される表示部に、前記揺動制御動画像データに含まれる前記動画像データが示す前記動画像を表示させるステップと、
    前記揺動制御動画像データに含まれる前記揺動制御データに基づいて、前記視点が加速している状況が表れているフレーム画像が前記表示部に表示されているか否かを判定するステップと、
    前記判定するステップでの判定の結果に応じて、前記ヘッドマウントディスプレイを装着している前記ユーザの頭部を揺動可能な揺動部を揺動させるか否かを制御するステップと、
    を含むことを特徴とするVR酔い低減方法。
  7. 動画像を示す動画像データと、当該動画像において視点が加速している状況が表れているフレーム画像を特定可能な揺動制御データと、を含む揺動制御動画像データを取得する手順、
    ヘッドマウントディスプレイを装着した際にユーザの眼前に配置される表示部に、前記揺動制御動画像データに含まれる前記動画像データが示す前記動画像を表示させる手順、
    前記揺動制御動画像データに含まれる前記揺動制御データに基づいて、前記視点が加速している状況が表れているフレーム画像が前記表示部に表示されているか否かを判定する手順、
    前記判定する手順での判定の結果に応じて、前記ヘッドマウントディスプレイを装着している前記ユーザの頭部を揺動可能な揺動部を揺動させるか否かを制御する手順、
    をコンピュータに実行させることを特徴とするプログラム。
JP2020553765A 2018-11-01 2019-10-16 Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム Active JP7382954B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018206572 2018-11-01
JP2018206572 2018-11-01
PCT/JP2019/040723 WO2020090477A1 (ja) 2018-11-01 2019-10-16 Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2020090477A1 JPWO2020090477A1 (ja) 2021-09-24
JPWO2020090477A5 JPWO2020090477A5 (ja) 2022-09-26
JP7382954B2 true JP7382954B2 (ja) 2023-11-17

Family

ID=70464060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020553765A Active JP7382954B2 (ja) 2018-11-01 2019-10-16 Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム

Country Status (5)

Country Link
US (2) US11687159B2 (ja)
EP (1) EP3876524A4 (ja)
JP (1) JP7382954B2 (ja)
CN (1) CN112913225B (ja)
WO (1) WO2020090477A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160089298A1 (en) 2014-09-29 2016-03-31 Otolith Sound Inc Device for Mitigating Motion Sickness and Other Responses to Inconsistent Sensory Information
US11284205B2 (en) 2016-11-14 2022-03-22 Otolith Sound Inc. Systems, devices, and methods for treating vestibular conditions
JP2021124529A (ja) * 2020-01-31 2021-08-30 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JPWO2023079748A1 (ja) 2021-11-08 2023-05-11
WO2023171422A1 (ja) * 2022-03-10 2023-09-14 株式会社ソニー・インタラクティブエンタテインメント 表示制御システム、表示制御方法、プログラム
TWI815353B (zh) * 2022-03-16 2023-09-11 國立清華大學 用於減緩動暈症的頭戴式裝置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140176296A1 (en) 2012-12-19 2014-06-26 HeadsUp Technologies, Inc. Methods and systems for managing motion sickness
US20150325027A1 (en) 2014-05-09 2015-11-12 Dreamworks Animation Llc Method and system for reducing motion sickness in virtual reality ride systems
JP2017049468A (ja) 2015-09-03 2017-03-09 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
JP2017182130A (ja) 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018514005A (ja) 2015-02-05 2018-05-31 株式会社ソニー・インタラクティブエンタテインメント 乗り物酔いの監視及び、酔いを抑えるための追加音の付与

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339490A (ja) * 1999-05-28 2000-12-08 Mitsubishi Electric Corp Vr酔い低減方法
US8619080B2 (en) * 2008-09-08 2013-12-31 Disney Enterprises, Inc. Physically present game camera
US9094749B2 (en) * 2012-07-25 2015-07-28 Nokia Technologies Oy Head-mounted sound capture device
US9549870B2 (en) * 2013-05-27 2017-01-24 Iman Shafieloo Smart joint care
KR101507242B1 (ko) * 2013-10-21 2015-03-31 포항공과대학교 산학협력단 영상 분석을 통하여 모션 햅틱 효과를 제공하는 장치 및 방법
US10162412B2 (en) * 2015-03-27 2018-12-25 Seiko Epson Corporation Display, control method of display, and program
WO2017051564A1 (ja) * 2015-09-25 2017-03-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP6448527B2 (ja) * 2015-12-10 2019-01-09 キヤノン株式会社 周波数制御装置、モータ駆動装置および光学機器
JP6689694B2 (ja) 2016-07-13 2020-04-28 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP2018082363A (ja) * 2016-11-18 2018-05-24 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP6246310B1 (ja) * 2016-12-22 2017-12-13 株式会社コロプラ 仮想空間を提供するための方法、プログラム、および、装置
CN107621883B (zh) * 2017-10-18 2020-05-08 炫彩互动网络科技有限公司 一种基于手机终端的虚拟现实系统及人机交互方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140176296A1 (en) 2012-12-19 2014-06-26 HeadsUp Technologies, Inc. Methods and systems for managing motion sickness
US20150325027A1 (en) 2014-05-09 2015-11-12 Dreamworks Animation Llc Method and system for reducing motion sickness in virtual reality ride systems
JP2018514005A (ja) 2015-02-05 2018-05-31 株式会社ソニー・インタラクティブエンタテインメント 乗り物酔いの監視及び、酔いを抑えるための追加音の付与
JP2017049468A (ja) 2015-09-03 2017-03-09 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
JP2017182130A (ja) 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US20230280834A1 (en) 2023-09-07
JPWO2020090477A1 (ja) 2021-09-24
US11687159B2 (en) 2023-06-27
CN112913225B (zh) 2024-10-29
EP3876524A1 (en) 2021-09-08
US20210389822A1 (en) 2021-12-16
EP3876524A4 (en) 2022-12-28
WO2020090477A1 (ja) 2020-05-07
CN112913225A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
JP7382954B2 (ja) Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム
US11079999B2 (en) Display screen front panel of HMD for viewing by users viewing the HMD player
US11806615B2 (en) Asynchronous virtual reality interactions
CN107735152B (zh) 用于虚拟现实(vr)观看的扩展视野重新渲染
US9219961B2 (en) Information processing system, computer-readable non-transitory storage medium having stored therein information processing program, information processing control method, and information processing apparatus
US11107183B2 (en) Adaptive mesh skinning in a foveated rendering system
US10758821B2 (en) Operation input system, operation input device, and game system for adjusting force feedback control
JP6757420B2 (ja) 音声制御装置、音声制御方法及びプログラム
US11086587B2 (en) Sound outputting apparatus and method for head-mounted display to enhance realistic feeling of augmented or mixed reality space
JP6530453B2 (ja) ゲームプログラム及びゲームシステム
JP7011721B2 (ja) 画像生成装置、画像生成方法及びプログラム
CN110825219B (zh) 电子设备、电子设备的控制方法和电子系统
JP6499805B2 (ja) 映像表示装置および映像表示方法
WO2023171421A1 (ja) 通知制御システム、通知制御方法、プログラム
WO2024166207A1 (ja) 振動制御装置、vr装置、振動制御方法及びコンピュータプログラム
JP2020174329A (ja) 情報処理装置、表示方法およびコンピュータプログラム
JP6737842B2 (ja) ゲームプログラム、およびゲーム装置
WO2024006634A1 (en) Use of machine learning to transform screen renders from the player viewpoint

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231107

R150 Certificate of patent or registration of utility model

Ref document number: 7382954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150