[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6927029B2 - Vibration experience device - Google Patents

Vibration experience device Download PDF

Info

Publication number
JP6927029B2
JP6927029B2 JP2017252982A JP2017252982A JP6927029B2 JP 6927029 B2 JP6927029 B2 JP 6927029B2 JP 2017252982 A JP2017252982 A JP 2017252982A JP 2017252982 A JP2017252982 A JP 2017252982A JP 6927029 B2 JP6927029 B2 JP 6927029B2
Authority
JP
Japan
Prior art keywords
vibration
user
position information
signal
vibrating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017252982A
Other languages
Japanese (ja)
Other versions
JP2019121813A (en
Inventor
泰幸 谷田
泰幸 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017252982A priority Critical patent/JP6927029B2/en
Publication of JP2019121813A publication Critical patent/JP2019121813A/en
Priority to JP2021095089A priority patent/JP7140237B2/en
Application granted granted Critical
Publication of JP6927029B2 publication Critical patent/JP6927029B2/en
Priority to JP2022142034A priority patent/JP7476930B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザに振動を体感させる、振動体感装置に関する。 The present invention relates to a vibration experience device that allows a user to experience vibration.

コンサートやライブ等において、人は、耳に届く音だけでなく音圧を肌で感じることで、より迫力のある演奏を楽しむことができる。一方、ヘッドホン、イヤホン又は小径のスピーカで音を再生する場合においては、音圧まで再現することは困難である。そこで、手軽に臨場感が高いオーディオ再生環境を構築することが望まれる。 At concerts and live performances, people can enjoy more powerful performances by feeling not only the sound that reaches their ears but also the sound pressure. On the other hand, when the sound is reproduced by headphones, earphones or a speaker having a small diameter, it is difficult to reproduce the sound pressure. Therefore, it is desired to easily construct an audio reproduction environment with a high sense of presence.

下記の特許文献1には、音声信号の波形に沿った振動を発生する、簡易装着型体感振動装置が記載されている。 The following Patent Document 1 describes a simple wearing type sensory vibration device that generates vibration along a waveform of an audio signal.

特開平7−245793号公報Japanese Unexamined Patent Publication No. 7-2457993

しかしながら、昨今のVR(バーチャルリアリティ)等では、オーディオ信号の定位即ち音源方向も再現したコンテンツが増加しており、単にオーディオ信号に合わせて振動を発生させるだけでは、かえって臨場感を欠くことになりかねない。 However, in recent VR (Virtual Reality) and the like, the content that reproduces the localization of the audio signal, that is, the sound source direction is increasing, and simply generating vibration in accordance with the audio signal will rather lack the sense of presence. It could be.

本発明は、臨場感を高めることができる、振動体感装置を提供することを目的とする。 An object of the present invention is to provide a vibration experience device capable of enhancing the sense of presence.

本発明は、ユーザの身体の複数の部位に夫々装着された、複数の振動部と、オーディオ信号を外部から取得する、オーディオ信号取得部と、音を発するオブジェクトの位置を表す情報である音源位置情報を外部から取得する、音源位置情報取得部と、ユーザの位置及び向いている方向を表す情報であるユーザ位置情報を外部から取得する、ユーザ位置情報取得部と、音源位置情報及びユーザ位置情報に基づいて、振動を与えるユーザの部位を表す部位情報を算出する、振動部位算出部と、オーディオ信号で表される音の大きさに応じた大きさの振動信号を、部位情報で表される部位に装着されている1つ又は複数の振動部に出力する、振動信号生成部と、を備え、振動信号が供給された1つ又は複数の振動部は、振動信号の大きさに応じた強さで振動する、振動体感装置を提供する。 The present invention is a sound source position which is information indicating the positions of a plurality of vibrating parts, which are attached to a plurality of parts of the user's body, an audio signal acquisition part which acquires an audio signal from the outside, and an object which emits a sound. The sound source position information acquisition unit that acquires information from the outside, the user position information acquisition unit that acquires the user position information that is information indicating the user's position and the direction in which the user is facing, and the sound source position information and the user position information. Based on, the vibration part calculation unit that calculates the part information representing the part of the user who gives vibration, and the vibration signal of the magnitude corresponding to the loudness of the sound represented by the audio signal are represented by the part information. The one or more vibrating parts provided with the vibrating signal generating part that outputs to one or more vibrating parts mounted on the parts, and the vibrating part to which the vibrating signal is supplied are strong according to the magnitude of the vibrating signal. Provided is a vibration sensation device that vibrates in the meantime.

本発明によれば、臨場感を高めることができる、振動体感装置が提供される。 According to the present invention, there is provided a vibration experience device that can enhance the sense of presence.

図1は、実施形態に係る振動体感装置を用いたシステムの一例を模式的に示す図である。FIG. 1 is a diagram schematically showing an example of a system using the vibration experience device according to the embodiment. 図2は、実施形態に係る振動体感装置の構成を示す図である。FIG. 2 is a diagram showing a configuration of a vibration experience device according to an embodiment. 図3は、実施形態に係る振動体感装置の複数の振動部の装着状態を示す図である。FIG. 3 is a diagram showing a mounting state of a plurality of vibrating portions of the vibration experience device according to the embodiment. 図4は、実施形態に係る振動体感装置の複数の振動部の装着状態を示す図である。FIG. 4 is a diagram showing a mounting state of a plurality of vibrating portions of the vibrating experience device according to the embodiment. 図5は、オブジェクトとユーザとの位置関係の一例を示す図である。FIG. 5 is a diagram showing an example of the positional relationship between the object and the user. 図6は、オブジェクトとユーザとの位置関係の一例を示す図である。FIG. 6 is a diagram showing an example of the positional relationship between the object and the user. 図7は、オブジェクトとユーザとの位置関係の一例を示す図である。FIG. 7 is a diagram showing an example of the positional relationship between the object and the user. 図8は、オブジェクトとユーザとの位置関係の一例を示す図である。FIG. 8 is a diagram showing an example of the positional relationship between the object and the user. 図9は、オブジェクトとユーザとの位置関係の一例を示す図である。FIG. 9 is a diagram showing an example of the positional relationship between the object and the user. 図10は、実施形態のオーディオ信号及び振動信号の一例を示す図である。FIG. 10 is a diagram showing an example of an audio signal and a vibration signal of the embodiment. 図11は、実施形態に係る振動体感装置の動作を示すフローチャートである。FIG. 11 is a flowchart showing the operation of the vibration experience device according to the embodiment.

以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings, but the present invention is not limited thereto. The components of the embodiments described below can be combined as appropriate. In addition, some components may not be used.

<実施形態を用いたシステム>
図1は、実施形態に係る振動体感装置を用いたシステムの一例を模式的に示す図である。
<System using the embodiment>
FIG. 1 is a diagram schematically showing an example of a system using the vibration experience device according to the embodiment.

システム100は、ユーザUに振動を与える振動体感装置1と、映像及び音声を含むコンテンツを再生するコンテンツ出力装置110と、を含む。 The system 100 includes a vibration experience device 1 that gives vibration to the user U, and a content output device 110 that reproduces content including video and audio.

コンテンツは、映画、コンサート若しくはライブの映像及び音声、又は、ゲームが例示されるが、これらに限定されない。映像は、2D又は3Dの動画像又は静止画像が例示される。 Content includes, but is not limited to, movies, concerts or live video and audio, or games. The video is exemplified by a 2D or 3D moving image or a still image.

実施形態では、コンテンツデータは、音を発するオブジェクト(音源)の位置情報を含むものとする。一例として、オブジェクトベースオーディオ(オブジェクトオーディオとも言う)データは、各々のオブジェクトの動き及び音量の変化等のデータを含んでおり、AVアンプ等は、スピーカの位置や数にあわせて最適なレンダリングを行い、最終的な音を再生する。 In the embodiment, the content data includes the position information of the object (sound source) that emits sound. As an example, object-based audio (also called object audio) data includes data such as movement and volume change of each object, and an AV amplifier or the like performs optimum rendering according to the position and number of speakers. , Play the final sound.

コンテンツ出力装置110は、携帯型の場合には、スマートフォン又はタブレットが例示されるが、これらに限定されない。 When the content output device 110 is a portable type, a smartphone or a tablet is exemplified, but the content output device 110 is not limited thereto.

コンテンツ出力装置110は、据置型の場合には、コンテンツプレーヤ、パーソナルコンピュータ又は据置型ゲーム機と、AVアンプと、表示装置と、音声出力装置と、の組み合わせが例示される。コンテンツプレーヤは、Blu−ray(登録商標)プレーヤが例示されるが、これに限定されない。表示装置は、VRヘッドマウントディスプレイ(以下、VRHMDと言う)、テレビジョン装置又はプロジェクタが例示されるが、これらに限定されない。音声出力装置は、スピーカ、ヘッドホン又はイヤホンが例示されるが、これらに限定されない。 When the content output device 110 is a stationary type, a combination of a content player, a personal computer or a stationary game machine, an AV amplifier, a display device, and an audio output device is exemplified. The content player is exemplified by, but is not limited to, a Blu-ray (registered trademark) player. Examples of the display device include, but are not limited to, a VR head-mounted display (hereinafter referred to as VRHMD), a television device, or a projector. Examples of the audio output device include, but are not limited to, speakers, headphones or earphones.

コンテンツ出力装置110は、処理部111と、映像出力部112と、音声出力部113と、センサ部114と、通信部115と、記録媒体読取部116と、を含む。 The content output device 110 includes a processing unit 111, a video output unit 112, an audio output unit 113, a sensor unit 114, a communication unit 115, and a recording medium reading unit 116.

通信部115は、ネットワークNを介して、コンテンツデータをサーバ120から受信して、処理部111に出力する。ネットワークNは、有線であっても良いし、無線であっても良い。 The communication unit 115 receives the content data from the server 120 via the network N and outputs the content data to the processing unit 111. The network N may be wired or wireless.

記録媒体読取部116は、記録媒体117に記録されているコンテンツデータを読み取って、処理部111に出力する。記録媒体117は、Blu−ray(登録商標)ディスクが例示されるが、これに限定されない。 The recording medium reading unit 116 reads the content data recorded on the recording medium 117 and outputs the content data to the processing unit 111. The recording medium 117 is exemplified by, but is not limited to, a Blu-ray (registered trademark) disc.

センサ部114は、ユーザUの位置及び向いている方向を検出して、処理部111に出力する。ユーザUの向いている方向は、ユーザUの顔が向いている方向又はユーザUの身体が向いている方向が例示されるが、これに限定されない。 The sensor unit 114 detects the position and the direction in which the user U is facing, and outputs the output to the processing unit 111. The direction in which the user U is facing is exemplified, but is not limited to, the direction in which the face of the user U is facing or the direction in which the body of the user U is facing.

コンテンツ出力装置110が携帯型である場合には、センサ部114は、スマートフォン又はタブレットの画像表示側に搭載された前面カメラ(インカメラ)が例示されるが、これに限定されない。 When the content output device 110 is portable, the sensor unit 114 is exemplified by, but is not limited to, a front camera (in-camera) mounted on the image display side of a smartphone or tablet.

コンテンツ出力装置110が据置型である場合には、センサ部114は、室内に設置されたカメラ又はビーコンが例示されるが、これに限定されない。 When the content output device 110 is a stationary type, the sensor unit 114 is exemplified by, but is not limited to, a camera or a beacon installed in a room.

処理部111は、コンテンツデータに含まれる映像データに基づいて、映像を映像出力部112に表示させる。処理部111は、CPU(Central Processing Unit)が例示されるが、これに限定されない。 The processing unit 111 causes the video output unit 112 to display the video based on the video data included in the content data. The processing unit 111 is exemplified by a CPU (Central Processing Unit), but the processing unit 111 is not limited to this.

コンテンツ出力装置110が携帯型である場合には、映像出力部112は、スマートフォン若しくはタブレットに搭載された表示パネル、又は、スマートフォン若しくはタブレットに接続されたVRHMD、テレビジョン装置若しくはプロジェクタが例示されるが、これらに限定されない。 When the content output device 110 is portable, the video output unit 112 is exemplified by a display panel mounted on a smartphone or tablet, or a VRHMD, a television device or a projector connected to the smartphone or tablet. , Not limited to these.

コンテンツ出力装置110が据置型である場合には、映像出力部112は、VRHMD、テレビジョン装置又はプロジェクタが例示されるが、これらに限定されない。 When the content output device 110 is a stationary type, the video output unit 112 is exemplified by, but is not limited to, a VRHMD, a television device, or a projector.

処理部111は、コンテンツデータに含まれるオーディオデータに基づいて、音声を音声出力部113に出力させる。 The processing unit 111 causes the audio output unit 113 to output audio based on the audio data included in the content data.

コンテンツ出力装置110が携帯型である場合には、音声出力部113は、スマートフォン若しくはタブレットに搭載されたスピーカ、又は、スマートフォン若しくはタブレットに接続されたヘッドホン又はイヤホンが例示されるが、これらに限定されない。 When the content output device 110 is portable, the audio output unit 113 includes, but is not limited to, a speaker mounted on a smartphone or tablet, or headphones or earphones connected to the smartphone or tablet. ..

コンテンツ出力装置110が据置型である場合には、音声出力部113は、スピーカ、ヘッドホン又はイヤホンが例示されるが、これらに限定されない。 When the content output device 110 is a stationary type, the audio output unit 113 is exemplified by a speaker, headphones or earphones, but is not limited thereto.

処理部111は、オーディオ信号Sを、振動体感装置1に出力する。処理部111は、コンテンツデータに含まれるオーディオデータをそのままオーディオ信号Sとして振動体感装置1に送信しても良い。 The processing unit 111 outputs the audio signal S 1 to the vibration experience device 1. Processing unit 111 may transmit the audio data included in the content data as it is as the audio signals S 1 to vibrotactile device 1.

なお、人間は、高音よりも低音で音圧を感じる。従って、処理部111は、コンテンツデータに含まれるオーディオデータの内の低音成分だけをオーディオ信号Sとして振動体感装置1に送信しても良い。 In addition, human beings feel the sound pressure in the bass rather than the treble. Therefore, the processing unit 111 may be transmitted to the vibrotactile device 1 only bass component of the audio data included in the content data as an audio signal S 1.

一例として、処理部111は、コンテンツデータに含まれるオーディオデータを、予め定められたカットオフ周波数を有するローパスフィルタに通過させた後の信号を、オーディオ信号Sとして振動体感装置1に送信しても良い。 As an example, the processing unit 111, the audio data included in the content data, a signal that has passed through a low pass filter having a cutoff frequency that is determined in advance, and transmits the audio signals S 1 to vibrotactile device 1 Is also good.

或いは、処理部111は、コンテンツデータにオブジェクトベースオーディオデータが含まれている場合には、予め定められた周波数以下の低音を発するオブジェクトのオーディオデータだけをオーディオ信号Sとして振動体感装置1に送信しても良い。 Alternatively, the processing unit 111, if it contains object-based audio data to the content data, transmitted to the vibrotactile device 1 only audio data of the object that emits a predetermined frequency or less bass as audio signals S 1 You may.

或いは、処理部111は、コンテンツデータにサブウーファーを駆動するためのオーディオデータが含まれている場合には、サブウーファーを駆動するためのオーディオデータをオーディオ信号Sとして振動体感装置1に送信しても良い。 Alternatively, the processing unit 111, if it contains audio data for driving a subwoofer to the content data, the audio data for driving the subwoofer transmitted as audio signals S 1 to vibrotactile device 1 You may.

また、処理部111は、オブジェクトの位置を表す情報である音源位置情報Sを、振動体感装置1に出力する。音源位置情報Sは、スピーカが音を発する方向の情報を含んでも良い。 The processing unit 111, the sound source position information S 2 is information representing the position of an object, and outputs to the vibrotactile device 1. The sound source position information S 2 may include information on the direction in which the speaker emits sound.

一例として、処理部111は、コンテンツデータにオブジェクトベースオーディオデータが含まれている場合には、複数のオブジェクトの位置情報を音源位置情報Sとして振動体感装置1に送信しても良い。 As an example, the processing unit 111, when the content data contains object-based audio data may transmit location information of a plurality of objects to vibrotactile device 1 as the sound source position information S 2.

或いは、処理部111は、支配的なオブジェクトの位置情報だけを音源位置情報Sとして振動体感装置1に送信しても良い。支配的なオブジェクトとは、最も信号レベルが高いオブジェクトが例示される。 Alternatively, processor 111 may transmit the vibrotactile device 1 only the position information of the dominant object as the sound source position information S 2. The dominant object is exemplified by the object having the highest signal level.

或いは、処理部111は、複数のオブジェクトの音の信号レベルに基づいて算出した、複数のオブジェクトの平均的な位置情報を音源位置情報Sとして振動体感装置1に送信しても良い。平均的な位置情報は、複数の物体の質量及び位置関係から重心を算出するように、質量を信号レベルに置き換えて算出しても良い。信号レベルは、単位時間毎の信号レベルの平均値を用いても良い。 Alternatively, the processing unit 111 is calculated based on the signal level of the sound of a plurality of objects may send average position information of a plurality of objects to vibrotactile device 1 as the sound source position information S 2. The average position information may be calculated by substituting the mass with a signal level so that the center of gravity is calculated from the mass and the positional relationship of a plurality of objects. As the signal level, the average value of the signal levels for each unit time may be used.

或いは、処理部111は、予め定められた周波数以下の低音を発するオブジェクトの位置情報だけを音源位置情報Sとして振動体感装置1に送信しても良い。 Alternatively, processor 111 may transmit the vibrotactile device 1 only the position information of the object that emits a predetermined frequency below the bass as a sound source position information S 2.

また、処理部111は、オブジェクトが位置する空間内での、ユーザUの位置及び向いている方向を表す情報であるユーザ位置情報Sを、振動体感装置1に出力する。なお、ユーザUの位置及び向いている方向は、オブジェクトが位置する空間内での絶対的な位置及び方向であっても良いし、オブジェクトとユーザUとの相対的な位置及び方向であっても良い。 The processing unit 111, in the space where the object is located, the user position information S 3 is information indicating a direction in which the position and opposite the user U, and outputs the vibrotactile device 1. The position and facing direction of the user U may be an absolute position and direction in the space where the object is located, or may be a relative position and direction between the object and the user U. good.

<実施形態>
[構成]
図2は、実施形態に係る振動体感装置の構成を示す図である。振動体感装置1は、オーディオ信号取得部11と、音源位置情報取得部12と、ユーザ位置情報取得部13と、振動部位算出部14と、振動信号生成部15と、複数の振動部16と、を含む。複数の振動部16は、ユーザUの身体の複数の部位に夫々装着される。
<Embodiment>
[composition]
FIG. 2 is a diagram showing a configuration of a vibration experience device according to an embodiment. The vibration experience device 1 includes an audio signal acquisition unit 11, a sound source position information acquisition unit 12, a user position information acquisition unit 13, a vibration part calculation unit 14, a vibration signal generation unit 15, and a plurality of vibration units 16. including. The plurality of vibrating portions 16 are attached to a plurality of parts of the body of the user U, respectively.

図3及び図4は、実施形態に係る振動体感装置の複数の振動部の装着状態を示す図である。図3は、ユーザUを正面から見た図である。図4は、ユーザUを背面から見た図である。 3 and 4 are views showing a mounting state of a plurality of vibrating portions of the vibration experience device according to the embodiment. FIG. 3 is a front view of the user U. FIG. 4 is a view of the user U as viewed from the back.

図3及び図4に示すように、実施形態では、複数の振動部16は、ベスト(vest)20に取り付けられている。そして、ユーザUが、ベスト20を着用している。これにより、複数の振動部16は、ユーザUに装着されている。なお、実施形態では、複数の振動部16がベスト20に取り付けられていることとしたが、これに限定されない。複数の振動部16は、バンド、ベルト、腹巻等に取り付けられて、ユーザUに装着されても良い。 As shown in FIGS. 3 and 4, in the embodiment, the plurality of vibrating portions 16 are attached to the vest 20. Then, the user U is wearing the best 20. As a result, the plurality of vibrating units 16 are attached to the user U. In the embodiment, a plurality of vibrating portions 16 are attached to the vest 20, but the present invention is not limited to this. The plurality of vibrating portions 16 may be attached to a band, a belt, a belly band, or the like and attached to the user U.

複数の振動部16は、ユーザUの身体の軸21の周りの複数の方向に装着されることが好ましい。軸21は、ユーザUが直立した場合に、頭頂と両足間とを結ぶ線が例示されるが、これに限定されない。 The plurality of vibrating portions 16 are preferably mounted in a plurality of directions around the axis 21 of the body of the user U. The shaft 21 is exemplified by a line connecting the top of the head and between both feet when the user U stands upright, but the shaft 21 is not limited to this.

例えば、複数の振動部16が2個である場合には、1個の振動部16がユーザUの腹部に装着され、他の1個の振動部16がユーザUの背部に装着されることが好ましい。或いは、1個の振動部16がユーザUの右脇腹に装着され、他の1個の振動部16がユーザUの左脇腹に装着されることが好ましい。 For example, when there are two plurality of vibrating portions 16, one vibrating portion 16 may be attached to the abdomen of the user U, and the other vibrating portion 16 may be attached to the back of the user U. preferable. Alternatively, it is preferable that one vibrating portion 16 is mounted on the right flank of the user U and the other vibrating portion 16 is mounted on the left flank of the user U.

また、例えば、複数の振動部16が4個である場合には、4個の振動部16が、ユーザUの腹部と背部と右脇腹と左脇腹とに夫々装着されることが好ましい。 Further, for example, when the plurality of vibrating portions 16 are four, it is preferable that the four vibrating portions 16 are attached to the abdomen, the back, the right flank, and the left flank of the user U, respectively.

また、図3及び図4に示すように、軸21の周りの1つの方向において、軸21の延在方向に沿って複数の振動部16が配置されることが好ましい。例えば、図3では、ユーザUの身体の中央腹部には、軸21の延在方向に沿って3個の振動部16を含む振動部群16aが配置されている。そして、振動体感装置1は、例えば、オブジェクトの位置がユーザUの位置よりも高い場合に、振動部群16aの中で最も高い位置に配置されている振動部16a1を最も強く振動させることが好ましい。例えば、振動体感装置1は、オブジェクトが飛行機である場合に、振動部群16aの中で最も高い位置に配置されている振動部16a1を最も強く振動させることが好ましい。これにより、ユーザUは、臨場感をより感じることができる。 Further, as shown in FIGS. 3 and 4, it is preferable that a plurality of vibrating portions 16 are arranged along the extending direction of the shaft 21 in one direction around the shaft 21. For example, in FIG. 3, in the central abdomen of the body of the user U, a vibrating portion group 16a including three vibrating portions 16 is arranged along the extending direction of the shaft 21. Then, for example, when the position of the object is higher than the position of the user U, the vibration experience device 1 preferably vibrates the vibrating portion 16a1 arranged at the highest position in the vibrating portion group 16a most strongly. .. For example, when the object is an airplane, the vibration experience device 1 preferably vibrates the vibrating portion 16a1 arranged at the highest position in the vibrating portion group 16a most strongly. As a result, the user U can feel more realistic.

複数の振動部16の各々は、モータとバラストとで構成することや、磁石とコイルとで構成することが例示されるが、これらに限定されない。 It is exemplified, but not limited to, each of the plurality of vibrating portions 16 is composed of a motor and a ballast, or is composed of a magnet and a coil.

なお、オーディオ信号取得部11、音源位置情報取得部12、ユーザ位置情報取得部13、振動部位算出部14及び振動信号生成部15は、ベスト20に取り付けられていても良いし、ベスト20に取り付けられず、複数の振動部16と分離していても良い。 The audio signal acquisition unit 11, the sound source position information acquisition unit 12, the user position information acquisition unit 13, the vibration part calculation unit 14, and the vibration signal generation unit 15 may be attached to the best 20, or may be attached to the best 20. It may not be possible to separate the vibration units 16 from each other.

再び図2を参照すると、オーディオ信号取得部11は、オーディオ信号Sをコンテンツ出力装置110から取得して、振動信号生成部15に出力する。 Referring again to FIG. 2, the audio signal acquisition unit 11 acquires the audio signals S 1 from the content output apparatus 110, and outputs the vibration signal generation section 15.

音源位置情報取得部12は、音源位置情報Sをコンテンツ出力装置110から取得して、振動部位算出部14に出力する。 The sound source position information acquisition unit 12 acquires the sound source position information S 2 from the content output device 110 and outputs it to the vibration portion calculation unit 14.

ユーザ位置情報取得部13は、ユーザ位置情報Sをコンテンツ出力装置110から取得して、振動部位算出部14に出力する。 The user position information acquisition unit 13 acquires the user position information S 3 from the content output device 110 and outputs the user position information S 3 to the vibration portion calculation unit 14.

振動部位算出部14は、音源位置情報S及びユーザ位置情報Sに基づいて、振動を与えるユーザUの部位を表す部位情報Sを算出し、振動信号生成部15に出力する。 Vibrating region calculating unit 14, based on the sound source position information S 2 and the user position information S 3, calculates the part information S 4 representing the site of the user U for vibrating, and outputs the vibration signal generation section 15.

具体的な一例として、まず、振動部位算出部14は、ユーザUとオブジェクトとの相対的な位置関係から、オブジェクトが音を発する方向を算出する。次に、振動部位算出部14は、ユーザUが向いている方向とオブジェクトが音を発する方向とから、振動が伝わるべき方向を算出する。 As a specific example, first, the vibration part calculation unit 14 calculates the direction in which the object emits a sound from the relative positional relationship between the user U and the object. Next, the vibration portion calculation unit 14 calculates the direction in which the vibration should be transmitted from the direction in which the user U is facing and the direction in which the object emits a sound.

図5は、オブジェクトとユーザとの位置関係の一例を示す図である。図5では、映像出力部112は、テレビジョン装置である。 FIG. 5 is a diagram showing an example of the positional relationship between the object and the user. In FIG. 5, the video output unit 112 is a television device.

映像出力部112は、Y軸方向と逆の方向に、映像を出力する。ユーザUは、映像出力部112に正対している。つまり、ユーザUが向いている方向33は、Y軸方向である。オブジェクト31は、ユーザUから見て、斜め右前の方向に位置している。オブジェクト31は、Y軸方向と逆の方向32に、音を発する。この場合、振動部位算出部14は、オブジェクト31からユーザUに向かう方向34を、振動が伝わるべき方向として算出する。そして、振動部位算出部14は、方向33と方向34とがなす角度θに基づいて、ユーザUの右腹部35を、振動を与える部位として算出する。再び図3を参照すると、振動体感装置1は、ユーザUの右腹部に配置された、3個の振動部16を含む振動部群16bを振動させる。 The video output unit 112 outputs video in the direction opposite to the Y-axis direction. The user U faces the video output unit 112. That is, the direction 33 in which the user U is facing is the Y-axis direction. The object 31 is located diagonally to the front right when viewed from the user U. The object 31 emits a sound in the direction 32 opposite to the Y-axis direction. In this case, the vibration portion calculation unit 14 calculates the direction 34 from the object 31 toward the user U as the direction in which the vibration should be transmitted. Then, the vibration portion calculation unit 14 calculates the right abdomen 35 of the user U as a portion to be vibrated based on the angle θ formed by the direction 33 and the direction 34. Referring to FIG. 3 again, the vibration experience device 1 vibrates the vibration unit group 16b including the three vibration units 16 arranged in the right abdomen of the user U.

なお、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い部位を、振動を与える部位として算出しても良い。再び図5を参照すると、ユーザUの身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの右腹部35である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い、ユーザUの右腹部35を、振動を与える部位として算出しても良い。 The vibration portion calculation unit 14 may calculate the portion of the body of the user U that is closest to the object 31 as the portion that gives vibration. Referring to FIG. 5 again, the part of the body of the user U that is closest to the object 31 is the right abdomen 35 of the user U. Therefore, the vibration part calculation unit 14 may calculate the right abdomen 35 of the user U, which is the closest to the object 31 among the parts of the body of the user U, as the part to give vibration.

或いは、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する部位を、振動を与える部位として算出しても良い。再び図5を参照すると、ユーザUの身体の部位の内でオブジェクト31に対向する部位は、ユーザUの右腹部35である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する、ユーザUの右腹部35を、振動を与える部位として算出しても良い。 Alternatively, the vibration portion calculation unit 14 may calculate a portion of the body portion of the user U that faces the object 31 as a portion that gives vibration. Referring to FIG. 5 again, the part of the body of the user U facing the object 31 is the right abdomen 35 of the user U. Therefore, the vibration portion calculation unit 14 may calculate the right abdomen 35 of the user U, which faces the object 31 in the body portion of the user U, as the portion to be vibrated.

図6は、オブジェクトとユーザとの位置関係の一例を示す図である。図6は、図5に示す状態から、ユーザUが、方向33をXY平面に垂直な方向を軸として、矢印36で示すように180度回転させた状態を示す図である。 FIG. 6 is a diagram showing an example of the positional relationship between the object and the user. FIG. 6 is a diagram showing a state in which the user U has rotated the direction 33 by 180 degrees as shown by an arrow 36 with the direction 33 perpendicular to the XY plane as an axis from the state shown in FIG.

ユーザUは、映像出力部112と反対の側を向いている。つまり、ユーザUが向いている方向33は、Y軸方向と逆の方向である。オブジェクト31は、ユーザUから見て、斜め左後の方向に位置している。オブジェクト31は、Y軸方向と逆の方向32に、音を発する。この場合、振動部位算出部14は、オブジェクト31からユーザUに向かう方向34を、振動が伝わるべき方向として算出する。そして、振動部位算出部14は、方向33と方向34とがなす角度θに基づいて、ユーザUの左背部37を、振動を与える部位として算出する。再び図4を参照すると、振動体感装置1は、ユーザUの左背部に配置された、3個の振動部16を含む振動部群16dを振動させる。 The user U faces the side opposite to the video output unit 112. That is, the direction 33 in which the user U is facing is the direction opposite to the Y-axis direction. The object 31 is located diagonally to the left and rear when viewed from the user U. The object 31 emits a sound in the direction 32 opposite to the Y-axis direction. In this case, the vibration portion calculation unit 14 calculates the direction 34 from the object 31 toward the user U as the direction in which the vibration should be transmitted. Then, the vibration portion calculation unit 14 calculates the left back portion 37 of the user U as a portion to be vibrated based on the angle θ formed by the direction 33 and the direction 34. Referring to FIG. 4 again, the vibration experience device 1 vibrates the vibration unit group 16d including the three vibration units 16 arranged on the left back portion of the user U.

なお、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い部位を、振動を与える部位として算出しても良い。再び図6を参照すると、ユーザUの身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの左背部37である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い、ユーザUの左背部37を、振動を与える部位として算出しても良い。 The vibration portion calculation unit 14 may calculate the portion of the body of the user U that is closest to the object 31 as the portion that gives vibration. Referring again to FIG. 6, the part of the body of the user U that is closest to the object 31 is the left back 37 of the user U. Therefore, the vibration portion calculation unit 14 may calculate the left back portion 37 of the user U, which is the closest to the object 31 among the parts of the body of the user U, as the portion to be vibrated.

或いは、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する部位を、振動を与える部位として算出しても良い。再び図6を参照すると、ユーザUの身体の部位の内でオブジェクト31に対向する部位は、ユーザUの左背部37である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する、ユーザUの左背部37を、振動を与える部位として算出しても良い。 Alternatively, the vibration portion calculation unit 14 may calculate a portion of the body portion of the user U that faces the object 31 as a portion that gives vibration. Referring to FIG. 6 again, the portion of the body portion of the user U that faces the object 31 is the left back portion 37 of the user U. Therefore, the vibration portion calculation unit 14 may calculate the left back portion 37 of the user U, which faces the object 31 in the body portion of the user U, as the portion to be vibrated.

図7は、オブジェクトとユーザとの位置関係の一例を示す図である。ここでは、コンテンツデータは、マルチカメラアングルを有するものとする。そして、図7は、図5に示す状態から、ユーザUが、コンテンツ出力装置110を操作して、カメラアングルを時計回りに移動させた状態を示す図である。カメラアングルを時計回りに移動させると、オブジェクト31は、ユーザUから見て、X方向と逆の方向38に移動する。 FIG. 7 is a diagram showing an example of the positional relationship between the object and the user. Here, it is assumed that the content data has a multi-camera angle. FIG. 7 is a diagram showing a state in which the user U operates the content output device 110 to move the camera angle clockwise from the state shown in FIG. When the camera angle is moved clockwise, the object 31 moves in the direction 38 opposite to the X direction when viewed from the user U.

ユーザUは、映像出力部112に正対している。つまり、ユーザUが向いている方向33は、Y軸方向である。オブジェクト31は、ユーザUから見て、斜め左前の方向に位置している。オブジェクト31は、Y軸方向と逆の方向39に、音を発する。この場合、振動部位算出部14は、オブジェクト31からユーザUに向かう方向40を、振動が伝わるべき方向として算出する。そして、振動部位算出部14は、方向33と方向40とがなす角度θに基づいて、ユーザUの左腹部41を、振動を与える部位として算出する。再び図3を参照すると、振動体感装置1は、ユーザUの左腹部に配置された、3個の振動部16を含む振動部群16cを振動させる。 The user U faces the video output unit 112. That is, the direction 33 in which the user U is facing is the Y-axis direction. The object 31 is located diagonally to the left and front when viewed from the user U. The object 31 emits a sound in the direction 39 opposite to the Y-axis direction. In this case, the vibration portion calculation unit 14 calculates the direction 40 from the object 31 toward the user U as the direction in which the vibration should be transmitted. Then, the vibration portion calculation unit 14 calculates the left abdomen 41 of the user U as a portion to be vibrated based on the angle θ formed by the direction 33 and the direction 40. Referring to FIG. 3 again, the vibration experience device 1 vibrates the vibrating portion group 16c including the three vibrating portions 16 arranged on the left abdomen of the user U.

なお、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い部位を、振動を与える部位として算出しても良い。再び図7を参照すると、ユーザUの身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの左腹部41である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い、ユーザUの左腹部41を、振動を与える部位として算出しても良い。 The vibration portion calculation unit 14 may calculate the portion of the body of the user U that is closest to the object 31 as the portion that gives vibration. Referring to FIG. 7 again, the part of the body of the user U that is closest to the object 31 is the left abdomen 41 of the user U. Therefore, the vibration part calculation unit 14 may calculate the left abdomen 41 of the user U, which is the closest to the object 31 among the parts of the body of the user U, as the part to give vibration.

或いは、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する部位を、振動を与える部位として算出しても良い。再び図7を参照すると、ユーザUの身体の部位の内でオブジェクト31に対向する部位は、ユーザUの左腹部41である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する、ユーザUの左腹部41を、振動を与える部位として算出しても良い。 Alternatively, the vibration portion calculation unit 14 may calculate a portion of the body portion of the user U that faces the object 31 as a portion that gives vibration. Referring to FIG. 7 again, the part of the body of the user U facing the object 31 is the left abdomen 41 of the user U. Therefore, the vibration portion calculation unit 14 may calculate the left abdomen 41 of the user U, which faces the object 31 in the body portion of the user U, as the portion to be vibrated.

図8は、オブジェクトとユーザとの位置関係の一例を示す図である。図8では、映像出力部112は、VRHMDである。 FIG. 8 is a diagram showing an example of the positional relationship between the object and the user. In FIG. 8, the video output unit 112 is a VRHMD.

ユーザUが向いている方向33は、Y軸方向である。オブジェクト31は、ユーザUから見て、斜め右前の方向に位置している。オブジェクト31は、Y軸方向と逆の方向32に、音を発する。この場合、振動部位算出部14は、オブジェクト31からユーザUに向かう方向34を、振動が伝わるべき方向として算出する。そして、振動部位算出部14は、方向33と方向34とがなす角度θに基づいて、ユーザUの右腹部35を、振動を与える部位として算出する。再び図3を参照すると、振動体感装置1は、ユーザUの右腹部に配置された、3個の振動部16を含む振動部群16bを振動させる。 The direction 33 in which the user U is facing is the Y-axis direction. The object 31 is located diagonally to the front right when viewed from the user U. The object 31 emits a sound in the direction 32 opposite to the Y-axis direction. In this case, the vibration portion calculation unit 14 calculates the direction 34 from the object 31 toward the user U as the direction in which the vibration should be transmitted. Then, the vibration portion calculation unit 14 calculates the right abdomen 35 of the user U as a portion to be vibrated based on the angle θ formed by the direction 33 and the direction 34. Referring to FIG. 3 again, the vibration experience device 1 vibrates the vibration unit group 16b including the three vibration units 16 arranged in the right abdomen of the user U.

なお、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い部位を、振動を与える部位として算出しても良い。再び図8を参照すると、ユーザUの身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの右腹部35である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い、ユーザUの右腹部35を、振動を与える部位として算出しても良い。 The vibration portion calculation unit 14 may calculate the portion of the body of the user U that is closest to the object 31 as the portion that gives vibration. Referring to FIG. 8 again, the part of the body of the user U that is closest to the object 31 is the right abdomen 35 of the user U. Therefore, the vibration part calculation unit 14 may calculate the right abdomen 35 of the user U, which is the closest to the object 31 among the parts of the body of the user U, as the part to give vibration.

或いは、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する部位を、振動を与える部位として算出しても良い。再び図8を参照すると、ユーザUの身体の部位の内でオブジェクト31に対向する部位は、ユーザUの右腹部35である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する、ユーザUの右腹部35を、振動を与える部位として算出しても良い。 Alternatively, the vibration portion calculation unit 14 may calculate a portion of the body portion of the user U that faces the object 31 as a portion that gives vibration. Referring to FIG. 8 again, the part of the body of the user U facing the object 31 is the right abdomen 35 of the user U. Therefore, the vibration portion calculation unit 14 may calculate the right abdomen 35 of the user U, which faces the object 31 in the body portion of the user U, as the portion to be vibrated.

図9は、オブジェクトとユーザとの位置関係の一例を示す図である。図9は、図8に示す状態から、ユーザUが、方向33をXY平面に垂直な方向を軸として、矢印36で示すように180度回転させた状態を示す図である。 FIG. 9 is a diagram showing an example of the positional relationship between the object and the user. FIG. 9 is a diagram showing a state in which the user U has rotated the direction 33 by 180 degrees as shown by an arrow 36 with the direction 33 perpendicular to the XY plane as an axis from the state shown in FIG.

ユーザUが向いている方向33は、Y軸方向と逆の方向である。オブジェクト31は、ユーザUから見て、斜め左後の方向に位置している。オブジェクト31は、Y軸方向と逆の方向32に、音を発する。この場合、振動部位算出部14は、オブジェクト31からユーザUに向かう方向34を、振動が伝わるべき方向として算出する。そして、振動部位算出部14は、方向33と方向34とがなす角度θに基づいて、ユーザUの左背部37を、振動を与える部位として算出する。再び図4を参照すると、振動体感装置1は、ユーザUの左背部に配置された、3個の振動部16を含む振動部群16dを振動させる。 The direction 33 in which the user U is facing is the direction opposite to the Y-axis direction. The object 31 is located diagonally to the left and rear when viewed from the user U. The object 31 emits a sound in the direction 32 opposite to the Y-axis direction. In this case, the vibration portion calculation unit 14 calculates the direction 34 from the object 31 toward the user U as the direction in which the vibration should be transmitted. Then, the vibration portion calculation unit 14 calculates the left back portion 37 of the user U as a portion to be vibrated based on the angle θ formed by the direction 33 and the direction 34. Referring to FIG. 4 again, the vibration experience device 1 vibrates the vibration unit group 16d including the three vibration units 16 arranged on the left back portion of the user U.

なお、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い部位を、振動を与える部位として算出しても良い。再び図9を参照すると、ユーザUの身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの左背部37である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い、ユーザUの左背部37を、振動を与える部位として算出しても良い。 The vibration portion calculation unit 14 may calculate the portion of the body of the user U that is closest to the object 31 as the portion that gives vibration. Referring again to FIG. 9, the part of the body of the user U that is closest to the object 31 is the left back 37 of the user U. Therefore, the vibration portion calculation unit 14 may calculate the left back portion 37 of the user U, which is the closest to the object 31 among the parts of the body of the user U, as the portion to be vibrated.

或いは、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する部位を、振動を与える部位として算出しても良い。再び図9を参照すると、ユーザUの身体の部位の内でオブジェクト31に対向する部位は、ユーザUの左背部37である。従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向する、ユーザUの左背部37を、振動を与える部位として算出しても良い。 Alternatively, the vibration portion calculation unit 14 may calculate a portion of the body portion of the user U that faces the object 31 as a portion that gives vibration. Referring to FIG. 9 again, the portion of the body portion of the user U that faces the object 31 is the left back portion 37 of the user U. Therefore, the vibration portion calculation unit 14 may calculate the left back portion 37 of the user U, which faces the object 31 in the body portion of the user U, as the portion to be vibrated.

図8及び図9では、映像出力部112がVRHMDである場合について説明したが、映像出力部112がスマートフォン又はタブレットに搭載された表示パネルの場合も、同様である。 8 and 9 have described the case where the video output unit 112 is a VRHMD, but the same applies to the case where the video output unit 112 is a display panel mounted on a smartphone or tablet.

再び図2を参照すると、振動信号生成部15は、オーディオ信号Sで表される音の大きさに応じた大きさの振動信号Sを、部位情報Sで表される部位に装着されている1つ又は複数の振動部16に、出力する。 Referring again to FIG. 2, the vibration signal generation section 15, a vibration signal S 5 having a magnitude corresponding to the magnitude of the sound represented by the audio signal S 1, is mounted on the moiety represented by the site information S 4 Output to one or more vibrating units 16

図10は、実施形態のオーディオ信号及び振動信号の一例を示す図である。 FIG. 10 is a diagram showing an example of an audio signal and a vibration signal of the embodiment.

振動信号生成部15は、オーディオ信号Sの複数の極値50を算出する。次に、振動信号生成部15は、複数の極値50の複数の絶対値51を算出する。そして、振動信号生成部15は、複数の絶対値51に予め定められたゲインを乗じることにより、パルス状の振動信号Sを生成する。従って、振動信号Sのパルスのタイミングは、オーディオ信号Sの複数の極値50のタイミングと同じになる。振動信号生成部15は、振動信号Sを、部位情報Sで表される部位に装着されている1つ又は複数の振動部16に、出力する。振動信号Sが供給された1つ又は複数の振動部16は、振動信号Sの大きさに応じた強さで振動する。 Vibration signal generating unit 15 calculates a plurality of extreme value 50 of the audio signal S 1. Next, the vibration signal generation unit 15 calculates a plurality of absolute values 51 of a plurality of extreme values 50. Then, the vibration signal generation unit 15 generates a pulse-shaped vibration signal S 5 by multiplying a plurality of absolute values 51 by a predetermined gain. Therefore, the timing of the pulse of the vibration signal S 5 is the same as the timing of the plurality of extreme values 50 of the audio signal S 1. The vibration signal generation unit 15 outputs the vibration signal S 5 to one or a plurality of vibration units 16 mounted on the portion represented by the portion information S 4. The one or more vibrating portions 16 to which the vibrating signal S 5 is supplied vibrates with a strength corresponding to the magnitude of the vibrating signal S 5.

これにより、部位情報Sで表される部位に装着されている1つ又は複数の振動部16は、音の大きさに応じた強さの振動をユーザUに与えることができる。従って、ユーザUは、臨場感をより感じることができる。 Thus, one or more of the vibrating section 16 is attached to the moiety represented by the site information S 4 can provide a vibration strength corresponding to the magnitude of the sound to the user U. Therefore, the user U can feel more realistic.

なお、振動信号生成部15は、オーディオ信号Sの包絡線を算出し、包絡線から極値50を算出しても良い。振動信号生成部15は、オーディオ信号Sにヒルベルト変換を実施することにより、包絡線を算出しても良い。 Incidentally, the vibration signal generation section 15 calculates the envelope of the audio signal S 1, may calculate the extremum 50 from the envelope. Vibration signal generating unit 15, by performing a Hilbert transform to the audio signal S 1, may calculate the envelope.

また、振動信号生成部15は、処理部111がオーディオ信号Sをローパスフィルタに通過させないで出力した場合には、オーディオ信号Sを、予め定められたカットオフ周波数を有するローパスフィルタに通過させても良い。 The vibration signal generator 15, when the processing unit 111 is outputted without passes the audio signals S 1 to low pass filter the audio signals S 1, is passed through a low pass filter having a cut-off frequency to a predetermined You may.

また、振動信号生成部15は、極値50と極値50との間の時間長に応じて、振動信号Sを出力する時間を変更することで、振動部16を振動させる時間を変更しても良い。例えば、振動信号生成部15は、極値50と極値50との間の時間長が長い場合は、振動信号Sを出力する時間を長く変更することで、振動部16を振動させる時間を長く変更しても良い。また、振動信号生成部15は、極値50と極値50との間の時間長が短い場合は、振動信号Sを出力する時間を短く変更することで、振動部16を振動させる時間を短く変更しても良い。 The vibration signal generator 15, depending on the length of time between the extremes 50 and extremes 50, by changing the time for outputting the vibration signal S 5, changed the time to vibrate the vibrating portion 16 You may. For example, when the time length between the extreme value 50 and the extreme value 50 is long, the vibration signal generation unit 15 changes the time for outputting the vibration signal S 5 to a long time to increase the time for vibrating the vibration unit 16. You may change it for a long time. Further, when the time length between the extreme value 50 and the extreme value 50 is short, the vibration signal generation unit 15 reduces the time for outputting the vibration signal S 5 to shorten the time for vibrating the vibration unit 16. You may change it to a shorter time.

これにより、例えば、キレがあるバスドラムによる振動時間は短くなり、伸びやかなベースによる振動時間は長くなる。従って、ユーザUは、再現性の高い音圧を体感することができ、臨場感をより感じることができる。 As a result, for example, the vibration time due to the sharp bass drum becomes short, and the vibration time due to the relaxed base becomes long. Therefore, the user U can experience the sound pressure with high reproducibility and can feel the presence more.

なお、振動信号生成部15は、部位情報Sで表される部位と異なる部位に装着されている1つ又は複数の振動部16にも、振動信号Sを出力しても良い。この場合、振動信号生成部15は、部位情報Sで表される部位からの距離に応じて、振動信号Sの振幅を小さくすると好適である。 The vibration signal generation unit 15 may also output the vibration signal S 5 to one or more vibration units 16 mounted on a portion different from the portion represented by the portion information S 4. In this case, the vibration signal generator 15, depending on the distance from the moiety represented by the site information S 4, it is preferable to reduce the amplitude of the vibration signal S 5.

再び図3を参照すると、部位情報Sで表される部位が正面腹部部である場合には、振動信号生成部15は、オーディオ信号Sで表される音の大きさに応じた大きさの振動信号Sを、振動部群16aに出力する。加えて、振動信号生成部15は、部位情報Sで表される部位からの距離に応じて振幅を小さくした振動信号Sを、右腹部に装着された振動部群16b及び左腹部に装着された振動部群16cにも出力すると良い。 Referring again to Figure 3, when moiety represented by the site information S 4 is a front abdominal section, the vibration signal generator 15, the magnitude corresponding to the magnitude of the sound represented by the audio signals S 1 a vibration signal S 5, and outputs the vibration portion group 16a. In addition, the vibration signal generation section 15, a vibration signal S 5 having a smaller amplitude in accordance with the distance from the moiety represented by the site information S 4, mounted on the vibration unit group 16b and the left abdomen is attached to the right abdomen It is preferable to output to the vibrating part group 16c.

更に加えて、振動信号生成部15は、部位情報Sで表される正面腹部からの距離に応じて振幅を小さくした振動信号Sを、右脇部、左脇部、右背面部、左背面部及び中央背面部に装着された振動部群に出力しても良い。 Furthermore, the vibration signal generation unit 15 transmits the vibration signal S 5 whose amplitude is reduced according to the distance from the front abdomen represented by the site information S 4 , to the right side portion, the left side portion, the right back portion, and the left. It may be output to the vibrating part group attached to the back part and the central back part.

これにより、部位情報Sで表される部位と異なる部位に装着されている1つ又は複数の振動部16は、部位情報Sで表される部位に装着されている1つ又は複数の振動部16からの距離に応じて、部位情報Sで表される部位に装着されている1つ又は複数の振動部16よりも弱い振動をユーザUに与える。従って、ユーザUは、複数の部位で異なる大きさの振動を与えられるので、臨場感をより感じることができる。 Thus, one or more of the vibrating section 16 is mounted at a site different from the site represented by the site information S 4 is one which is attached to the moiety represented by the site information S 4 or more vibration in accordance with the distance from the part 16, providing one is attached to the moiety represented by the site information S 4 or more weak vibration than the vibration portion 16 to the user U. Therefore, since the user U is given vibrations of different magnitudes at the plurality of parts, the user U can feel more realistic.

再び図2を参照すると、複数の振動部16は、振動信号Sのタイミングで、振動信号Sの振幅に応じた強さの振動を発生する。 Referring again to Figure 2, a plurality of vibrating portions 16 at the timing of the vibration signal S 5, to generate a vibration strength corresponding to the amplitude of the vibration signal S 5.

[動作]
図11は、実施形態の振動体感装置の動作を示すフローチャートである。振動体感装置1は、予め定められた周期で、図11に示す処理を実行する。
[motion]
FIG. 11 is a flowchart showing the operation of the vibration experience device of the embodiment. The vibration experience device 1 executes the process shown in FIG. 11 at a predetermined cycle.

オーディオ信号取得部11は、ステップS100において、オーディオ信号Sを処理部111から取得し、振動信号生成部15に出力する。 Audio signal acquisition unit 11, at step S100, acquires the audio signals S 1 from the processing unit 111, and outputs the vibration signal generation section 15.

音源位置情報取得部12は、ステップS102において、音源位置情報Sを処理部111から取得し、振動部位算出部14に出力する。 Sound source position information acquisition unit 12, at step S102, acquires the sound source position information S 2 from the processing section 111, and outputs the vibration region calculating unit 14.

ユーザ位置情報取得部13は、ステップS104において、ユーザ位置情報Sを処理部111から取得し、振動部位算出部14に出力する。 User location information obtaining unit 13, at step S104, acquires the user position information S 3 from the processing unit 111, and outputs the vibration region calculating unit 14.

振動部位算出部14は、ステップS106において、音源位置情報S及びユーザ位置情報Sに基づいて、振動を与えるユーザUの部位を表す部位情報Sを算出し、振動信号生成部15に出力する。 Vibrating region calculating unit 14 in step S106, based on the sound source position information S 2 and the user position information S 3, calculates the part information S 4 representing the site of the user U for vibrating, output the vibration signal generation section 15 do.

振動信号生成部15は、ステップS108において、オーディオ信号Sで表される音の大きさに応じた大きさの振動信号Sを、1つ又は複数の振動部16に、出力する。 In step S108, the vibration signal generation unit 15 outputs a vibration signal S 5 having a magnitude corresponding to the loudness of the sound represented by the audio signal S 1 to one or a plurality of vibration units 16.

1つ又は複数の振動部16は、ステップS110において、振動信号Sのタイミングで、振動信号Sの振幅に応じた強さの振動を発生する。 In step S110, one or a plurality of vibration units 16 generate vibration of a strength corresponding to the amplitude of the vibration signal S 5 at the timing of the vibration signal S 5.

なお、振動している1つ又は複数の振動部16は、ユーザUと異なる人からの接触があった場合に、振動を中止しても良い。これにより、ユーザUと異なる人に振動が伝わらないようにすることができる。 The vibrating one or more vibrating units 16 may stop vibrating when there is contact from a person different from the user U. As a result, it is possible to prevent the vibration from being transmitted to a person different from the user U.

また、振動信号生成部15が、1つ又は複数の振動部16に振動信号Sを供給してから、1つ又は複数の振動部16が振動を開始し、ユーザUが振動を体感するまでの遅延時間を処理部111に出力しても良い。そして、処理部111が、音声出力部113からの音声の出力を遅延時間だけ遅らせると良い。これにより、音声出力部113から出力される音声と、1つ又は複数の振動部16で発生される振動と、を同期させることができる。これにより、ユーザUは、臨場感をより感じることができる。 The vibration signal generator 15, after supplying the oscillating signal S 5 to one or more of the vibrating part 16, one or more of the vibrating section 16 starts to vibrate, the user U up felt vibration The delay time of may be output to the processing unit 111. Then, it is preferable that the processing unit 111 delays the output of the sound from the sound output unit 113 by the delay time. As a result, the voice output from the voice output unit 113 and the vibration generated by one or more vibration units 16 can be synchronized. As a result, the user U can feel more realistic.

[効果]
以上説明したように、本実施形態によれば、オブジェクト31とユーザUとの位置関係に応じたユーザUの身体の部位に、振動を与えることができる。これにより、ユーザUの臨場感を高めることができる。
[effect]
As described above, according to the present embodiment, it is possible to apply vibration to a part of the body of the user U according to the positional relationship between the object 31 and the user U. As a result, the presence of the user U can be enhanced.

1 振動体感装置、11 オーディオ信号取得部、12 音源位置情報取得部、13 ユーザ位置情報取得部、14 振動部位算出部、15 振動信号生成部、16 振動部、16a,16b,16c,16d 振動部群、20 ベスト、31 オブジェクト、100 システム、110 コンテンツ出力装置、111 処理部、112 映像出力部、113 音声出力部、114 センサ部、115 通信部、116 記録媒体読取部、117 記録媒体、120 サーバ。 1 Vibration sensor, 11 Audio signal acquisition unit, 12 Sound source position information acquisition unit, 13 User position information acquisition unit, 14 Vibration part calculation unit, 15 Vibration signal generation unit, 16 Vibration unit, 16a, 16b, 16c, 16d Vibration unit Group, 20 best, 31 objects, 100 systems, 110 content output device, 111 processing unit, 112 video output unit, 113 audio output unit, 114 sensor unit, 115 communication unit, 116 recording medium reader, 117 recording medium, 120 servers. ..

Claims (6)

ユーザの身体の複数の部位に夫々装着された、複数の振動部と、
オーディオ信号を外部から取得する、オーディオ信号取得部と、
音を発するオブジェクトの位置を表す情報である音源位置情報を外部から取得する、音源位置情報取得部と、
ユーザの位置及び向いている方向を表す情報であるユーザ位置情報を外部から取得する、ユーザ位置情報取得部と、
前記音源位置情報及び前記ユーザ位置情報に基づいて、振動を与えるユーザの部位を表す部位情報を算出する、振動部位算出部と、
前記オーディオ信号で表される音の大きさに応じた大きさの振動信号を、前記部位情報で表される部位に装着されている1つ又は複数の前記振動部に出力する、振動信号生成部と、
を備え、
前記振動信号が供給された1つ又は複数の前記振動部は、前記振動信号の大きさに応じた強さで振動する、
振動体感装置。
Multiple vibrating parts, each attached to multiple parts of the user's body,
An audio signal acquisition unit that acquires audio signals from the outside,
A sound source position information acquisition unit that acquires sound source position information from the outside, which is information indicating the position of an object that emits sound.
A user position information acquisition unit that acquires user position information from the outside, which is information indicating the user's position and the direction in which the user is facing.
A vibration part calculation unit that calculates part information representing a part of a user who gives vibration based on the sound source position information and the user position information.
A vibration signal generator that outputs a vibration signal having a magnitude corresponding to the loudness of the sound represented by the audio signal to one or more of the vibration parts mounted on the parts represented by the part information. When,
With
One or more of the vibrating parts to which the vibrating signal is supplied vibrates with a strength corresponding to the magnitude of the vibrating signal.
Vibration experience device.
前記振動部位算出部は、
ユーザの向いている方向と、オブジェクトからユーザへの振動が伝わるべき方向と、がなす角度に基づいて、前記部位情報を算出する、請求項1に記載の振動体感装置。
The vibration part calculation unit
The vibration experience device according to claim 1, wherein the part information is calculated based on an angle formed by a direction in which the user is facing and a direction in which vibration from an object to the user should be transmitted.
前記振動信号生成部は、
前記部位情報で表される部位と異なる部位に装着されている1つ又は複数の前記振動部にも、前記振動信号を出力し、前記部位情報で表される部位からの距離に応じて、前記振動信号を小さくする、請求項1又は2に記載の振動体感装置。
The vibration signal generator
The vibration signal is also output to one or more of the vibrating parts mounted on a part different from the part represented by the part information, and the vibration signal is output according to the distance from the part represented by the part information. The vibration experience device according to claim 1 or 2, which reduces the vibration signal.
前記音源位置情報取得部は、
最も信号レベルが高いオブジェクトの前記音源位置情報を取得する、請求項1から3のいずれか1項に記載の振動体感装置。
The sound source position information acquisition unit
The vibration experience device according to any one of claims 1 to 3, which acquires the sound source position information of the object having the highest signal level.
前記音源位置情報取得部は、
複数のオブジェクトの音の信号レベルに基づいて算出した、複数のオブジェクトの平均的な位置情報を、前記音源位置情報として取得する、請求項1からのいずれか1項に記載の振動体感装置。
The sound source position information acquisition unit
The vibration experience device according to any one of claims 1 to 3 , wherein the average position information of the plurality of objects calculated based on the signal levels of the sounds of the plurality of objects is acquired as the sound source position information.
前記振動信号生成部は、
前記オーディオ信号の包絡線に基づいて複数の極値を算出し、前記極値と前記極値との間の時間長に応じて、前記振動信号を出力する時間を変更する、請求項1から5のいずれか1項に記載の振動体感装置。
The vibration signal generator
Claims 1 to 5 calculate a plurality of extreme values based on the envelope of the audio signal, and change the time for outputting the vibration signal according to the time length between the extreme values. The vibration experience device according to any one of the above items.
JP2017252982A 2017-12-28 2017-12-28 Vibration experience device Active JP6927029B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017252982A JP6927029B2 (en) 2017-12-28 2017-12-28 Vibration experience device
JP2021095089A JP7140237B2 (en) 2017-12-28 2021-06-07 Vibration sensation device
JP2022142034A JP7476930B2 (en) 2017-12-28 2022-09-07 Vibration Sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017252982A JP6927029B2 (en) 2017-12-28 2017-12-28 Vibration experience device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021095089A Division JP7140237B2 (en) 2017-12-28 2021-06-07 Vibration sensation device

Publications (2)

Publication Number Publication Date
JP2019121813A JP2019121813A (en) 2019-07-22
JP6927029B2 true JP6927029B2 (en) 2021-08-25

Family

ID=67307432

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017252982A Active JP6927029B2 (en) 2017-12-28 2017-12-28 Vibration experience device
JP2021095089A Active JP7140237B2 (en) 2017-12-28 2021-06-07 Vibration sensation device
JP2022142034A Active JP7476930B2 (en) 2017-12-28 2022-09-07 Vibration Sensor

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021095089A Active JP7140237B2 (en) 2017-12-28 2021-06-07 Vibration sensation device
JP2022142034A Active JP7476930B2 (en) 2017-12-28 2022-09-07 Vibration Sensor

Country Status (1)

Country Link
JP (3) JP6927029B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7192813B2 (en) * 2020-03-12 2022-12-20 株式会社豊田中央研究所 User interface device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08116581A (en) * 1994-02-28 1996-05-07 Bodeisonitsuku Kk Mount type body sensing vibrator
JP4484570B2 (en) * 2004-04-14 2010-06-16 富士ゼロックス株式会社 Acoustic information processing apparatus and acoustic information providing method
JP4543408B2 (en) * 2004-06-09 2010-09-15 有限会社エスディーエス Sound source direction detection and transmission device
US9786201B2 (en) * 2014-05-16 2017-10-10 Not Impossible LLC Wearable sound
EP3037918A1 (en) * 2014-12-23 2016-06-29 Thomson Licensing System and method for localizing haptic effects on a body
JP6571701B2 (en) * 2017-02-02 2019-09-04 日本電信電話株式会社 EXPERIENCE DEVICE AND METHOD

Also Published As

Publication number Publication date
JP7476930B2 (en) 2024-05-01
JP2019121813A (en) 2019-07-22
JP2021145373A (en) 2021-09-24
JP2022172315A (en) 2022-11-15
JP7140237B2 (en) 2022-09-21

Similar Documents

Publication Publication Date Title
JP7270820B2 (en) Mixed reality system using spatialized audio
US10390139B2 (en) Apparatus and methods for audio-tactile spatialization of sound and perception of bass
JP5919201B2 (en) Technology to perceive sound localization
CN107277736B (en) Simulation system, sound processing method, and information storage medium
JP6246922B2 (en) Acoustic signal processing method
JP2013250838A (en) Information processing program, information processing device, information processing system and information processing method
JP5647138B2 (en) Method and apparatus for providing a user interface to an information processing system
JP2014090251A (en) Information processing system, information processing program, information processing control method and information processing device
JP2009177574A (en) Headphone
JP7476930B2 (en) Vibration Sensor
US10567879B2 (en) Combined near-field and far-field audio rendering and playback
KR102036021B1 (en) Speaker apparatus providing stereo sound
JP6475921B2 (en) communication unit
JP2022173870A (en) Appreciation system, appreciation device, and program
JP6159515B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING CONTROL METHOD
JP3573797B2 (en) Stereo audio playback device
WO2021261085A1 (en) Information processing device, information processing method, program, and recording reproduction system
WO2023199815A1 (en) Acoustic processing device, program, and acoustic processing system
JP6506486B2 (en) Apparatus for providing virtual reality image and program for providing virtual reality image
US20100135509A1 (en) Zeleny sonosphere

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R150 Certificate of patent or registration of utility model

Ref document number: 6927029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150