JP6673346B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP6673346B2 JP6673346B2 JP2017518777A JP2017518777A JP6673346B2 JP 6673346 B2 JP6673346 B2 JP 6673346B2 JP 2017518777 A JP2017518777 A JP 2017518777A JP 2017518777 A JP2017518777 A JP 2017518777A JP 6673346 B2 JP6673346 B2 JP 6673346B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- sound
- information processing
- virtual character
- sound source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 86
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000004807 localization Effects 0.000 claims description 76
- 230000009471 action Effects 0.000 claims description 71
- 238000004364 calculation method Methods 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 18
- 230000005236 sound signal Effects 0.000 claims description 17
- 230000033001 locomotion Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 208000000059 Dyspnea Diseases 0.000 description 2
- 206010013975 Dyspnoeas Diseases 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 235000009508 confectionery Nutrition 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 208000013220 shortness of breath Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S5/00—Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation
- H04S5/02—Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42365—Presence services providing information on the willingness to communicate or the ability to communicate in terms of media capability or network connectivity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/07—Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Stereophonic System (AREA)
- User Interface Of Digital Computer (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
1.本開示の一実施形態による情報処理装置の概要
2.構成
2−1.外観構成
2−2.内部構成
3.動作
4.まとめ
まず、本開示の一実施形態による情報処理装置の概要について、図1を参照して説明する。図1に示すように、本実施形態による情報処理装置1は、例えばユーザAの首に掛けられるネックバンド型の情報処理端末であって、スピーカおよび各種センサ(加速度センサ、ジャイロセンサ、地磁気センサ、絶対位置測位部等)を有する。かかる情報処理装置1は、音声情報を空間的に配置する音像定位技術により、現実空間に仮想キャラクタ20が本当に存在しているようユーザに知覚させる機能を有する。なお仮想キャラクタ20は仮想物体の一例である。
<2−1.外観構成>
図2は、本実施形態による情報処理装置1の外観構成の一例を示す斜視図である。図2に示すように、ネックバンド型の情報処理装置1は、首の両側から後ろ側(背中側)にかけて半周回するような形状の装着ユニット(装着部)を有し、ユーザの首にかけられることでユーザに装着される。図2では、装着ユニットをユーザが装着した状態における斜視図を示す。なお、本明細書では、上下左右前後といった方向を示す言葉を用いるが、これらの方向はユーザの直立姿勢における、ユーザの体の中心(例えば鳩尾の位置)からみた方向を示すものとする。例えば、「右」とはユーザの右半身側の方向を示し、「左」とはユーザの左半身側の方向を示し、「上」とはユーザの頭側の方向を示し、「下」とはユーザの足側の方向を示すものとする。また、「前」とはユーザの体が向く方向を示し、「後」とはユーザの背中側の方向を示すものとする。
続いて、本実施形態による情報処理装置1の内部構成について図3を参照して説明する。図3は、本実施形態による情報処理装置1の内部構成の一例を示すブロック図である。図3に示すように、情報処理装置1は、制御部10、通信部11、マイクロホン12、カメラ13、9軸センサ14、スピーカ15、位置測位部16、および記憶部17を有する。
制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
ユーザが立っている場合:
耳の高さ=身長−座高+(座高−耳から頭頂までの距離)×E1(頭の傾き)
ユーザが座っている/寝転んでいる場合:
耳の高さ=(座高−耳から頭頂までの距離)×E1(頭の傾き)
ユーザが立っている場合:
耳の高さ≒身長−耳から頭頂までの距離
ユーザが座っている/寝転んでいる場合:
耳の高さ≒座高−耳から頭頂までの距離
通信部11は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。通信部11は、例えば有線LAN(Local Area Network)、無線LAN、Wi−Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離/非接触通信等の方式で、外部機器と直接、またはネットワークアクセスポイントを介して無線通信する。
マイクロホン12は、ユーザの音声や周囲の環境を収音し、音声データとして制御部10に出力する。
カメラ13は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。例えば、カメラ13は、情報処理装置1(装着ユニット)がユーザに装着された状態で、ユーザの前方を撮像可能に設けられてもよい。この場合、カメラ13は、例えばユーザの動きに応じた周囲の景色の動きを撮像することが可能となる。また、カメラ13は、情報処理装置1がユーザに装着された状態で、ユーザの顔を撮像可能に設けられてもよい。この場合、情報処理装置1は、撮像画像からユーザの耳の位置や表情を特定することが可能となる。また、カメラ13は、デジタル信号とされた撮像画像のデータを制御部10へ出力する。
9軸センサ14は、3軸ジャイロセンサ(角速度(回転速度)の検出)、3軸加速度センサ(Gセンサとも称す。移動時の加速度の検出)、および3軸地磁気センサ(コンパス、絶対方向(方位)の検出)を含む。9軸センサ14は、情報処理装置1を装着したユーザの状態または周囲の状態をセンシングする機能を有する。なお9軸センサ14は、センサ部の一例であって、本実施形態はこれに限定されず、例えば速度センサまたは振動センサ等をさらに用いてもよいし、加速度センサ、ジャイロセンサ、および地磁気センサのうち少なくともいずれかを用いてもよい。また、センサ部は、情報処理装置1(装着ユニット)とは別の装置に設けられていてもよいし、複数の装置に分散して設けられていてもよい。例えば、加速度センサ、ジャイロセンサ、および地磁気センサが頭部に装着されたデバイス(例えばイヤホン)に設けられ、速度センサや振動センサがスマートフォンに設けられてもよい。9軸センサ14は、センシング結果を示す情報を制御部10へ出力する。
スピーカ15は、音声出力制御部10fの制御に従って、音像定位部10eにより処理された音声信号を再生する。また、スピーカ15は、任意の位置/方向の複数の音源をステレオ音声に変換して出力することも可能である。
位置測位部16は、外部からの取得信号に基づいて情報処理装置1の現在位置を検知する機能を有する。具体的には、例えば位置測位部16は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、情報処理装置1が存在している位置を検知し、検知した位置情報を制御部10に出力する。また、情報処理装置1は、GPSの他、例えばWi−Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
記憶部17は、上述した制御部10が各機能を実行するためのプログラムやパラメータを格納する。また、本実施形態による記憶部17は、シナリオ(各種音コンテンツ)、仮想キャラクタの設定情報(形状、身長等)、ユーザ情報(氏名、年齢、自宅、職業、職場、体格データ、趣味・嗜好等)を格納する。なお記憶部17に格納される情報の少なくとも一部は、クラウド上のサーバ等の別装置に格納されていてもよい。
続いて、本実施形態による情報処理装置1の音声処理について図9を参照して説明する。図9は、本実施形態による音声処理を示すフローチャートである。
上述したように、本開示の実施形態による情報処理システムでは、ユーザの状態と仮想キャラクタの情報に基づいて、仮想キャラクタ(仮想物体の一例)を知覚させる音を定位させる相対的な3次元位置を適切に算出し、現実空間における仮想キャラクタの存在感をよりリアルに提示することを可能とする。
(1)
音像定位により現実空間に存在するよう知覚させる仮想物体に関する情報と、ユーザの状態に関する情報とに基づいて、前記ユーザに対する前記仮想物体の音源の相対的な定位位置を算出する算出部と、
前記算出された定位位置に音像を定位させるよう前記音源の音声信号処理を行う音像定位部と、
を備える、情報処理装置。
(2)
前記音像の相対的な定位位置は、高さを含む3次元位置である、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、
前記音像定位部により処理された音声信号を音声出力部から再生するよう制御する音声出力制御部をさらに備える、前記(2)に記載の情報処理装置。
(4)
前記ユーザの状態に関する情報は、前記ユーザの絶対位置、移動速度、向き、頭の位置、耳の高さ、またはこれらから認識される行動を含む、前記(3)に記載の情報処理装置。
(5)
前記仮想物体は仮想キャラクタであって、
前記情報処理装置は、
認識された前記ユーザの行動に応じて前記仮想キャラクタの現実空間における仮想的な行動を決定し、決定した行動に対応する音コンテンツを前記仮想物体の音像としてシナリオから選択する行動決定部をさらに備える、前記(4)に記載の情報処理装置。
(6)
前記算出部は、前記選択された音コンテンツの音源種別に基づいて、当該音コンテンツの定位位置を算出する、前記(5)に記載の情報処理装置。
(7)
前記音コンテンツの音源種別は、声の音源、足音の音源、衣擦れの音源、持ち物の音源、または乗り物の音源であって、
前記算出部は、前記音源種別に対応する前記仮想キャラクタの部位の高さと、前記ユーザの状態に関する情報に基づく前記ユーザの頭部の高さとの相対関係に基づいて、前記音コンテンツを定位させる高さを算出する、前記(6)に記載の情報処理装置。
(8)
前記算出部は、前記ユーザの耳との相対的な位置関係に基づいて前記高さを算出する、前記(7)に記載の情報処理装置。
(9)
前記仮想キャラクタの部位は、頭、胴体、足、靴、前記仮想キャラクタが所持する鞄、または前記仮想キャラクタが乗っている乗り物であって、
前記仮想キャラクタの部位の位置は、前記仮想物体に関する情報および前記決定された仮想キャラクタの行動に基づき算出される、前記(7)または(8)に記載の情報処理装置。
(10)
前記情報処理装置は、
前記決定された仮想キャラクタの行動に対応する前記音コンテンツが前記シナリオから選択された際、前記シナリオを更新する更新部をさらに備える、
前記(5)〜(9)のいずれか1項に記載の情報処理装置。
(11)
音像定位により現実空間に存在するよう知覚させる仮想物体に関する情報と、ユーザの状態に関する情報とに基づいて、前記ユーザに対する前記仮想物体の音源の相対的な定位位置を算出部により算出することと、
前記算出された定位位置に音像を定位させるよう前記音源の音声信号処理を音像定位部により行うことと、
を含む、情報処理方法。
(12)
コンピュータを、
音像定位により現実空間に存在するよう知覚させる仮想物体に関する情報と、ユーザの状態に関する情報とに基づいて、前記ユーザに対する前記仮想物体の音源の相対的な定位位置を算出する算出部と、
前記算出された定位位置に音像を定位させるよう前記音源の音声信号処理を行う音像定位部と、
として機能させるための、プログラム。
10 制御部
10a 状態・行動検出部
10b 仮想キャラクタ行動決定部
10c シナリオ更新部
10d 相対位置算出部
10e 音像定位部
10f 音声出力制御部
10g 再生履歴・フィードバック記憶制御部
11 通信部
12 マイクロホン
13 カメラ
14 9軸センサ
15 スピーカ
16 位置測位部
17 記憶部
20 仮想キャラクタ
Claims (12)
- 音像定位により現実空間に存在するよう知覚させる仮想物体に関する情報と、ユーザの状態に関する情報とに基づき、前記ユーザに対する前記仮想物体の音源の相対的な定位位置として、前記音源の種別に対応する前記仮想物体の部位を算出する算出部と、
前記算出された前記定位位置に前記音源の前記種別に応じた音像を定位させるよう前記音源の音声信号処理を行う音像定位部と、
を備える、情報処理装置。 - 前記音像の相対的な定位位置は、高さを含む3次元位置である、請求項1に記載の情報処理装置。
- 前記情報処理装置は、
前記音像定位部により処理された音声信号を音声出力部から再生するよう制御する音声出力制御部をさらに備える、請求項2に記載の情報処理装置。 - 前記ユーザの状態に関する情報は、前記ユーザの絶対位置、移動速度、向き、頭の位置、耳の高さ、またはこれらから認識される行動を含む、請求項3に記載の情報処理装置。
- 前記仮想物体は仮想キャラクタであって、
前記情報処理装置は、
認識された前記ユーザの行動に応じて前記仮想キャラクタの現実空間における仮想的な行動を決定し、決定した行動に対応する音コンテンツを前記仮想物体の音像としてシナリオから選択する行動決定部をさらに備える、請求項4に記載の情報処理装置。 - 前記算出部は、前記選択された音コンテンツの音源種別に基づいて、当該音コンテンツの定位位置を算出する、請求項5に記載の情報処理装置。
- 前記音コンテンツの音源種別は、声の音源、足音の音源、衣擦れの音源、持ち物の音源、または乗り物の音源であって、
前記算出部は、前記音源種別に対応する前記仮想キャラクタの部位の高さと、前記ユーザの状態に関する情報に基づく前記ユーザの頭部の高さとの相対関係に基づいて、前記音コンテンツを定位させる高さを算出する、請求項6に記載の情報処理装置。 - 前記算出部は、前記ユーザの耳との相対的な位置関係に基づいて前記高さを算出する、請求項7に記載の情報処理装置。
- 前記仮想キャラクタの部位は、頭、胴体、足、靴、前記仮想キャラクタが所持する鞄、または前記仮想キャラクタが乗っている乗り物であって、
前記仮想キャラクタの部位の位置は、前記仮想物体に関する情報および前記決定された仮想キャラクタの行動に基づき算出される、請求項7または8に記載の情報処理装置。 - 前記情報処理装置は、
前記決定された仮想キャラクタの行動に対応する前記音コンテンツが前記シナリオから選択された際、前記シナリオを更新する更新部をさらに備える、
請求項5〜9のいずれか1項に記載の情報処理装置。 - 音像定位により現実空間に存在するよう知覚させる仮想物体に関する情報と、ユーザの状態に関する情報とに基づき、前記ユーザに対する前記仮想物体の音源の相対的な定位位置として、前記音源の種別に対応する前記仮想物体の部位を算出部により算出することと、
前記算出された前記定位位置に前記音源の前記種別に応じた音像を定位させるよう前記音源の音声信号処理を音像定位部により行うことと、
を含む、情報処理方法。 - コンピュータを、
音像定位により現実空間に存在するよう知覚させる仮想物体に関する情報と、ユーザの状態に関する情報とに基づき、前記ユーザに対する前記仮想物体の音源の相対的な定位位置として、前記音源の種別に対応する前記仮想物体の部位を算出する算出部と、
前記算出された前記定位位置に前記音源の前記種別に応じた音像を定位させるよう前記音源の音声信号処理を行う音像定位部と、
として機能させるための、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015100638 | 2015-05-18 | ||
JP2015100638 | 2015-05-18 | ||
PCT/JP2016/053681 WO2016185740A1 (ja) | 2015-05-18 | 2016-02-08 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016185740A1 JPWO2016185740A1 (ja) | 2018-03-08 |
JP6673346B2 true JP6673346B2 (ja) | 2020-03-25 |
Family
ID=57319795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017518777A Active JP6673346B2 (ja) | 2015-05-18 | 2016-02-08 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (2) | US10477336B2 (ja) |
EP (2) | EP3300392B1 (ja) |
JP (1) | JP6673346B2 (ja) |
CN (1) | CN107534824B (ja) |
WO (1) | WO2016185740A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3280154B1 (en) * | 2016-08-04 | 2019-10-02 | Harman Becker Automotive Systems GmbH | System and method for operating a wearable loudspeaker device |
US10579879B2 (en) | 2016-08-10 | 2020-03-03 | Vivint, Inc. | Sonic sensing |
JP2018101452A (ja) * | 2016-12-20 | 2018-06-28 | カシオ計算機株式会社 | 出力制御装置、コンテンツ記憶装置、出力制御方法、コンテンツ記憶方法、プログラム及びデータ構造 |
CN110495190B (zh) * | 2017-04-10 | 2021-08-17 | 雅马哈株式会社 | 语音提供设备、语音提供方法和程序记录介质 |
CN110999327B (zh) * | 2017-07-31 | 2022-01-14 | 索尼公司 | 信息处理装置、信息处理方法以及程序 |
KR102590801B1 (ko) * | 2017-11-23 | 2023-10-17 | 주식회사 넥슨코리아 | 게임 서비스를 제공하기 위한 장치, 방법 및 컴퓨터 프로그램 |
US10674305B2 (en) * | 2018-03-15 | 2020-06-02 | Microsoft Technology Licensing, Llc | Remote multi-dimensional audio |
CN108492363B (zh) * | 2018-03-26 | 2020-03-10 | Oppo广东移动通信有限公司 | 基于增强现实的结合方法、装置、存储介质及电子设备 |
JP7396267B2 (ja) * | 2018-03-29 | 2023-12-12 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11533348B2 (en) * | 2018-03-29 | 2022-12-20 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
JP2021103341A (ja) * | 2018-03-30 | 2021-07-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および、プログラム |
JP6953354B2 (ja) * | 2018-05-24 | 2021-10-27 | グリー株式会社 | ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置 |
CN108854069B (zh) * | 2018-05-29 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 音源确定方法和装置、存储介质及电子装置 |
CN108744516B (zh) * | 2018-05-29 | 2020-09-29 | 腾讯科技(深圳)有限公司 | 获取定位信息的方法和装置、存储介质及电子装置 |
CN109597481B (zh) * | 2018-11-16 | 2021-05-04 | Oppo广东移动通信有限公司 | Ar虚拟人物绘制方法、装置、移动终端及存储介质 |
EP3859516A1 (en) * | 2020-02-03 | 2021-08-04 | Nokia Technologies Oy | Virtual scene |
CN112612445A (zh) * | 2020-12-28 | 2021-04-06 | 维沃移动通信有限公司 | 音频播放方法和装置 |
US20220312144A1 (en) * | 2021-03-24 | 2022-09-29 | Sony Group Corporation | Sound signal generation circuitry and sound signal generation method |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001055833A1 (en) * | 2000-01-28 | 2001-08-02 | Lake Technology Limited | Spatialized audio system for use in a geographical environment |
JP2003305278A (ja) | 2002-04-15 | 2003-10-28 | Sony Corp | 情報処理装置及び情報処理方法、記憶媒体、並びにコンピュータ・プログラム |
JP2004348647A (ja) | 2003-05-26 | 2004-12-09 | Hitachi Ltd | ヒューマン・コミュニケーション・システム |
JP2005020455A (ja) * | 2003-06-26 | 2005-01-20 | Ricoh Co Ltd | 音声ガイダンス装置およびオフィス機器 |
US7585252B2 (en) * | 2007-05-10 | 2009-09-08 | Sony Ericsson Mobile Communications Ab | Personal training device using multi-dimensional spatial audio |
US20120031487A1 (en) | 2010-02-24 | 2012-02-09 | Iowa State University Research Foundation, Inc. | Nanoscale High-Aspect-Ratio Metallic Structure and Method of Manufacturing Same |
US9361729B2 (en) * | 2010-06-17 | 2016-06-07 | Microsoft Technology Licensing, Llc | Techniques to present location information for social networks using augmented reality |
US9111326B1 (en) * | 2010-12-21 | 2015-08-18 | Rawles Llc | Designation of zones of interest within an augmented reality environment |
JP5821307B2 (ja) * | 2011-06-13 | 2015-11-24 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20140133658A1 (en) * | 2012-10-30 | 2014-05-15 | Bit Cauldron Corporation | Method and apparatus for providing 3d audio |
CH706680A2 (de) * | 2012-06-25 | 2013-12-31 | Fritz Menzer | Verfahren und Vorrichtung zur auditorischen Unterstützung von sportlicher Betätigung. |
US8903104B2 (en) * | 2013-04-16 | 2014-12-02 | Turtle Beach Corporation | Video gaming system with ultrasonic speakers |
-
2016
- 2016-02-08 JP JP2017518777A patent/JP6673346B2/ja active Active
- 2016-02-08 EP EP16796135.8A patent/EP3300392B1/en active Active
- 2016-02-08 WO PCT/JP2016/053681 patent/WO2016185740A1/ja active Application Filing
- 2016-02-08 EP EP20176465.1A patent/EP3723391A1/en not_active Withdrawn
- 2016-02-08 US US15/559,586 patent/US10477336B2/en not_active Expired - Fee Related
- 2016-02-08 CN CN201680027350.4A patent/CN107534824B/zh not_active Expired - Fee Related
-
2019
- 2019-10-21 US US16/658,485 patent/US11128972B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2016185740A1 (ja) | 2018-03-08 |
EP3300392B1 (en) | 2020-06-17 |
US20180048976A1 (en) | 2018-02-15 |
US11128972B2 (en) | 2021-09-21 |
CN107534824B (zh) | 2019-10-18 |
EP3300392A1 (en) | 2018-03-28 |
CN107534824A (zh) | 2018-01-02 |
EP3723391A1 (en) | 2020-10-14 |
US20200053498A1 (en) | 2020-02-13 |
US10477336B2 (en) | 2019-11-12 |
WO2016185740A1 (ja) | 2016-11-24 |
EP3300392A4 (en) | 2018-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6673346B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11240624B2 (en) | Information processing apparatus, information processing method, and program | |
US11017431B2 (en) | Information processing apparatus and information processing method | |
US11683471B2 (en) | Information processing device and information processing method | |
JP7456463B2 (ja) | 情報処理装置、情報処理方法、並びにプログラム | |
US11806621B2 (en) | Gaming with earpiece 3D audio | |
WO2018101279A1 (ja) | 情報処理装置及び情報処理方法、並びにコンピュータ・プログラム | |
WO2018092486A1 (ja) | 情報処理装置、方法及びプログラム | |
WO2022149496A1 (ja) | エンタテインメントシステムおよびロボット | |
JP2020042593A (ja) | プログラム、情報処理装置、および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181217 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200217 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6673346 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |