JP2015037242A - Reception device, reception method, transmission device, and transmission method - Google Patents
Reception device, reception method, transmission device, and transmission method Download PDFInfo
- Publication number
- JP2015037242A JP2015037242A JP2013168261A JP2013168261A JP2015037242A JP 2015037242 A JP2015037242 A JP 2015037242A JP 2013168261 A JP2013168261 A JP 2013168261A JP 2013168261 A JP2013168261 A JP 2013168261A JP 2015037242 A JP2015037242 A JP 2015037242A
- Authority
- JP
- Japan
- Prior art keywords
- content
- distance
- information
- user
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本技術は、受信装置、受信方法、送信装置、及び、送信方法に関し、特に、ユーザの手を煩わせることなく、コンテンツを提示することができるようにした受信装置、受信方法、送信装置、及び、送信方法に関する。 The present technology relates to a receiving device, a receiving method, a transmitting device, and a transmitting method, and in particular, a receiving device, a receiving method, a transmitting device, and a device that can present content without bothering a user. , Relating to the transmission method.
近年、ユーザが身につけて持ち歩くことができるウェアラブルコンピュータ(Wearable Computer)の研究が行われている(例えば、特許文献1参照)。また、仮想的なコンテンツを、実空間の対象物に重畳してユーザに提示する拡張現実(AR:Augmented Reality)と称される技術が注目されている(例えば、特許文献2参照)。 In recent years, research on wearable computers that can be worn and carried by users has been conducted (see, for example, Patent Document 1). Further, a technique called augmented reality (AR) that superimposes virtual content on an object in real space and presents it to a user has attracted attention (see, for example, Patent Document 2).
ところで、ウェアラブルコンピュータにAR技術を適用して、ウェアラブルコンピュータを装着したユーザに対し、仮想的なコンテンツを再生して実空間の対象物に重畳して提示するという要求はあるが、ウェアラブルコンピュータは、従来からの情報端末と比べて操作系に制約が多いことから、コンテンツの再生時に、ユーザの操作が煩雑になることが想定される。 By the way, there is a request to apply AR technology to a wearable computer and to reproduce the virtual content and to present it superimposed on the object in the real space for the user wearing the wearable computer. Compared to conventional information terminals, there are more restrictions on the operation system, so it is assumed that the user's operation becomes complicated at the time of content reproduction.
しかしながら、現状では、ウェアラブルコンピュータにおいて、コンテンツを再生してユーザに提示するための技術方式は確立されていない。 However, at present, a technical method for reproducing and presenting content to a user in a wearable computer has not been established.
本技術はこのような状況に鑑みてなされたものであり、ウェアラブルコンピュータにおいて、ユーザの手を煩わせることなく、コンテンツを提示することができるようにするものである。 The present technology has been made in view of such a situation, and allows a wearable computer to present content without bothering a user.
本技術の第1の側面の受信装置は、拡張現実空間内でターゲットの位置に配置されるコンテンツを受信する受信部と、実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得する距離情報取得部と、前記距離情報に応じて、前記コンテンツの再生を制御する再生制御部とを備える。 A receiving device according to a first aspect of the present technology includes a receiving unit that receives content arranged at a target position in augmented reality space, and a distance indicating a distance from the current position of the user to the target position in real space A distance information acquisition unit that acquires information, and a reproduction control unit that controls reproduction of the content according to the distance information.
前記再生制御部は、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する。 The reproduction control unit reproduces the content so as to change stepwise according to the distance information.
前記ユーザの眼の前方に位置するように配置されて情報を表示するとともに、その表示領域を透明又は半透明な状態とすることができる表示部をさらに備え、前記表示部は、再生中の前記コンテンツの映像を表示する。 The display unit further includes a display unit arranged to be positioned in front of the user's eyes and capable of displaying the information in a transparent or translucent state. Display content video.
再生中の前記コンテンツの音声を出力する音声出力部をさらに備える。 An audio output unit that outputs audio of the content being reproduced is further provided.
任意のセグメントによる放送であるエリア放送を受信するためのチャンネル情報を取得するチャンネル情報取得部をさらに備え、前記受信部は、前記チャンネル情報を用いて、前記エリア放送を行う送信機から送信される放送波を受信することが可能な放送エリアにおいて、前記エリア放送のコンテンツを受信する。 It further comprises a channel information acquisition unit that acquires channel information for receiving an area broadcast that is a broadcast by an arbitrary segment, and the reception unit is transmitted from a transmitter that performs the area broadcast using the channel information. In a broadcast area where broadcast waves can be received, the content of the area broadcast is received.
前記距離情報取得部は、前記ユーザの現在位置と、前記チャンネル情報に含まれる前記送信機の送信点位置を用いて前記距離情報を算出する。 The distance information acquisition unit calculates the distance information using the current position of the user and the transmission point position of the transmitter included in the channel information.
前記距離情報取得部は、前記ユーザの現在位置と、前記ターゲットの位置を用いて前記距離情報を算出する。 The distance information acquisition unit calculates the distance information using the current position of the user and the position of the target.
前記再生制御部は、前記チャンネル情報に含まれる距離基準情報を基準にして、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する。 The reproduction control unit reproduces the content so as to change stepwise according to the distance information with reference to the distance reference information included in the channel information.
前記再生制御部は、前記コンテンツの映像と音声のうち少なくとも一方の再生を段階的に変化させる。 The reproduction control unit changes reproduction of at least one of the video and audio of the content stepwise.
前記再生制御部は、前記ユーザの現在位置と、前記ターゲットの位置との距離が近づくに連れて、前記コンテンツの音声の音量が大きくなるようにする。 The reproduction control unit increases the sound volume of the content as the distance between the current position of the user and the position of the target approaches.
前記ユーザの視線の方向を示す視線情報を取得する視線情報取得部をさらに備え、前記再生制御部は、前記視線情報に応じて、前記コンテンツを再生する。 It further includes a line-of-sight information acquisition unit that acquires line-of-sight information indicating the direction of the user's line of sight, and the reproduction control unit reproduces the content according to the line-of-sight information.
前記再生制御部は、前記ユーザの視線が前記ターゲットの方向にある場合、前記コンテンツの映像又は音声を再生し、前記ユーザの視線が前記ターゲットの方向にない場合、前記コンテンツの映像を停止するか又は音声の音量を調整する。 Whether the playback control unit plays the video or audio of the content when the user's line of sight is in the target direction, and stops the video of the content when the user's line of sight is not in the target direction Or adjust the audio volume.
前記受信装置は、左眼用と右眼用の一対の前記表示部を有する眼鏡型の無線通信機である。 The receiving device is a glasses-type wireless communication device having a pair of display units for left eye and right eye.
受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。 The receiving device may be an independent device or an internal block constituting one device.
本技術の第1の側面の受信方法は、上述した本技術の第1の側面の受信装置に対応する受信方法である。 The reception method according to the first aspect of the present technology is a reception method corresponding to the reception device according to the first aspect of the present technology described above.
本技術の第1の側面の受信装置及び受信方法においては、拡張現実空間内でターゲットの位置に配置されるコンテンツが受信され、実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報が取得され、前記距離情報に応じて、前記コンテンツの再生が制御される。 In the receiving device and the receiving method according to the first aspect of the present technology, content arranged at the target position in the augmented reality space is received, and the distance from the current position of the user to the target position in the real space is indicated. Distance information is acquired, and reproduction of the content is controlled in accordance with the distance information.
本技術の第2の側面の送信装置は、任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報を取得するチャンネル情報取得部と、前記チャンネル情報を、前記受信機に送信する送信部とを備える。 The transmission device according to the second aspect of the present technology is channel information for a receiver to receive area broadcast content that is broadcast by an arbitrary segment, and is arranged at a target position in the augmented reality space. A channel information acquisition unit that acquires the channel information including information used for controlling reproduction of content of area broadcast, and a transmission unit that transmits the channel information to the receiver.
前記チャンネル情報は、実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報の計算に用いられる送信機の送信点位置を含む。 The channel information includes a transmission point position of a transmitter used for calculation of distance information indicating a distance from the current position of the user in real space to the position of the target.
前記チャンネル情報は、前記エリア放送のコンテンツを前記距離情報に応じて段階的に変化するように再生させる際の基準となる距離基準情報を含む。 The channel information includes distance reference information serving as a reference when reproducing the content of the area broadcast so as to change stepwise according to the distance information.
送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。 The transmission device may be an independent device or an internal block constituting one device.
本技術の第2の側面の送信方法は、上述した本技術の第2の側面の送信装置に対応する送信方法である。 The transmission method according to the second aspect of the present technology is a transmission method corresponding to the transmission device according to the second aspect of the present technology described above.
本技術の第2の側面の送信装置及び送信方法においては、任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報が取得され、前記チャンネル情報が、前記受信機に送信される。 In the transmission device and the transmission method according to the second aspect of the present technology, channel information for a receiver to receive content of an area broadcast, which is broadcast by an arbitrary segment, is positioned at a target position in augmented reality space. The channel information including information used for controlling the reproduction of the content of the area broadcast to be arranged is acquired, and the channel information is transmitted to the receiver.
本技術の第1の側面及び第2の側面によれば、ユーザの手を煩わせることなく、コンテンツを提示することができる。 According to the first aspect and the second aspect of the present technology, it is possible to present content without bothering the user.
以下、図面を参照しながら本技術の実施の形態について説明する。 Hereinafter, embodiments of the present technology will be described with reference to the drawings.
<エリア放送システムの構成> <Configuration of area broadcasting system>
図1は、本技術を適用したエリア放送システムの一実施の形態の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of an embodiment of an area broadcasting system to which the present technology is applied.
エリア放送システム1は、ウェアラブル機器10を装着したユーザに対して、その現在位置とターゲットの位置との距離に応じたエリア放送のコンテンツを提示するものである。エリア放送システム1は、ウェアラブル機器10、エリア放送送信装置20、及び、情報サーバ30から構成される。また、ウェアラブル機器10と情報サーバ30は、無線ネットワーク2やインターネット等を介して相互に接続されている。
The
ウェアラブル機器10は、透過型のディスプレイ、ヘッドホン、カメラ部、及び、チューナ等を有する眼鏡型デバイスであって、ウェアラブルコンピュータの一例である。ウェアラブル機器10では、通常の眼鏡においてフレームに取り付けられるレンズの位置に、左眼用と右眼用の一対の透過型のディスプレイが配置されている。これにより、例えば、ウェアラブル機器10を装着したユーザが透過型のディスプレイを通して見る対象物に、その対象物に関連した付加情報をAR(拡張現実)技術により重ねて表示したり、見ている風景を撮影してその撮影画像を、他のユーザと共有したりすることができる。
The
また、ウェアラブル機器10は、GPS(Global Positioning System)機能を有しており、GPS衛星3からの信号を受信することで、ウェアラブル機器10を装着したユーザの現在位置を取得することができる。
The
エリア放送送信装置20は、任意のセグメントによる放送(例えばワンセグメント放送やフルセグメント放送)であるエリア放送の放送波を送信する送信機である。ただし、エリア放送は、エリア放送送信装置20を中心とする数10m乃至数km程度のエリアを、その放送波を受信することができる放送エリアとして放送を行うため、所定の放送エリアでのみ受信可能となる。
The area
情報サーバ30は、チャンネル情報を管理している。情報サーバ30は、ウェアラブル機器10からの要求に応じて、無線ネットワーク2等を介して、チャンネル情報を提供する。ここで、チャンネル情報とは、エリア放送の受信機がエリア放送を受信するための情報である。例えば、チャンネル情報には、後述する物理チャンネル番号、サービスID、信号形式、送信点位置、サービス距離などの情報が含まれる。
The
ウェアラブル機器10は、無線ネットワーク2等を介して、情報サーバ30からチャンネル情報を取得する。これにより、ウェアラブル機器10は、ウェアラブル機器10を装着したユーザが、エリア放送送信装置20の放送エリア内にいる場合に、チャンネル情報を用いて自動的に選局を行い、エリア放送送信装置20からのエリア放送の放送波を受信することになる。そして、ウェアラブル機器10は、エリア放送のコンテンツの映像を、左眼用と右眼用の一対の透過型のディスプレイに表示するとともに、その映像に同期した音声をヘッドホンから出力することができる。
The
エリア放送システム1は、以上のように構成される。
The
<各装置の構成例> <Configuration example of each device>
次に、図2乃至図11を参照して、図1のエリア放送システム1を構成する各装置の構成例について説明する。
Next, with reference to FIG. 2 to FIG. 11, a configuration example of each device constituting the
(ウェアラブル機器の外観)
図2は、図1のウェアラブル機器10の外観を示す図である。
(Appearance of wearable device)
FIG. 2 is a diagram showing an appearance of the
図2に示すように、ウェアラブル機器10は、ユーザの頭部に装着される眼鏡型のフレーム100と、そのフレーム100に取り付けられた左眼用と右眼用の一対の透過型のディスプレイ106L,106Rを有している。
As shown in FIG. 2, the
左眼用と右眼用の一対の透過型のディスプレイ106L,106Rは、装着状態においてユーザの両眼の直前、すなわち、通常の眼鏡におけるレンズが位置する場所に配置される構成となっている。ディスプレイ106L,106Rには、例えば透過型の液晶パネルが用いられ、その透過率を制御することで、透明又は半透明の透過状態とすることができる。つまり、透過型のディスプレイ106L,106Rが、透過状態となることで、通常の眼鏡のように、ユーザが常時装着していても、通常の生活に支障がでることはない。 The pair of transmissive displays 106L and 106R for the left eye and the right eye are arranged immediately before the user's eyes in the wearing state, that is, at a position where a lens in normal glasses is located. For the displays 106L and 106R, for example, a transmissive liquid crystal panel is used. By controlling the transmittance, the transparent or translucent transmissive state can be obtained. In other words, since the transmissive displays 106L and 106R are in a transmissive state, even if the user is always wearing like normal glasses, there is no problem in normal life.
ディスプレイ106L,106Rには、各種の情報を表示させることができる。例えば、ウェアラブル機器10では、ディスプレイ106L,106Rを通して見える人物や構造物などの対象物を、同時にカメラ部115で撮影して解析することで、その対象物に関連した付加情報を重ねて表示するマーカレスARを実現することができる。ここで、マーカレスARとは、特定のマーカなどを利用することなく、現実の環境に存在している物体や、その環境自体を空間的に認識することで、付加情報の提示位置を特定して提示する技術である。
Various information can be displayed on the displays 106L and 106R. For example, in the
また、ウェアラブル機器10は、ウェアラブル機器10を装着したユーザがエリア放送送信装置20の放送エリア内にいる場合に、アンテナ112によってエリア放送送信装置20からのエリア放送の放送波を受信し、そのコンテンツの映像を、透過型のディスプレイ106L,106Rに表示するとともに、映像に同期した音声をヘッドホン107から出力することができる。
なお、図2に示すように、ウェアラブル機器10は、UI用センサ116によるユーザの操作検出機能や、視線検出用センサ117によるユーザの視線検出機能など機能を有するが、その詳細は、図3を参照して後述する。また、以下、左眼用の透過型のディスプレイ106Lと、右眼用の透過型のディスプレイ106Rを区別する必要がない場合、単にディスプレイ106と称して説明する。
As shown in FIG. 2, the
(ウェアラブル機器の内部構成)
図3は、図1のウェアラブル機器10の内部構成を示すブロック図である。
(Internal configuration of wearable device)
FIG. 3 is a block diagram showing an internal configuration of the
図3に示すように、ウェアラブル機器10は、CPU101、ROM102、RAM103、ディスプレイ106、ヘッドホン107、アンテナ108、GPS部109、アンテナ110、通信部111、アンテナ112、チューナ113、ジャイロセンサ114、カメラ部115、UI用センサ116、視線検出用センサ117、映像音声処理部118、及び、電源部119から構成される。
As shown in FIG. 3, the
ウェアラブル機器10において、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。CPU101は、ROMに記録された制御プログラムを実行することで、ウェアラブル機器10の各部の動作を制御する。また、RAM103には、各種のデータが適宜記録される。
In the
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、ディスプレイ106、ヘッドホン107、GPS部109、通信部111、チューナ113、ジャイロセンサ114、カメラ部115、UI用センサ116、視線検出用センサ117、及び、映像音声処理部118が接続されている。
An input /
ディスプレイ106は、上述した左眼用と右眼用の一対の透過型のディスプレイ106L,106Rである。ヘッドホン107は、ユーザの耳に近接した位置に配置される小型のヘッドホンである。
The
GPS部109は、CPU101からの制御に従い、アンテナ108を介して、GPS衛星3からの信号を受信することで、ユーザの現在位置を取得する。
The
通信部111は、CPU101からの制御に従い、アンテナ110を介して、無線ネットワーク2に接続し、情報サーバ30等の各種のサーバ等と情報のやりとりを行う。なお、図示はしていないが、ウェアラブル機器10は、近距離無線通信部を有しており、Bluetooth(登録商標)等の近距離無線通信規格に従い、スマートフォン等の他の電子機器との間で無線通信を行い、情報をやりとりすることができる。
The
チューナ113は、CPU101からの制御に従い、アンテナ112を介して受信された放送信号から、所定のチャンネルのエリア放送の信号を選局して復調し、その結果得られるTS(Transport Stream)を映像音声処理部118に供給する。
In accordance with control from the
ジャイロセンサ114は、ウェアラブル機器10の回転角度を検出し、その検出結果をCPU101に供給する。なお、図示はしていないが、重力加速度を検出する加速度センサや地磁気を検出する地磁気センサ等の各種のセンサを設け、それらの検出結果がCPU101に供給されるようにしてもよい。例えば、CPU101は、それらのセンサからの検出結果を用い、いわゆる自律航法によりGPS機能を用いずに、ユーザの現在位置を取得することができる。また、CPU101は、それらのセンサからの検出結果を用い、ウェアラブル機器10の姿勢や動作を検出するようにしてもよい。
The
カメラ部115は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子を含んで構成される外向きカメラであり、ディスプレイ106を通して見える被写体を撮影するための機能を有する。カメラ部115は、被写体を撮影して所定の画像処理が施された画像データを、CPU101に供給する。
The
UI用センサ116は、例えば、ユーザによりフレーム100に対して行われる入力操作を検出し、その検出結果をCPU101に供給する。CPU101は、UI用センサ116からの検出結果に応じて、ウェアラブル機器10の各部の動作を制御する。なお、ユーザによる操作は、例えばジェスチャや音声入力などで行ってもよく、ウェアラブル機器10は、それらの操作を検出するためのセンサなどを設けることができる。
For example, the
視線検出用センサ117は、例えば、ユーザの眼を撮影可能な位置に設けられる内向きのカメラなどから構成される。視線検出用センサ117は、ウェアラブル機器10を装着したユーザの視線の方向を検出し、その検出結果をCPU101に供給する。
The line-of-
映像音声処理部118は、CPU101からの制御に従い、チューナ113から供給されるTSを、ビデオデータ、オーディオデータ、各種のデータなどに分離する。映像音声処理部118は、CPU101からの制御に従い、ビデオデータとオーディオデータを復号し、ディスプレイ106とヘッドホン107にそれぞれ供給する。
The video /
ディスプレイ106は、映像音声処理部118から供給されるビデオデータに基づいて、エリア放送のコンテンツの映像を表示する。また、ヘッドホン107は、映像音声処理部118から供給されるオーディオデータに対応する音声、すなわち、エリア放送のコンテンツの音声を出力する。
The
電源部119は、蓄電池又は外部電源等から得られる電源電力を、CPU101を含むウェアラブル機器10の各部に供給する。
The power supply unit 119 supplies power supplied from a storage battery or an external power supply to each unit of the
(制御プログラム)
図4は、図3のCPU101により実行される制御プログラムのうち、ウェアラブル機器10を装着したユーザに対して、その現在位置とターゲットの位置との距離に応じたエリア放送のコンテンツを提示する処理を行う部分を示すブロック図である。
(Control program)
FIG. 4 shows a process of presenting area broadcast content according to the distance between the current position and the target position to the user wearing the
図4に示すように、制御プログラム151は、チャンネル情報取得部161、位置情報取得部162、距離情報取得部163、視線情報取得部164、及び、再生制御部165を有する。
As illustrated in FIG. 4, the
チャンネル情報取得部161は、通信部111を制御することで、無線ネットワーク2を介して情報サーバ30からチャンネル情報を取得する。また、チャンネル情報取得部161は、チャンネル情報に含まれる送信点位置(以下、「送信点位置PT」とも記述する)を取得し、距離情報取得部163に供給する。さらに、チャンネル情報取得部161は、チャンネル情報に含まれるサービス距離(例えば、DA,DB,DC)を取得し、再生制御部165に供給する。
The channel
位置情報取得部162は、GPS部109を制御することで、GPS衛星3からの信号に応じたユーザの現在位置(以下、「現在位置pu」とも記述する)を取得し、距離情報取得部163に供給する。
The position
距離情報取得部163は、チャンネル情報取得部161から供給される送信点位置PTと、位置情報取得部162から供給される現在位置puを用い、所定の演算式(例えば、後述する式(1))を演算することで、実空間におけるユーザの現在位置からターゲットまでの距離Dを算出し、再生制御部165に供給する。
The distance
視線情報取得部164は、視線検出用センサ117を制御することで、ユーザの視線の方向を示す視線情報を取得し、再生制御部165に供給する。
The line-of-sight
再生制御部165は、映像音声処理部118を制御することで、エリア放送のコンテンツの再生を制御する。具体的には、再生制御部165は、距離情報取得部163から供給される距離Dと、チャンネル情報取得部161から供給されるサービス距離(例えば、DA,DB,DC)との大小関係に基づいて、エリア放送のコンテンツの映像若しくは音声の開始や停止、又は音声の音量の調整などを制御する。
The reproduction control unit 165 controls the reproduction of the area broadcast content by controlling the video /
また、再生制御部165は、視線情報取得部164から供給される視線情報に基づいて、エリア放送のコンテンツの再生を制御する。例えば、再生制御部165は、ユーザの視線がターゲットの方向にある場合、エリア放送のコンテンツの映像又は音声を再生し、ユーザの視線がターゲットの方向にない場合、エリア放送のコンテンツの映像を停止するか又は音声の音量を調整する。
Also, the playback control unit 165 controls the playback of area broadcast content based on the line-of-sight information supplied from the line-of-sight
(ウェアラブル機器の状態遷移)
図5は、図1のウェアラブル機器10の状態遷移を示す図である。
(State transition of wearable device)
FIG. 5 is a diagram illustrating state transition of the
図5に示すように、ウェアラブル機器10は起動後、初期化されると、GPS部109によるGPS機能、通信部111による無線通信機能、及び、カメラ部115による撮影機能等がオンされ、センシングが開始される。このとき、ウェアラブル機器10は、チューナ113による選局が停止した状態(以下、「チューナ停止中」という)となる。
As shown in FIG. 5, when the
ウェアラブル機器10では、センシングが継続されることで、ターゲットが認識された場合、情報サーバ30からチャンネル情報が取得され、エリア放送送信装置20からのエリア放送の放送波の受信が開始される。このとき、ウェアラブル機器10は、チューナ113による選局が行われている状態(以下、「チューナ受信中」という)となる。
In the
その後、ウェアラブル機器10では、センシングが継続されることで、ユーザの現在位置からターゲットの位置までの距離Dと、サービス距離(例えば、DA,DB,DC)との大小関係が比較され、その比較結果に従い、エリア放送のコンテンツの再生が制御される。このとき、ウェアラブル機器10は、コンテンツの映像のみの再生が行われている状態(以下、「映像再生中」という)、コンテンツの映像と音声の両方の再生が行われている状態(以下、「映像音声再生中」という)、又はコンテンツの音声のみの再生が行われている状態(以下、「音声再生中」という)のいずれかの状態となる。
Thereafter, in the
なお、ウェアラブル機器10は、例えばユーザの設定や終了操作などにより、センシングが停止すると、上述した5つの状態のいずれにも属さなくなり、ユーザに対する、距離Dに応じたエリア放送のコンテンツの提示を終了することになる。
The
以上のように、ウェアラブル機器10は、ウェアラブル機器10を装着したユーザの現在位置とターゲットの位置との距離Dに応じて、「映像再生中」、「映像音声再生中」、又は「音声再生中」等の状態に遷移することで、エリア放送のコンテンツの再生状態を段階的に変化させることができる。これにより、ウェアラブル機器10を装着したユーザは、特別な操作をすることなく、段階的に変化するコンテンツを視聴することができる。
As described above, the
(エリア放送の概要)
次に、図1のエリア放送送信装置20と情報サーバ30の詳細構成について説明するが、ここではまず、図6乃至図9を参照して、エリア放送の概要について説明する。
(Outline of area broadcasting)
Next, detailed configurations of the area
図6は、エリア放送の概要を説明する図である。なお、エリア放送は、特開2011−211627号公報などにも開示されているように、任意のセグメントによる放送の放送波を送信する送信装置を中心とする数10m乃至数km程度のエリアを、その放送波を受信することができる放送エリアとして放送を行うものであり、その運用が既に開始されている。 FIG. 6 is a diagram for explaining the outline of area broadcasting. In addition, as disclosed in Japanese Patent Application Laid-Open No. 2011-212627, the area broadcast is an area of about several tens of meters to several kilometers centered on a transmission device that transmits a broadcast wave of a broadcast by an arbitrary segment. Broadcasting is performed as a broadcasting area where the broadcast wave can be received, and its operation has already been started.
エリア放送送信装置20−1乃至20−3は、エリア放送の放送波を送信する送信機であり、地上デジタル放送の空きチャンネルの任意の1以上のセグメントのそれぞれで、エリア放送の放送波を送信する。エリア放送送信装置20−1乃至20−3は、例えば、市街地の構造物に実際に掲示される映画のポスタや、AR技術により構造物に重畳される映画のポスタなどが表示されるビルの壁などの各ターゲットの近傍に設置される。 The area broadcast transmitters 20-1 to 20-3 are transmitters that transmit broadcast waves of area broadcasts, and transmit broadcast waves of area broadcasts in each of any one or more segments of vacant channels of digital terrestrial broadcasting. To do. The area broadcast transmitters 20-1 to 20-3 are, for example, building walls that display movie posters that are actually posted on urban structures and movie posters that are superimposed on structures using AR technology. It is installed near each target.
エリア放送送信装置20−1は、放送エリアAでのみ受信可能なエリア放送を行う。エリア放送送信装置20−2は、放送エリアBでのみ受信可能なエリア放送を行い、エリア放送送信装置20−3は、放送エリアCでのみ受信可能なエリア放送を行う。ここで、エリア放送としては、例えば、映画の予告編や商品の宣伝などのターゲットの位置で再生されるコンテンツが放送される。また、エリア放送では、放送エリアが重複しないエリア放送局同士では、同一のセグメントで放送を行うことができる。 The area broadcast transmission apparatus 20-1 performs area broadcast that can be received only in the broadcast area A. The area broadcast transmission device 20-2 performs area broadcast that can be received only in the broadcast area B, and the area broadcast transmission device 20-3 performs area broadcast that can be received only in the broadcast area C. Here, as the area broadcast, for example, content that is reproduced at a target position such as a movie trailer or a product advertisement is broadcast. Moreover, in area broadcasting, it is possible to broadcast in the same segment between area broadcasting stations whose broadcasting areas do not overlap.
例えば、図6では、放送エリアAと放送エリアBとは、重複していないので、放送エリアAのエリア放送送信装置20−1と、放送エリアBのエリア放送送信装置20−2とでは、同一のセグメントで、エリア放送を行うことができる。また、図6では、放送エリアBと放送エリアCとは、重複していないので、放送エリアBのエリア放送送信装置20−2と、放送エリアCのエリア放送送信装置20−3とでは、同一のセグメントで、エリア放送を行うことができる。 For example, in FIG. 6, the broadcast area A and the broadcast area B do not overlap, so the area broadcast transmission device 20-1 in the broadcast area A and the area broadcast transmission device 20-2 in the broadcast area B are the same. Area broadcasting can be performed in this segment. In FIG. 6, the broadcast area B and the broadcast area C do not overlap, so the area broadcast transmission device 20-2 in the broadcast area B and the area broadcast transmission device 20-3 in the broadcast area C are the same. Area broadcasting can be performed in this segment.
ただし、図6では、放送エリアAと放送エリアCとは、一部が重複しているので、放送エリアAのエリア放送送信装置20−1と、放送エリアCのエリア放送送信装置20−3とでは、エリア放送に、同一のセグメントを用いることはできない。 However, in FIG. 6, since the broadcast area A and the broadcast area C partially overlap, the area broadcast transmission device 20-1 in the broadcast area A and the area broadcast transmission device 20-3 in the broadcast area C Then, the same segment cannot be used for area broadcasting.
ウェアラブル機器10は、例えば、図6に示すように、ウェアラブル機器10を装着したユーザが放送エリアAにいる場合、情報サーバ30からチャンネル情報を取得することで、放送エリアAのエリア放送送信装置20−1によるエリア放送を受信することができる。ここで、図7に示すように、チャンネル情報には、物理チャンネル番号、サービスID、信号形式、送信点位置、及び、サービス距離等のエリア放送送信装置20−1によるエリア放送に関する情報が含まれる。
For example, as shown in FIG. 6, when the user wearing the
物理チャンネル番号Chは、エリア放送送信装置20−1によるエリア放送の物理チャンネルの番号を示す情報である。また、サービスID Sidは、エリア放送送信装置20−1によるエリア放送のサービスの識別情報である。信号形式Fmは、エリア放送送信装置20−1によるエリア放送の信号の形式を示す情報である。 Physical channel number C h is information indicating a number of the physical channel area broadcasting by area broadcast transmitting device 20-1. The service ID S id is identification information of an area broadcast service by the area broadcast transmission apparatus 20-1. The signal format F m is information indicating the format of the area broadcast signal by the area broadcast transmission device 20-1.
送信点位置PTは、エリア放送送信装置20−1のアンテナの設置位置を示す情報である。例えば、送信点位置PTとしては、当該アンテナの設置位置を示す緯度と経度を示す位置情報が指定される。ただし、送信点位置PTには、アンテナの設置位置の代わりに、例えばビルの壁などに掲示(表示)される映画のポスタの位置などのターゲットの位置を指定するようにしてもよい。このように、ターゲットの位置を直接指定する場合には、エリア放送送信装置20−1をターゲットの近傍に設置する必要はない。 The transmission point position PT is information indicating the installation position of the antenna of the area broadcast transmission device 20-1. For example, as the transmission point position PT , position information indicating the latitude and longitude indicating the installation position of the antenna is specified. However, for the transmission point position PT , a target position such as the position of a film poster posted (displayed) on a wall of a building may be designated instead of the antenna installation position. Thus, when directly specifying the position of the target, it is not necessary to install the area broadcast transmission device 20-1 in the vicinity of the target.
サービス距離は、ユーザの現在位置からターゲットまでの距離Dに応じてウェアラブル機器10の状態を遷移させる際の基準となる距離を示す情報である。例えば、サービス距離は、距離DA,DB,DC(DA >DB > DC)の3段階で指定される。ただし、この例の場合、距離DAは、エリア放送送信装置20−1の放送エリアA内になることが想定される。なお、以下の説明では、距離DA,DB,DCの3段階の基準が指定された場合を例示するが段数は任意であり、この段数が多いほど、ウェアラブル機器10の状態をより細かい単位で遷移させることができる。
The service distance is information indicating a reference distance when the state of the
チャンネル情報は、例えばエリア放送の事業者により提供される。また、チャンネル情報に含まれる情報は任意であって、図7に示した情報以外の他の情報が含まれるようにしてもよいし、図7に示した情報が必ずしも含まれる必要はない。例えば、サービス距離は、各種の情報を用い、ウェアラブル機器10側で算出されるようにしてもよい。
The channel information is provided by, for example, an area broadcaster. Further, the information included in the channel information is arbitrary, and other information other than the information illustrated in FIG. 7 may be included, and the information illustrated in FIG. 7 is not necessarily included. For example, the service distance may be calculated on the
なお、チャンネル情報は、ウェアラブル機器10が情報サーバ30から直接ダウンロードするほか、情報サーバ30から、スマートフォン等のユーザが所持している電子機器にダウンロードし、そのスマートフォン等とウェアラブル機器10との間で、チャンネル情報をやりとりする無線通信などを行うことにより、ウェアラブル機器10において取得されるようにしてもよい。
The channel information is downloaded directly from the
因みに、エリア放送送信装置20から、セグメントで送信されるエリア放送情報記述子には、図8に示す項目が定義されている。すなわち、図8に示すように、station_id、area_codeは、それぞれ、ステーションID、地域コードである。また、format、emission_powerは、図9に示すように、それぞれ、信号形式、送信出力である。また、station_latitude、station_longitude、station_heightは、図9に示すように、それぞれ、送信局緯度、送信局経度、送信局高度である。さらに、directivity_pattern_bitmapは、図9に示すように、指向性パターンビットマップである。open_air_flag、closed_space_flag、station_mobility_flagは、それぞれ、オープンエアフラグ、閉空間フラグ、移動局フラグである。extended_info()は、拡張情報である。extended_info()は、extended_info_flagが1である場合に、エリア放送情報記述子に含まれる。
Incidentally, the items shown in FIG. 8 are defined in the area broadcast information descriptor transmitted by the segment from the area
(エリア放送送信装置の詳細構成例)
図10は、図1のエリア放送送信装置20の詳細構成例を示すブロック図である。図10において、エリア放送送信装置20は、コンテンツ取得部201、コンテンツ処理部202、及び、送信部203により構成される。
(Detailed configuration example of area broadcasting transmitter)
FIG. 10 is a block diagram illustrating a detailed configuration example of the area
コンテンツ取得部201は、内蔵するHDD(Hard Disk Drive)や、外部のサーバ、カメラ等から、エリア放送用のコンテンツのビデオデータを取得し、コンテンツ処理部202に供給する。また、コンテンツ取得部201は、内蔵するHDDや、外部のサーバ、マイクロフォン等から、エリア放送用のコンテンツのオーディオデータを取得し、コンテンツ処理部202に供給する。
The
コンテンツ処理部202は、コンテンツ取得部201から供給されるビデオデータを、MPEG(Moving Picture Experts Group)等の符号化方式に準拠して符号化する。また、コンテンツ処理部202は、コンテンツ取得部201から供給されるオーディオデータを、MPEG等の符号化方式に準拠して符号化する。
The
コンテンツ処理部202は、符号化により得られるビデオデータとオーディオデータ、さらに、PSI/SI等の各種のデータを多重化してTS(Transport Stream)を生成し、送信部203に供給する。送信部203は、コンテンツ処理部202から供給されるTSを、所定のセグメントでアンテナ204を介して、放送信号として送信する。
The
以上のように、エリア放送送信装置20は、例えば、ターゲットの近傍に設置され、映画の予告編や商品の宣伝など、ウェアラブル機器10を装着したユーザがディスプレイ106を通して見るターゲットの位置に配置されるコンテンツを送信する。
As described above, the area
(情報サーバの詳細構成例)
図11は、図1の情報サーバ30の詳細構成例を示すブロック図である。図11において、情報サーバ30は、制御部301、チャンネル情報取得部302、チャンネル情報保持部303、及び、通信部304により構成される。
(Detailed configuration example of information server)
FIG. 11 is a block diagram illustrating a detailed configuration example of the
制御部301は、情報サーバ30の各部の動作を制御する。チャンネル情報取得部302は、制御部301からの制御に従い、チャンネル情報を取得し、チャンネル情報保持部303に記録する。
The
制御部301は、ウェアラブル機器10からチャンネル情報が要求された場合、チャンネル情報保持部303からチャンネル情報を読み出して取得する。通信部304は、制御部301からの制御に従い、チャンネル情報を、無線ネットワーク2を介して、要求元のウェアラブル機器10に送信する。
When the channel information is requested from the
以上のように、情報サーバ30は、ウェアラブル機器10からの要求に応じて、無線ネットワーク2を介して、図7のチャンネル情報を提供する。
As described above, the
<ユースケース> <Use case>
次に、図12及び図13を参照して、本技術を用いた具体的なユースケースについて説明する。 Next, a specific use case using the present technology will be described with reference to FIGS. 12 and 13.
図12に示すように、市街地を歩いているユーザは、ウェアラブル機器10を装着しており、ディスプレイ106には、ディスプレイ106を通して見えるビルや店舗等の構造物に、映画のポスタ401や、広告402、403がAR技術により重畳されている。ここで、映画のポスタ401(が重畳表示されているビルの壁)がターゲットとして選択された場合、そのビルに向かって歩いているユーザの現在位置からターゲットの位置までの距離Dに応じて、ウェアラブル機器10の状態が遷移する。その結果、ウェアラブル機器10では、受信中のエリア放送のコンテンツ(図12の例では、ポスタ401の映画の予告編(トレーラ))の再生状態が段階的に変化することになる。
As shown in FIG. 12, a user walking in a city area is wearing the
すなわち、図13に示すように、ウェアラブル機器10は、距離D>DAとなる場合には、「チューナ停止中」の状態となっている。その後、ユーザの現在位置が移動することで距離Dが変化し、DB<D≦DAとなった場合、ウェアラブル機器10の状態は、「チューナ受信中」に遷移する。そして、ユーザの現在位置がさらに移動することで距離Dが変化し、DC<D≦DBとなった場合、ウェアラブル機器10の状態は、「映像再生中」に遷移する。これにより、ウェアラブル機器10においては、ポスタ401の映画の予告編の映像の再生が開始され、その映像がディスプレイ106に表示されることになる。
That is, as shown in FIG. 13, the
また、ユーザの現在位置が移動することで距離Dが変化し、D≦DCとなった場合、ウェアラブル機器10の状態は、「映像音声再生中」に遷移する。これにより、ウェアラブル機器10においては、ディスプレイ106に、ポスタ401の映画の予告編の映像が表示されるだけでなく、さらにその映像に同期した音声がヘッドホン107から出力されることになる。また、このとき、ヘッドホン107から出力される音声の音量は段階的に調整される。
The distance D is changed by the current position of the user moves, when a D ≦ D C, the state of the
ただし、ウェアラブル機器10は、視線情報に応じて、その状態が遷移する。具体的には、ウェアラブル機器10の状態が「映像再生中」である場合において、ユーザの視線の方向が上向き、すなわち、ターゲットの方向を向いている場合には、「映像再生中」の状態が維持される。一方、ユーザの視線の方向が下向き、すなわち、ターゲットの方向を向いていない場合には、「映像再生中」から「チューナ受信中」に状態が遷移し、ポスタ401の映画の予告編の映像の再生が停止されることになる。なお、ユーザの視線が下向きから上向きに変化した場合には、「チューナ受信中」から「映像再生中」に状態が遷移し、ポスタ401の映画の予告編の映像の再生が再開されることになる。
However, the state of the
また、ウェアラブル機器10の状態が「映像音声再生中」である場合において、ユーザの視線が上向き、すなわち、ターゲットの方向を向いている場合には、「映像音声再生中」の状態が維持される。一方、ユーザの視線が下向き、すなわち、ターゲットの方向を向いていない場合には、「映像音声再生中」から「音声再生中」に状態が遷移し、ポスタ401の映画の予告編の映像の再生が停止され、音声のみがヘッドホン107から出力されることになる。また、このとき、音声の音量の調整が行われ、音量が下げられる。なお、ユーザの視線が下向きから上向きに変化した場合には、「音声再生中」から「映像音声再生中」に状態が遷移し、ポスタ401の映画の予告編の映像の再生が再開され、さらに下げられていた音声の音量が元の状態に戻されることになる。
Further, when the
以上のように、この例では、ウェアラブル機器10を装着したユーザが、ディスプレイ106を通して見えるビルの壁に、AR技術により重畳された映画のポスタ401を見ながら近づくと、その映画の予告編の映像の再生が開始される。そしてさらにユーザがポスタ401を見ながらビルの壁に近づくと、その映画の予告編の映像に同期した音声も聞こえてくることになる。
As described above, in this example, when the user wearing the
このようにして、映画の予告編の映像等が提示されることになるが、ウェアラブル機器10を装着したユーザは、エリア放送のチャンネル入力操作やスキャン操作をする必要がなく、また、チャンネル選局に関する事前情報なども不要であるため、煩雑な選局操作から解放されることになる。また、ウェアラブル機器10を装着したユーザは、興味の赴くままに歩くという動作を行っているだけで、ターゲットに近づくと、エリア放送のコンテンツの映像や音声の再生が自動的に開始されるため、特別な操作や指示が不要となる。そのため、ユーザの手を煩わせることなく、エリア放送のコンテンツを提示することができる。また、ユーザにとっては日常的な動作を行っていればよく、自然なUI(User Interface)を実現することができる。
In this manner, a movie trailer video or the like is presented, but the user wearing the
また、ウェアラブル機器10を装着したユーザに対して、サービスのエリアを事前に告知することなく、そのユーザの現在位置に応じたエリア放送のコンテンツを提示することが可能となる。つまり、サービスのエリアを事前に告知することは手間であるが、本技術を用いることで、そのような手間を省くことが可能となる。さらに、ウェアラブル機器10が確実に受信できる放送エリアでのみエリア放送のコンテンツが提供されるので、サービスの提供者側にとっては、エリア放送のコンテンツが確実に受信されることが保証されることになる。また、インターネットに代表される通信網を利用した場合、多くの人が集まる市街地などでアクセスが集中してしまうと、動画のコンテンツの提供が困難になるが、エリア放送であると、放送波を利用しているため、例えば市街地やスタジアムなどの多くの人が集まる場所でも確実にサービスを提供することが可能となる。
In addition, it is possible to present area broadcast content according to the current position of the user without notifying the user of the
なお、このユースケースでは、ディスプレイ106上で、AR技術による映画のポスタ401(が重畳表示されているビルの壁)に対して、エリア放送のコンテンツとしての映画の予告編の映像と音声が再生される例を説明したが、例えば、ディスプレイ106を通して見える実物の映画のポスタ(が掲示されているビルの壁)に対して、エリア放送のコンテンツとしての映画の予告編の映像と音声が再生されるようにしてもよい。
In this use case, video and audio of a movie trailer as an area broadcast content are reproduced on the
<各装置で行われる具体的な処理の内容> <Details of specific processing performed in each device>
次に、図14乃至図20のフローチャートを参照して、図1のエリア放送システム1を構成する各装置で行われる具体的な処理の内容について説明する。
Next, with reference to the flowcharts of FIGS. 14 to 20, the contents of specific processing performed in each device constituting the
(コンテンツ提示処理)
まず、図14乃至図18のフローチャートを参照して、図1のウェアラブル機器10が実行するコンテンツ提示処理について説明する。このコンテンツ提示処理は、例えば、ウェアラブル機器10の電源がオンされて、ウェアラブル機器10が起動したと同時に開始される。ただし、ウェアラブル機器10においては、起動時に、GPS部109によるGPS機能、通信部111による無線通信機能、及び、カメラ部115による撮影機能がオンされる。
(Content presentation process)
First, content presentation processing executed by the
ステップS101においては、カメラ部115により撮影された撮影画像を用い、ターゲット認識処理が行われる。このターゲット認識処理では、例えば、市街地の構造物に実際に掲示された映画のポスタ(が掲示されているビルの壁)や、AR技術により構造物に重畳された映画のポスタ(が重畳表示されているビルの壁)などがターゲットとして認識される。
In step S101, target recognition processing is performed using the captured image captured by the
ステップS102においては、ターゲット認識処理によってターゲットが認識されたか否かが判定される。ステップS102において、ターゲットが認識されていないと判定された場合、ステップS101のターゲット認識処理が繰り返される。また、ステップS102において、ターゲットが認識されたと判定された場合、処理はステップS103に進められる。 In step S102, it is determined whether or not the target is recognized by the target recognition process. If it is determined in step S102 that the target is not recognized, the target recognition process in step S101 is repeated. If it is determined in step S102 that the target has been recognized, the process proceeds to step S103.
ステップS103において、チャンネル情報取得部161は、通信部111を制御することで、無線通信ネットワーク2等を介して情報サーバ30からチャンネル情報を取得する。ここでは、例えば、マーカレスAR技術によって認識された映画のポスタを掲示しているビルの近傍に設置されているエリア放送送信装置20によるエリア放送用のチャンネル情報を提供する情報サーバ30のURL(Uniform Resource Locator)が取得され、そのURLに従い、情報サーバ30にアクセスすることで、チャンネル情報が取得される。
In step S103, the channel
ステップS104において、チャンネル情報取得部161は、チャンネル情報に含まれる送信点位置PTを取得する。また、ステップS105において、位置情報取得部162は、GPS部109を制御することで、GPS衛星3からの信号に応じたユーザの現在位置puを取得する。
In step S104, the channel
ステップS106において、距離情報取得部163は、送信点位置PTと、現在位置puを用い、例えば、下記の式(1)を演算することで、実空間におけるユーザの現在位置からターゲットまでの距離Dを算出する。
In step S106, the distance
D=|pu−PT|・・・(1) D = | pu− P T | (1)
ステップS107においては、ステップS106で求められた距離Dと、チャンネル情報に含まれるサービス距離DAとの大小関係が判定される。 In step S107, the distance D calculated in step S106, the magnitude relation between the service distance D A included in the channel information is determined.
ステップS107において、DA<Dであると判定された場合、処理はステップS105に戻り、上述した処理が繰り返される。すなわち、ユーザの現在位置puがサービス距離DAの範囲外となる場合、ユーザの現在位置puに応じて距離Dの値が更新され、D≦DAとなるまで、ステップS107の判定処理が繰り返される。 If it is determined in step S107 that D A <D, the process returns to step S105, and the above-described process is repeated. That is, if the current position p u of the user is out of range of service distance D A, the value of the distance D in accordance with the current position p u of the user is updated, until D ≦ D A, the determination process of step S107 Is repeated.
ステップS107において、D≦DAであると判定された場合、処理は、図15のステップS111に進められる。 In step S107, if it is determined that D ≦ D A, the process proceeds to step S111 in FIG. 15.
このように、図14のステップS101乃至S107の処理は、チューナ113による選局が停止した状態で実行される「チューナ停止中」の処理であって、D>DAの関係を満たしており、ユーザの現在位置puが、サービス距離DAの範囲外となっている。
Thus, processing of steps S101 to S107 in FIG. 14 is a process of "tuner stop" the channel selection is performed in a stopped state by the
図15のステップS111において、チューナ113は、チャンネル情報を用いた選局を開始し、エリア放送送信装置20からのエリア放送のコンテンツの受信を開始する。
In step S111 in FIG. 15, the
ステップS112,S113においては、図14のステップS105,106と同様に、ユーザの現在位置puが取得され、例えば、上述した式(1)を用いて距離Dが求められる。そして、ステップS114においては、ステップS113で求められた距離Dと、チャンネル情報に含まれるサービス距離DA,DBとの大小関係が判定される。 In step S112, S113, similarly to step S105,106 in FIG. 14, the acquired current position p u of the user, for example, the distance D is calculated using equation (1) described above. In step S114, the magnitude relationship between the distance D obtained in step S113 and the service distances D A and D B included in the channel information is determined.
ステップS114において、DB<D≦DAであると判定された場合、処理はステップS112に戻り、上述した処理が繰り返される。すなわち、ユーザの現在位置puがサービス距離DAの範囲内で、かつ、サービス距離DBの範囲外となる場合、ユーザの現在位置puに応じて距離Dの値が更新され、D>DA又はD≦DBとなるまで、ステップS114の判定処理が繰り返される。 If it is determined in step S114 that D B <D ≦ D A , the process returns to step S112 and the above-described process is repeated. That is, when the user's current position p u is within the range of the service distance D A and outside the range of the service distance D B , the value of the distance D is updated according to the user's current position p u and D> The determination process in step S114 is repeated until D A or D ≦ D B.
また、ステップS114において、D>DAであると判定された場合、処理はステップS115に進められる。ステップS115において、チューナ113は、チャンネル情報を用いた選局を停止し、エリア放送のコンテンツの受信を停止する。ステップS115の処理が終了すると、処理は、図14のステップS105に戻り、それ以降の処理が行われる。すなわち、この場合、ユーザの現在位置puがサービス距離DAの範囲外となったので、図14のチューナ停止中の処理に戻されることになる。
Further, in step S114, if it is determined that D> D A, processing proceeds to step S115. In step S115, the
また、ステップS114において、D≦DBであると判定された場合、処理は、図16のステップS121に進められる。 Further, in step S114, if it is determined that D ≦ D B, the process proceeds to step S121 in FIG. 16.
このように、図15のステップS111乃至S115の処理は、チューナの選局が行われている状態で実行される「チューナ受信中」の処理であって、DB<D≦DAの関係を満たしており、ユーザの現在位置puが、サービス距離DAの範囲内で、かつ、サービス距離DBの範囲外となっている。 As described above, the processing in steps S111 to S115 in FIG. 15 is “tuner receiving” processing that is executed in the state where the tuner is selected, and the relationship of D B <D ≦ D A is satisfied. It filled and the current position p u users, within a service distance D a, and has become out of the range of service distance D B.
図16のステップS121においては、視線情報取得部164により取得された視線情報に応じて、ユーザの視線がターゲットの方向にあるか、すなわち、ターゲットが視野内にあるかどうかが判定される。ステップS121においては、ターゲットが視野内にあると判定されるのを待って、処理はステップS122に進められる。ステップS122において、再生制御部165は、エリア放送のコンテンツの映像の再生を開始する。これにより、ウェアラブル機器10においては、ディスプレイ106に、エリア放送のコンテンツの映像が表示されることになる。
In step S121 of FIG. 16, it is determined whether the user's line of sight is in the direction of the target, that is, whether the target is in the field of view, according to the line-of-sight information acquired by the line-of-sight
ステップS123,S124においては、図14のステップS105,106と同様に、ユーザの現在位置puが取得され、例えば、上述した式(1)を用いて距離Dが求められる。そして、ステップS125においては、ステップS124で求められた距離Dと、チャンネル情報に含まれるサービス距離DB,DCとの大小関係が判定される。 In step S123, S124, similarly to step S105,106 in FIG. 14, the acquired current position p u of the user, for example, the distance D is calculated using equation (1) described above. Then, in step S125, the distance D determined in step S124, the service distance D B included in the channel information, the magnitude relationship between D C is determined.
ステップS125において、DC<D≦DBであると判定された場合、処理はステップS121に戻り、上述した処理が繰り返される。すなわち、ユーザの現在位置puがサービス距離DBの範囲内で、かつ、サービス距離DCの範囲外となる場合、ユーザの現在位置puに応じて距離Dの値が更新され、D>DB又はD≦DCとなるまで、ステップS125の判定処理が繰り返される。 If it is determined in step S125 that D C <D ≦ D B , the process returns to step S121, and the above-described process is repeated. That is, when the user's current position p u is within the service distance D B and outside the service distance D C , the value of the distance D is updated according to the user's current position p u and D> The determination process in step S125 is repeated until D B or D ≦ D C.
また、ステップS125において、D>DBであると判定された場合、処理はステップS126に進められる。ステップS126において、再生制御部165は、再生中のコンテンツの映像の再生を停止する。ステップS126の処理が終了すると、処理は、図15のステップS112に戻り、それ以降の処理が行われる。すなわち、この場合、ユーザの現在位置puがサービス距離DBの範囲外となったので、図15のチューナ受信中の処理に戻されることになる。 If it is determined in step S125 that D> D B , the process proceeds to step S126. In step S126, the playback control unit 165 stops playback of the video of the content being played back. When the process of step S126 ends, the process returns to step S112 of FIG. 15, and the subsequent processes are performed. That is, in this case, since the current position p u users became out of the range of service distance D B, it will be returned to the processing in the tuner-received in FIG.
また、ステップS125において、D≦DCであると判定された場合、処理は、図17のステップS131に進められる。 Further, in step S125, the case where it is determined that the D ≦ D C, the process proceeds to step S131 in FIG. 17.
このように、図16のステップS121乃至S126の処理は、コンテンツの映像の再生が行われている状態で実行される「映像再生中」の処理であって、DC<D≦DBの関係を満たしており、ユーザの現在位置puが、サービス距離DBの範囲内で、かつ、サービス距離DCの範囲外となっている。 As described above, the processing of steps S121 to S126 in FIG. 16 is “video playback” processing executed while the video of the content is being played back, and the relationship of D C <D ≦ D B It meets the current position p u users, within the scope of the service distance D B, and has a range of services distance D C.
図17のステップS131において、再生制御部165は、エリア放送のコンテンツの音声の再生を開始する。これにより、ウェアラブル機器10においては、ディスプレイ106に、エリア放送のコンテンツの映像が表示され、さらに、その映像に同期した音声がヘッドホン107から出力されることになる。
In step S131 in FIG. 17, the reproduction control unit 165 starts reproduction of the audio of the area broadcast content. As a result, in
ステップS132、S133においては、図14のステップS105,106と同様に、ユーザの現在位置puが取得され、例えば、上述した式(1)を用いて距離Dが求められる。そして、ステップS134においては、ステップS133で求められた距離Dと、チャンネル情報に含まれるサービス距離DCとの大小関係が判定される。 In step S132, S133, similarly to step S105,106 in FIG. 14, the acquired current position p u of the user, for example, the distance D is calculated using equation (1) described above. Then, in step S134, the distance D calculated in step S133, the magnitude relation between the service distance D C included in the channel information is determined.
ステップS134において、D≦DCであると判定された場合、処理はステップS135に進められる。ステップS135において、再生制御部165は、再生中のエリア放送のコンテンツの音声の音量を調整する。この音量の調整は、例えば、再生中のコンテンツの音声の音量を1段階上げる調整、あるいは1段階下げる調整が行われる。あるいは音量を変化させない場合があってもよい。 In step S134, if it is determined that D ≦ D C, the process proceeds to step S135. In step S135, the reproduction control unit 165 adjusts the sound volume of the content of the area broadcast being reproduced. For example, the volume is adjusted by increasing the volume of the sound of the content being played by one level or by decreasing the level by one level. Or the volume may not be changed.
ステップS136においては、図16のステップS121と同様に、ターゲットが視野内にあるかどうかが判定される。ステップS136において、ターゲットが視野内にあると判定された場合、処理はステップS132に戻り、それ以降の処理が繰り返される。すなわち、ユーザの現在位置puがサービス距離DCの範囲内であって、ターゲットが視野内にある場合には、ステップS135の音声調整処理が行われ、例えば、再生中のコンテンツの音声の音量が1段階上げられる。これにより、ユーザの現在位置puと、ターゲットの位置との距離が近づくに連れて、エリア放送のコンテンツの音声の音量が大きくなることになる。 In step S136, it is determined whether the target is in the field of view, as in step S121 of FIG. If it is determined in step S136 that the target is within the field of view, the process returns to step S132, and the subsequent processes are repeated. That is, in a range current position p u users of the service distance D C, when the target is within the field of view, the audio adjustment processing in step S135 is performed, for example, the volume of the audio content being played Is raised by one step. Thus, the current position p u of the user, as the distance between the position of the target approaches, so that the volume of the sound of the content of the area broadcast increases.
また、ステップS134において、D>DCであると判定された場合、処理はステップS137に進められる。ステップS137において、再生制御部165は、再生中のエリア放送のコンテンツの音声を停止する。これにより、ウェアラブル機器10においては、ディスプレイ106に、エリア放送のコンテンツの映像は表示されるが、その映像に同期した音声は出力されないことになる。
Further, in step S134, if it is determined that D> D C, the process proceeds to step S137. In step S137, the reproduction control unit 165 stops the sound of the content of the area broadcast being reproduced. As a result, in the
ステップS137の処理が終了すると、処理は、図16のステップS123に進められ、それ以降の処理が行われる。また、ステップS136において、ターゲットが視野内にないと判定された場合、処理は、図18のステップS141に進められる。 When the process of step S137 ends, the process proceeds to step S123 of FIG. 16, and the subsequent processes are performed. If it is determined in step S136 that the target is not in the field of view, the process proceeds to step S141 in FIG.
このように、図17のステップS131乃至S136の処理は、コンテンツの映像と音声の再生が行われている状態で実行される「映像音声再生中」の処理であって、D≦DCの関係を満たしており、ユーザの現在位置puが、サービス距離DCの範囲内となっている。 As described above, the processing in steps S131 to S136 in FIG. 17 is a “video and audio playback” process that is executed while the video and audio of the content are being played back, and the relationship of D ≦ D C meets the current position p u users, it is within the scope of the service distance D C.
図18のステップS141において、再生制御部165は、再生中のエリア放送のコンテンツの映像を停止する。これにより、ウェアラブル機器10においては、ディスプレイ106には、エリア放送のコンテンツの映像は表示されていないが、その音声のみがヘッドホン107から出力されることになる。
In step S141 in FIG. 18, the reproduction control unit 165 stops the video of the content of the area broadcast being reproduced. Thereby, in the
ステップS142,S143においては、図14のステップS105,106と同様に、ユーザの現在位置puが取得され、例えば、上述した式(1)を用いて距離Dが求められる。そして、ステップS144においては、ステップS143で求められた距離Dと、チャンネル情報に含まれるサービス距離DCとの大小関係が判定される。 In step S142, S143, similarly to step S105,106 in FIG. 14, the acquired current position p u of the user, for example, the distance D is calculated using equation (1) described above. Then, in step S144, the distance D calculated in step S143, the magnitude relation between the service distance D C included in the channel information is determined.
ステップS144において、D≦DCであると判定された場合、処理はステップS145に進められる。ステップS145において、再生制御部165は、再生中のエリア放送のコンテンツの音声の音量を調整する。この音量の調整は、例えば、再生中のコンテンツの音声の音量を1段階下げる調整、あるいは1段階上げる調整が行われる。あるいは音量を変化させない場合があってもよい。 In step S144, if it is determined that D ≦ D C, the process proceeds to step S145. In step S145, the reproduction control unit 165 adjusts the sound volume of the area broadcast content being reproduced. The adjustment of the volume is performed, for example, by adjusting the volume of the sound of the content being reproduced to be lowered by one level or by raising it by one level. Or the volume may not be changed.
ステップS146においては、図16のステップS121と同様に、ターゲットが視野内にあるかどうかが判定される。ステップS146において、ターゲットが視野内にないと判定された場合、処理はステップS142に戻り、それ以降の処理が繰り返される。すなわち、ユーザの現在位置puがサービス距離DCの範囲内であって、ターゲットが視野内にない場合には、ステップS145の音声調整処理が行われ、例えば、再生中のコンテンツの音声の音量が1段階下げられる。これにより、ユーザの視線がターゲットを向いていない場合には、エリア放送のコンテンツの音声の音量が徐々に小さくなることになる。 In step S146, it is determined whether or not the target is in the field of view, as in step S121 of FIG. If it is determined in step S146 that the target is not within the field of view, the process returns to step S142, and the subsequent processes are repeated. That is, in a range current position p u users of the service distance D C, if the target is not within the field of view, the audio adjustment processing in step S145 is performed, for example, the volume of the audio content being played Is lowered by one step. As a result, when the user's line of sight is not facing the target, the volume of the audio of the area broadcast content is gradually reduced.
また、ステップS146において、ターゲットが視野内にあると判定された場合、処理はステップS147に進められる。ステップS147において、再生制御部165は、エリア放送のコンテンツの映像の再生を開始する。これにより、ウェアラブル機器10においては、ディスプレイ106に、エリア放送のコンテンツの映像が表示され、その映像に同期した音声がヘッドホン107から出力されることになる。なお、このとき、ヘッドホン107から出力されるコンテンツの音声の音量は、元の状態に戻されることになる。
If it is determined in step S146 that the target is within the field of view, the process proceeds to step S147. In step S147, the playback control unit 165 starts playback of the video of the area broadcast content. As a result, in the
ステップS147の処理が終了すると、処理は、図17のステップS132に進められ、それ以降の処理が行われる。 When the process of step S147 ends, the process proceeds to step S132 of FIG. 17, and the subsequent processes are performed.
また、ステップS144において、D>DCであると判定された場合、処理はステップS148に進められる。ステップS148において、再生制御部165は、再生中のエリア放送のコンテンツの音声を停止する。これにより、ウェアラブル機器10においては、エリア放送のコンテンツの映像と音声が共に再生されていない状態になる。
Further, in step S144, if it is determined that D> D C, process advances to step S148. In step S148, the reproduction control unit 165 stops the audio of the content of the area broadcast being reproduced. As a result, the
ステップS148の処理が終了すると、処理は、図16のステップS121に戻り、それ以降の処理が行われる。 When the process of step S148 ends, the process returns to step S121 of FIG. 16, and the subsequent processes are performed.
このように、図18のステップS141乃至S147の処理は、コンテンツの音声の再生が行われている状態で実行される「音声再生中」の処理であって、D≦DCの関係を満たしており、ユーザの現在位置puが、サービス距離DCの範囲内となっている。 Thus, the processing of steps S141 to S147 in FIG. 18 is a process of "during voice reproduction" performed in a state in which reproduction of the sound of the content is performed, satisfies the relation D ≦ D C cage, the current position p u users, are within the scope of the service distance D C.
以上で、コンテンツ提示処理の説明を終了する。 Above, description of a content presentation process is complete | finished.
(コンテンツ送信処理)
次に、図19のフローチャートを参照して、図1のエリア放送送信装置20が実行するコンテンツ送信処理について説明する。
(Content transmission processing)
Next, content transmission processing executed by the area
ステップS201において、コンテンツ取得部201は、エリア放送用のコンテンツのビデオデータとオーディオデータを取得し、コンテンツ処理部202に供給する。
In step S <b> 201, the
ステップS202において、コンテンツ処理部202は、コンテンツ取得部201から供給されるビデオデータとオーディオデータを、MPEG等の符号化方式に準拠して符号化する。また、コンテンツ処理部202は、符号化により得られるビデオデータとオーディオデータ、さらに、PSI/SI等の各種のデータを多重化してTSを生成し、送信部203に供給する。
In step S202, the
ステップS203において、送信部203は、コンテンツ処理部202から供給されるTSを、所定のセグメントでアンテナ204を介して、放送信号として送信する。ステップS203の処理が終了すると、コンテンツ送信処理は終了する。
In step S203, the
以上で、コンテンツ送信処理の説明を終了する。 Above, description of a content transmission process is complete | finished.
(チャンネル情報提供処理)
最後に、図20のフローチャートを参照して、図1の情報サーバ30が実行するチャンネル情報提供処理について説明する。
(Channel information provision processing)
Finally, the channel information provision processing executed by the
ステップS301において、制御部301は、通信部304を監視することで、ウェアラブル機器10からチャンネル情報の要求がされたか否かを判定する。ステップS301においては、ウェアラブル機器10からのチャンネル情報の要求を待って、処理は、ステップS302に進められる。
In step S301, the
ステップS302において、制御部301は、ウェアラブル機器10からの要求に応じたチャンネル情報を、チャンネル情報保持部303から取得する。ステップS303において、通信部304は、制御部301からの制御に従い、チャンネル情報保持部303から取得されたチャンネル情報を、要求元のウェアラブル機器10に送信(提供)する。ステップS303の処理が終了すると、チャンネル情報提供処理は終了する。
In step S <b> 302, the
以上で、チャンネル情報提供処理の説明を終了する。 Above, description of a channel information provision process is complete | finished.
以上のように、本技術によれば、ウェアラブル機器10を装着したユーザは、単に歩くという動作を行っているだけで、エリア放送のコンテンツの映像や音声の再生が自動的に開始されるため、特別な操作や指示をする必要なない。そのため、ユーザの手を煩わせることなく、エリア放送のコンテンツを提示することができる。
As described above, according to the present technology, since the user wearing the
なお、上述の図2に示した、眼鏡型のウェアラブル機器10の構造は一例であり、ウェアラブル機器10をユーザが装着するための構造は多様に考えられる。一般に、眼鏡型又は頭部装着型とされる装着ユニットで形成されればよく、少なくともユーザの眼の前方に近接してディスプレイ106L,106Rが設けられていればよい。また、ディスプレイは両眼に対して一対設けられるほか、片側の眼に対応して1つだけ設けられる構成でもよい。また、ウェアラブル機器10は、スマートフォン等のユーザが所持している電子機器と無線通信を行うことが可能であるため、例えば、エリア放送のコンテンツの受信処理等はスマートフォン側で行い、ウェアラブル機器10側では、スマートフォンから送られてくるコンテンツを再生するようにしてもよい。
Note that the structure of the glasses-type
また、上述した説明では、説明の簡略化のため、エリア放送送信装置20をターゲットの近傍に設置することで、ターゲットの位置と、送信点位置PTにより指定される位置は一致しているものとして説明したが、実空間における現実のターゲットの位置情報を取得して、現実のターゲットの位置とユーザの現在位置を用い、距離Dを算出してもよい。また、例えばバスや電車の外装に施された広告など、ターゲットが移動する場合、距離Dとしては、ユーザの現在位置とターゲットの位置との相対的な距離が求められることになる。要は、ウェアラブル機器10を装着したユーザに対し、その現在位置とターゲットの位置との距離に応じたエリア放送のコンテンツを提示するための距離情報が取得できればよいのであって、その算出方法は任意である。
In the above description, for simplification of description, the area
また、上述した説明では、エリア放送のコンテンツの映像が再生されたあとに、音声が再生される例を説明したが、映像と音声の再生順は逆でもよいし、あるいは、映像のみ又は音声のみが再生されるようにしてもよい。また、コンテンツとしては、上述した映像や音声に限らず、例えばテキスト情報や静止画などの情報であってもよく、例えば、ウェアラブル機器10を装着したユーザの現在位置とターゲットの位置との距離に応じて、テキスト情報、静止画、動画が段階的に再生されるようにすることができる。
In the above description, the example in which the audio is reproduced after the area broadcast content video is reproduced has been described. However, the reproduction order of the video and the audio may be reversed, or only the video or only the audio is reproduced. May be played back. Further, the content is not limited to the above-described video and audio, but may be information such as text information and still images, for example, the distance between the current position of the user wearing the
さらに、上述した説明では、ウェアラブル機器10は、エリア放送送信装置20から送信されるエリア放送のコンテンツを受信するとして説明したが、インターネット上に設けられた配信サーバ(不図示)から配信される通信コンテンツを受信して、ユーザの現在位置とターゲットの位置との距離に応じてストリーミング再生を行うようにしてもよい。例えば、通信コンテンツは、VOD(Video On Demand)により配信される、映画の予告編や商品の宣伝などのコンテンツとなる。
Further, in the above description, the
なお、ウェアラブル機器10(CPU101)が実行する制御プログラムは、例えば、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。また、ウェアラブル機器10では、制御プログラムは、有線又は無線の伝送媒体を介して、通信部111で受信し、ROM102等にインストールすることができる。その他、制御プログラムは、ROM102等に、あらかじめインストールしておくことができる。
The control program executed by wearable device 10 (CPU 101) can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In the
また、ウェアラブル機器10(CPU101)が実行する制御プログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。ここで、本明細書において、ウェアラブル機器10(CPU101)に各種の処理を行わせるための制御プログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。 The control program executed by the wearable device 10 (CPU 101) may be a program that is processed in time series in the order described in this specification, or in parallel or when a call is made. It is also possible to use a program that performs processing at a necessary timing. Here, in the present specification, the processing steps for describing a control program for causing the wearable device 10 (CPU 101) to perform various processes do not necessarily have to be processed in time series in the order described in the flowchart. In addition, processing that is executed in parallel or individually (for example, parallel processing or processing by an object) is also included.
また、制御プログラムは、1のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、制御プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 Further, the control program may be processed by one computer or may be distributedly processed by a plurality of computers. Furthermore, the control program may be transferred to a remote computer and executed. Furthermore, in this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology. For example, the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and jointly processed. In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus. Furthermore, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
また、本技術は、以下のような構成をとることができる。 Moreover, this technique can take the following structures.
(1)
拡張現実空間内でターゲットの位置に配置されるコンテンツを受信する受信部と、
実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得する距離情報取得部と、
前記距離情報に応じて、前記コンテンツの再生を制御する再生制御部と
を備える受信装置。
(2)
前記再生制御部は、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する
(1)に記載の受信装置。
(3)
前記ユーザの眼の前方に位置するように配置されて情報を表示するとともに、その表示領域を透明又は半透明な状態とすることができる表示部をさらに備え、
前記表示部は、再生中の前記コンテンツの映像を表示する
(1)又は(2)に記載の受信装置。
(4)
再生中の前記コンテンツの音声を出力する音声出力部をさらに備える
(3)に記載の受信装置。
(5)
任意のセグメントによる放送であるエリア放送を受信するためのチャンネル情報を取得するチャンネル情報取得部をさらに備え、
前記受信部は、前記チャンネル情報を用いて、前記エリア放送を行う送信機から送信される放送波を受信することが可能な放送エリアにおいて、前記エリア放送のコンテンツを受信する
(1)乃至(4)のいずれか一項に記載の受信装置。
(6)
前記距離情報取得部は、前記ユーザの現在位置と、前記チャンネル情報に含まれる前記送信機の送信点位置を用いて前記距離情報を算出する
(5)に記載の受信装置。
(7)
前記距離情報取得部は、前記ユーザの現在位置と、前記ターゲットの位置を用いて前記距離情報を算出する
(5)に記載の受信装置。
(8)
前記再生制御部は、前記チャンネル情報に含まれる距離基準情報を基準にして、前記コンテンツを、前記距離情報に応じて段階的に変化するように再生する
(5)乃至(7)のいずれか一項に記載の受信装置。
(9)
前記再生制御部は、前記コンテンツの映像と音声のうち少なくとも一方の再生を段階的に変化させる
(8)のいずれか一項に記載の受信装置。
(10)
前記再生制御部は、前記ユーザの現在位置と、前記ターゲットの位置との距離が近づくに連れて、前記コンテンツの音声の音量が大きくなるようにする
(9)のいずれか一項に記載の受信装置。
(11)
前記ユーザの視線の方向を示す視線情報を取得する視線情報取得部をさらに備え、
前記再生制御部は、前記視線情報に応じて、前記コンテンツを再生する
(1)乃至(10)のいずれか一項に記載の受信装置。
(12)
前記再生制御部は、前記ユーザの視線が前記ターゲットの方向にある場合、前記コンテンツの映像又は音声を再生し、前記ユーザの視線が前記ターゲットの方向にない場合、前記コンテンツの映像を停止するか又は音声の音量を調整する
(11)に記載の受信装置。
(13)
前記受信装置は、左眼用と右眼用の一対の前記表示部を有する眼鏡型の無線通信機である
(3)に記載の受信装置。
(14)
受信装置の受信方法において、
前記受信装置が、
拡張現実空間内でターゲットの位置に配置されるコンテンツを受信し、
実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得し、
前記距離情報に応じて、前記コンテンツの再生を制御する
ステップを含む受信方法。
(15)
任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報を取得するチャンネル情報取得部と、
前記チャンネル情報を、前記受信機に送信する送信部と
を備える送信装置。
(16)
前記チャンネル情報は、実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報の計算に用いられる送信機の送信点位置を含む
(15)に記載の送信装置。
(17)
前記チャンネル情報は、前記エリア放送のコンテンツを前記距離情報に応じて段階的に変化するように再生させる際の基準となる距離基準情報を含む
(16)に記載の送信装置。
(18)
送信装置の送信方法において、
前記送信装置が、
任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報を取得し、
前記チャンネル情報を、前記受信機に送信する
ステップを含む送信方法。
(1)
A receiving unit for receiving content arranged at a target position in the augmented reality space;
A distance information acquisition unit that acquires distance information indicating a distance from the current position of the user in real space to the position of the target;
And a playback control unit that controls playback of the content according to the distance information.
(2)
The reception device according to (1), wherein the reproduction control unit reproduces the content so as to change stepwise according to the distance information.
(3)
It is arranged so as to be positioned in front of the user's eyes and further includes a display unit capable of displaying the information and making the display area transparent or translucent.
The receiving device according to (1) or (2), wherein the display unit displays a video of the content being played back.
(4)
The receiving device according to (3), further comprising: an audio output unit that outputs audio of the content being reproduced.
(5)
A channel information acquisition unit that acquires channel information for receiving area broadcasts that are broadcasts by an arbitrary segment;
The reception unit receives the content of the area broadcast in a broadcast area where the broadcast wave transmitted from the transmitter that performs the area broadcast can be received using the channel information. (1) to (4 ) The receiving device according to any one of the above.
(6)
The receiving apparatus according to (5), wherein the distance information acquisition unit calculates the distance information using a current position of the user and a transmission point position of the transmitter included in the channel information.
(7)
The receiving apparatus according to (5), wherein the distance information acquisition unit calculates the distance information using the current position of the user and the position of the target.
(8)
The reproduction control unit reproduces the content so as to change stepwise according to the distance information with reference to the distance reference information included in the channel information. (5) to (7) The receiving device according to item.
(9)
The reception apparatus according to any one of (8), wherein the reproduction control unit changes reproduction of at least one of the video and audio of the content in stages.
(10)
The reception according to any one of (9), wherein the playback control unit increases the volume of the audio of the content as the distance between the current position of the user and the position of the target decreases. apparatus.
(11)
A line-of-sight information acquisition unit that acquires line-of-sight information indicating the direction of the line of sight of the user;
The reception device according to any one of (1) to (10), wherein the reproduction control unit reproduces the content according to the line-of-sight information.
(12)
Whether the playback control unit plays the video or audio of the content when the user's line of sight is in the target direction, and stops the video of the content when the user's line of sight is not in the target direction Or the volume of an audio | voice is adjusted.
(13)
The receiving device according to (3), wherein the receiving device is a glasses-type wireless communication device having a pair of display units for left eye and right eye.
(14)
In the receiving method of the receiving device,
The receiving device is
Receive content placed at the target location in augmented reality space,
Obtain distance information indicating the distance from the current position of the user in real space to the position of the target,
A receiving method including a step of controlling reproduction of the content according to the distance information.
(15)
Channel information for a receiver to receive content of an area broadcast that is broadcast by an arbitrary segment, and information used for controlling playback of the content of the area broadcast that is arranged at a target position in augmented reality space A channel information acquisition unit for acquiring the channel information including:
A transmission device comprising: a transmission unit that transmits the channel information to the receiver.
(16)
The transmission apparatus according to (15), wherein the channel information includes a transmission point position of a transmitter used for calculation of distance information indicating a distance from the current position of the user in real space to the position of the target.
(17)
The transmission apparatus according to (16), wherein the channel information includes distance reference information serving as a reference for reproducing the area broadcast content so as to change stepwise according to the distance information.
(18)
In the transmission method of the transmission device,
The transmitting device is
Channel information for a receiver to receive content of an area broadcast that is broadcast by an arbitrary segment, and information used for controlling playback of the content of the area broadcast that is arranged at a target position in augmented reality space The channel information including
A transmission method including a step of transmitting the channel information to the receiver.
1 エリア放送システム, 2 無線ネットワーク, 3 GPS衛星, 10 ウェアラブル機器, 20 エリア放送送信装置, 30 情報サーバ, 101 CPU, 106,106L,106R 透過型のディスプレイ, 109 GPS部, 113 チューナ, 115 カメラ部, 117 視線検出用センサ, 151 制御プログラム, 161 チャンネル情報取得部, 162 位置情報取得部, 163 距離情報取得部, 164 視線情報取得部, 165 再生制御部, 301 制御部, 302 チャンネル情報取得部, 304 通信部
1 area broadcast system, 2 wireless network, 3 GPS satellite, 10 wearable device, 20 area broadcast transmission device, 30 information server, 101 CPU, 106, 106L, 106R transmissive display, 109 GPS unit, 113 tuner, 115
Claims (18)
実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得する距離情報取得部と、
前記距離情報に応じて、前記コンテンツの再生を制御する再生制御部と
を備える受信装置。 A receiving unit for receiving content arranged at a target position in the augmented reality space;
A distance information acquisition unit that acquires distance information indicating a distance from the current position of the user in real space to the position of the target;
And a playback control unit that controls playback of the content according to the distance information.
請求項1に記載の受信装置。 The receiving device according to claim 1, wherein the reproduction control unit reproduces the content so as to change stepwise according to the distance information.
前記表示部は、再生中の前記コンテンツの映像を表示する
請求項2に記載の受信装置。 It is arranged so as to be positioned in front of the user's eyes and further includes a display unit capable of displaying the information and making the display area transparent or translucent.
The receiving device according to claim 2, wherein the display unit displays a video of the content being played back.
請求項3に記載の受信装置。 The receiving device according to claim 3, further comprising an audio output unit that outputs audio of the content being reproduced.
前記受信部は、前記チャンネル情報を用いて、前記エリア放送を行う送信機から送信される放送波を受信することが可能な放送エリアにおいて、前記エリア放送のコンテンツを受信する
請求項4に記載の受信装置。 A channel information acquisition unit that acquires channel information for receiving area broadcasts that are broadcasts by an arbitrary segment;
The reception unit receives content of the area broadcast in a broadcast area where the broadcast wave transmitted from a transmitter that performs the area broadcast can be received using the channel information. Receiver device.
請求項5に記載の受信装置。 The receiving apparatus according to claim 5, wherein the distance information acquisition unit calculates the distance information using a current position of the user and a transmission point position of the transmitter included in the channel information.
請求項5に記載の受信装置。 The receiving device according to claim 5, wherein the distance information acquisition unit calculates the distance information using the current position of the user and the position of the target.
請求項5に記載の受信装置。 The receiving device according to claim 5, wherein the reproduction control unit reproduces the content so as to change stepwise according to the distance information, based on distance reference information included in the channel information.
請求項8に記載の受信装置。 The receiving device according to claim 8, wherein the reproduction control unit changes reproduction of at least one of video and audio of the content in stages.
請求項9に記載の受信装置。 The receiving device according to claim 9, wherein the reproduction control unit increases the sound volume of the content as the distance between the current position of the user and the position of the target approaches.
前記再生制御部は、前記視線情報に応じて、前記コンテンツを再生する
請求項2に記載の受信装置。 A line-of-sight information acquisition unit that acquires line-of-sight information indicating the direction of the line of sight of the user;
The receiving device according to claim 2, wherein the reproduction control unit reproduces the content according to the line-of-sight information.
請求項11に記載の受信装置。 Whether the playback control unit plays the video or audio of the content when the user's line of sight is in the target direction, and stops the video of the content when the user's line of sight is not in the target direction The receiving device according to claim 11, wherein the volume of the sound is adjusted.
請求項3に記載の受信装置。 The receiving apparatus according to claim 3, wherein the receiving apparatus is a glasses-type wireless communication device having a pair of display units for left eye and right eye.
前記受信装置が、
拡張現実空間内でターゲットの位置に配置されるコンテンツを受信し、
実空間におけるユーザの現在位置から前記ターゲットの位置までの距離を示す距離情報を取得し、
前記距離情報に応じて、前記コンテンツの再生を制御する
ステップを含む受信方法。 In the receiving method of the receiving device,
The receiving device is
Receive content placed at the target location in augmented reality space,
Obtain distance information indicating the distance from the current position of the user in real space to the position of the target,
A receiving method including a step of controlling reproduction of the content according to the distance information.
前記チャンネル情報を、前記受信機に送信する送信部と
を備える送信装置。 Channel information for a receiver to receive content of an area broadcast that is broadcast by an arbitrary segment, and information used for controlling playback of the content of the area broadcast that is arranged at a target position in augmented reality space A channel information acquisition unit for acquiring the channel information including:
A transmission device comprising: a transmission unit that transmits the channel information to the receiver.
請求項15に記載の送信装置。 The transmission apparatus according to claim 15, wherein the channel information includes a transmission point position of a transmitter used for calculation of distance information indicating a distance from a current position of a user in real space to the position of the target.
請求項16に記載の送信装置。 The transmission apparatus according to claim 16, wherein the channel information includes distance reference information serving as a reference when the content of the area broadcast is reproduced so as to change stepwise according to the distance information.
前記送信装置が、
任意のセグメントによる放送であるエリア放送のコンテンツを、受信機が受信するためのチャンネル情報であって、拡張現実空間でターゲットの位置に配置される前記エリア放送のコンテンツの再生の制御に用いられる情報を含む前記チャンネル情報を取得し、
前記チャンネル情報を、前記受信機に送信する
ステップを含む送信方法。 In the transmission method of the transmission device,
The transmitting device is
Channel information for a receiver to receive content of an area broadcast that is broadcast by an arbitrary segment, and information used for controlling playback of the content of the area broadcast that is arranged at a target position in augmented reality space The channel information including
A transmission method including a step of transmitting the channel information to the receiver.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013168261A JP2015037242A (en) | 2013-08-13 | 2013-08-13 | Reception device, reception method, transmission device, and transmission method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013168261A JP2015037242A (en) | 2013-08-13 | 2013-08-13 | Reception device, reception method, transmission device, and transmission method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015037242A true JP2015037242A (en) | 2015-02-23 |
Family
ID=52687553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013168261A Pending JP2015037242A (en) | 2013-08-13 | 2013-08-13 | Reception device, reception method, transmission device, and transmission method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015037242A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019186921A (en) * | 2018-03-30 | 2019-10-24 | 株式会社リコー | VR system, communication method, and program |
WO2020137906A1 (en) * | 2018-12-28 | 2020-07-02 | Line株式会社 | Terminal display method, terminal, terminal program |
WO2020234939A1 (en) * | 2019-05-17 | 2020-11-26 | ソニー株式会社 | Information processing device, information processing method, and program |
CN112164146A (en) * | 2020-09-04 | 2021-01-01 | 维沃移动通信有限公司 | Content control method and device and electronic equipment |
WO2021084756A1 (en) * | 2019-11-01 | 2021-05-06 | 日本電信電話株式会社 | Augmented reality notification information distribution system, and distribution control device, method, and program thereof |
-
2013
- 2013-08-13 JP JP2013168261A patent/JP2015037242A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019186921A (en) * | 2018-03-30 | 2019-10-24 | 株式会社リコー | VR system, communication method, and program |
JP7331405B2 (en) | 2018-03-30 | 2023-08-23 | 株式会社リコー | VR system, communication method, and program |
WO2020137906A1 (en) * | 2018-12-28 | 2020-07-02 | Line株式会社 | Terminal display method, terminal, terminal program |
JP2020109548A (en) * | 2018-12-28 | 2020-07-16 | Line株式会社 | Display method of terminal, terminal, program for terminal |
WO2020234939A1 (en) * | 2019-05-17 | 2020-11-26 | ソニー株式会社 | Information processing device, information processing method, and program |
CN113875227A (en) * | 2019-05-17 | 2021-12-31 | 索尼集团公司 | Information processing apparatus, information processing method, and program |
US11846783B2 (en) | 2019-05-17 | 2023-12-19 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
WO2021084756A1 (en) * | 2019-11-01 | 2021-05-06 | 日本電信電話株式会社 | Augmented reality notification information distribution system, and distribution control device, method, and program thereof |
JPWO2021084756A1 (en) * | 2019-11-01 | 2021-05-06 | ||
CN112164146A (en) * | 2020-09-04 | 2021-01-01 | 维沃移动通信有限公司 | Content control method and device and electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11323605B2 (en) | Method and apparatus for managing a camera network | |
US10602047B2 (en) | Image photographing method performed with terminal device having camera function | |
US10271082B2 (en) | Video distribution method, video reception method, server, terminal apparatus, and video distribution system | |
US11024083B2 (en) | Server, user terminal device, and control method therefor | |
EP2843513A1 (en) | Wearable device and method of outputting content thereof | |
KR20170027435A (en) | Electronic device and method for controlling the same | |
US10156898B2 (en) | Multi vantage point player with wearable display | |
US9911396B2 (en) | Multi-user interactive media wall | |
JP2015037242A (en) | Reception device, reception method, transmission device, and transmission method | |
JP2009038481A (en) | Data transmitter, receiver, data transmitting and receiving method, program and recording medium | |
US20190238821A1 (en) | Experience sharing system | |
JP6242011B2 (en) | Video management system and method for identifying a photographing terminal photographing an arbitrary area | |
US20220248162A1 (en) | Method and apparatus for providing audio content in immersive reality | |
US9794314B2 (en) | Asynchronous audio and video in an environment | |
US20130290490A1 (en) | Communication system, information terminal, communication method and recording medium | |
CN106954093B (en) | Panoramic video processing method, device and system | |
KR20160074234A (en) | Display apparatus and method for controlling a content output | |
US20190064930A1 (en) | Ocular Focus Sharing for Digital Content | |
CN110910508B (en) | Image display method, device and system | |
CN104034335A (en) | Image display method and image acquisition device | |
US8887196B2 (en) | System, mobile terminal and method for displaying object information in real time | |
JP2021005830A (en) | Control device for video distribution, control method for video distribution, and program | |
KR20140092098A (en) | A display system for bicycle | |
US12058401B2 (en) | Information processing system, information processing method, and program | |
WO2022018836A1 (en) | Information processing device, information processing method, and program |