JP2012244363A - 受信システム及びプログラム - Google Patents
受信システム及びプログラム Download PDFInfo
- Publication number
- JP2012244363A JP2012244363A JP2011111813A JP2011111813A JP2012244363A JP 2012244363 A JP2012244363 A JP 2012244363A JP 2011111813 A JP2011111813 A JP 2011111813A JP 2011111813 A JP2011111813 A JP 2011111813A JP 2012244363 A JP2012244363 A JP 2012244363A
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- association
- program
- receiver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000004891 communication Methods 0.000 claims abstract description 91
- 238000000034 method Methods 0.000 description 38
- 238000000926 separation method Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 25
- 230000005540 biological transmission Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 8
- 230000004044 response Effects 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようにすること。
【解決手段】受信システムは、受信機4と、ホームサーバ40と、を備え、受信機4は、コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び放送信号に含まれるコンテンツを特定する番組IDをホームサーバ40に送信する通信部14を有し、ホームサーバ40は、受信機4から送信された時刻情報及び番組IDと、所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け部55と、関連付け部55で生成した関連付け情報をサービスサーバ3に送信する通信部44と、を有する。
【選択図】図5
【解決手段】受信システムは、受信機4と、ホームサーバ40と、を備え、受信機4は、コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び放送信号に含まれるコンテンツを特定する番組IDをホームサーバ40に送信する通信部14を有し、ホームサーバ40は、受信機4から送信された時刻情報及び番組IDと、所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け部55と、関連付け部55で生成した関連付け情報をサービスサーバ3に送信する通信部44と、を有する。
【選択図】図5
Description
本発明は、放送と通信の連携を図る機能を有する受信システム及びプログラムに関する。
近年、放送のデジタル化と通信のブロードバンド化の進展に伴い、放送通信連携サービスの実現に向けた研究開発が行われている。
また、この放送通信連携サービスにおいては、放送と通信という異なる伝送路を用いて複数のコンテンツを配信し、デジタルテレビ等の受信機において、配信された複数のコンテンツを統合して提示する形態が想定される。
ところで、現在、データ放送では、XML(eXtensible Markup Language)をベースとした、マルチメディア符号化用に開発されたBML(Broadcast Markup Language)という放送サービスに必要な機能を拡張した言語を用いて、様々なコンテンツが提供されている(特許文献1を参照)。
ところで、データ放送では、全ての情報を放送波に多重化させる必要があるため、放送波で送信可能なデータ容量に一定の制限がある。
そこで、放送に対して、送信可能なデータ容量に制限のない通信との連携させるシステムの実現が望まれている。
特に、このような放送と通信の連携を図るシステムでは、通信により受信機に対して各種サービスを提供するサーバが構築される。
従って、例えば、放送局が放送したコンテンツのうち所定シーンに対する視聴者の視聴状態、例えば当該所定シーンを視聴しているときの視聴者の表情や音声等を、多数の受信機の各々から取得して、サービスに活用するサーバが現れてくることが想定される。
従って、例えば、放送局が放送したコンテンツのうち所定シーンに対する視聴者の視聴状態、例えば当該所定シーンを視聴しているときの視聴者の表情や音声等を、多数の受信機の各々から取得して、サービスに活用するサーバが現れてくることが想定される。
この場合、仮に、データ放送等の従来の受信機が対象となっているのであれば、サーバは、所定コンテンツの所定シーンを視聴しているときの多数の視聴者の視聴状態として、所定シーンが放送局から放送された時刻(10時10分等の絶対時刻)における視聴状態を多数の受信機の各々から取得すればよい。
しかしながら、放送と通信の連携を図るシステムでは、サーバが、同一時刻(絶対時刻)における視聴状態を多数の受信機の各々から取得したとしても、これらの視聴状態は、同一シーンについてのものであるとは必ずしも限らない。受信機が、放送と通信の同期を内部で取ることがあり、放送によるコンテンツの再生が遅延することがあるためである。即ち、複数の受信機の間では、同一時刻に同一シーンが必ずしも再生されているとは限らないためである。
このため、放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できる仕組みの実現が要望されている。
本発明は、このような状況に鑑みてなされたものであり、放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようにすることを1つの目的とする。
本発明に係る受信システムは、ネットワークを介してサービスサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機と、前記受信機及び前記サービスサーバとネットワークを介して接続されたホームサーバと、を備える受信システムであって、前記受信機は、前記コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び前記放送信号に含まれる前記コンテンツを特定する番組IDを前記ホームサーバに送信する受信機通信手段を有し、前記ホームサーバは、前記受信機から送信された前記時刻情報及び前記番組IDと、前記所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け手段と、前記関連付け手段で生成した前記関連付け情報を前記サービスサーバに送信するホームサーバ通信手段と、を有する構成とした。
かかる構成によれば、受信機は、放送局が放送した放送信号に含まれるコンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報と、当該所定シーンを視聴した時の視聴者の視聴状態と、放送信号に含まれるコンテンツを特定する番組IDと、を受信機通信手段によりホームサーバへ送信する。
ホームサーバは、受信機から送信された時刻情報及び番組IDと、所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を関連付け手段により生成し、この生成した関連付け情報をホームサーバ通信手段によりサービスサーバに送信する。
ホームサーバは、受信機から送信された時刻情報及び番組IDと、所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を関連付け手段により生成し、この生成した関連付け情報をホームサーバ通信手段によりサービスサーバに送信する。
これにより、ホームサーバにおいて、受信機で再生された番組IDにより特定されるコンテンツの所定シーンと当該所定シーンを視聴した視聴者の視聴状態とが紐づけられ、サービスサーバに送信される。
従って、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
従って、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
この場合、前記ホームサーバは、前記所定シーンを視聴した時の視聴者の視聴状態を取得する視聴状態取得手段が接続される外部機器接続手段を備えることが好ましい。
かかる構成によれば、視聴状態取得手段を備えていないホームサーバであっても、外部機器として視聴状態取得手段を外部機器接続手段に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、当該サービスを受けることができるホームサーバの必須項目から視聴状態取得手段を除外できるので、当該サービスを受けることができるホームサーバの普及を促進できる。
かかる構成によれば、視聴状態取得手段を備えていないホームサーバであっても、外部機器として視聴状態取得手段を外部機器接続手段に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、当該サービスを受けることができるホームサーバの必須項目から視聴状態取得手段を除外できるので、当該サービスを受けることができるホームサーバの普及を促進できる。
この場合、前記ホームサーバは、ネットワークを介して携帯端末に接続され、前記外部機器接続手段は、前記ホームサーバ通信手段を介して、前記携帯端末が備える又は前記携帯端末に接続された前記視聴状態取得手段が接続されることが好ましい。
かかる構成によれば、視聴状態取得手段を備えていないホームサーバであっても、視聴者の視聴状態を取得できる携帯端末を外部機器接続手段に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
かかる構成によれば、視聴状態取得手段を備えていないホームサーバであっても、視聴者の視聴状態を取得できる携帯端末を外部機器接続手段に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、この場合、前記ホームサーバは、前記所定シーンを視聴した時の視聴者の視聴状態を取得する視聴状態取得手段を備えることが好ましい。
かかる構成によれば、ホームサーバが視聴状態取得手段を備えたので、放送と通信の連携を図るシステムにおいて、別途に視聴状態取得手段を用意しなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、この場合、前記視聴状態取得手段は、画像を取得するカメラデバイスであり、前記関連付け手段は、前記外部機器接続手段を介して、前記視聴状態情報として前記所定シーンを視聴した時の視聴者を撮影した前記画像を前記カメラデバイスから取得する画像情報取得手段と、前記時刻情報を取得する相対時間情報取得手段と、前記番組IDを取得するID取得手段と、前記画像情報取得手段が取得した前記画像と、前記相対時間情報取得手段が取得した前記時刻情報と、前記ID取得手段が取得した前記番組IDと、を関連付けた画像関連付け情報を生成する画像関連付け手段と、を備えることが好ましい。
かかる構成によれば、視聴状態取得手段は、画像を取得するカメラデバイスであり、関連付け手段の画像情報取得手段は、外部機器接続手段を介して、視聴状態情報として所定シーンを視聴した時の視聴者を撮影した画像をカメラデバイスから取得する。画像関連付け手段は、画像情報取得手段が取得した画像と、相対時間情報取得手段が取得した時刻情報と、ID取得手段が取得した番組IDと、を関連付けた画像関連付け情報を生成する。
これにより、視聴状態情報として、視聴者の画像を用いることができるので、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての恣意的でない視聴状態を容易かつ適切に取得できるようになる。
また、この場合、前記視聴状態取得手段は、音声情報を取得するマイクデバイスであり、前記関連付け手段は、前記外部機器接続手段を介して、前記視聴状態情報として視聴者が前記所定シーンを視聴した時に発した前記音声情報を前記マイクデバイスから取得する音声情報取得手段と、前記時刻情報を取得する相対時間情報取得手段と、前記番組IDを取得するID取得手段と、前記音声情報取得手段が取得した前記音声情報と、前記相対時間情報取得手段が取得した前記時刻情報と、前記ID取得手段が取得した前記番組IDと、を関連付けた音声関連付け情報を生成する音声関連付け手段と、を備えることが好ましい。
かかる構成によれば、視聴状態取得手段は、音声情報を取得するマイクデバイスであり、関連付け手段の音声情報取得手段は、外部機器接続手段を介して、視聴状態情報として視聴者が所定シーンを視聴した時に発した音声情報をマイクデバイスから取得する。音声関連付け手段は、音声情報取得手段が取得した音声情報と、相対時間情報取得手段が取得した時刻情報と、ID取得手段が取得した番組IDと、を関連付けた音声関連付け情報を生成する。
これにより、視聴状態情報として、視聴者の音声を用いることができるので、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての恣意的でない視聴状態を容易かつ適切に取得できるようになる。
本発明に係るプログラムは、ネットワークを介してサービスサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機及び前記サービスサーバとネットワークを介して接続されたホームサーバを制御するコンピュータを、前記受信機から送信された前記コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び前記放送信号に含まれる前記コンテンツを特定する番組IDと、前記所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け手段、前記関連付け手段により生成された前記関連付け情報を前記サービスサーバに送信する制御を実行する通信手段、として機能させる。
かかる構成によれば、本発明に係る受信機と同様の作用効果を奏する。
かかる構成によれば、本発明に係る受信機と同様の作用効果を奏する。
本発明によれば、放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できる。
以下、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の一実施形態に係る放送通信連携システム100の全体構成図である。放送通信連携システム100は、放送局1と、放送用アンテナ2と、サービスサーバ3と、受信機4と、ホームサーバ40と、を含んで構成される。この放送通信連携システム100では、受信機4において、ISDB(Integrated Services Digital Broadcasting:統合デジタル放送サービス)方式によって放送局1から提供される放送サービスと、インターネット等により構成される通信ネットワークNを介してサービスサーバ3から提供される通信サービスとが連携される。また、この放送通信連携システム100では、受信機4と連携するホームサーバ40に、通信ネットワークNを介してサービスサーバ3から通信サービスが提供される。これにより、放送通信連携サービスが受信機4及びホームサーバ40のユーザに提供される。
本実施形態では、放送通信連携システム100は、Hybridcast(登録商標)システムであるものとする。Hybridcastとは、同報性、高品質、高信頼という放送の特徴と、視聴者の個別の要求に応えることができるという通信の特徴とを生かしたシステムを構築するための仕組みである。Hybridcastシステムは、放送サービスを中心に置きながら、通信の活用によってサービスを強化するという観点で、放送と通信のハイブリッドサービスを実現することができる。
図1は、本発明の一実施形態に係る放送通信連携システム100の全体構成図である。放送通信連携システム100は、放送局1と、放送用アンテナ2と、サービスサーバ3と、受信機4と、ホームサーバ40と、を含んで構成される。この放送通信連携システム100では、受信機4において、ISDB(Integrated Services Digital Broadcasting:統合デジタル放送サービス)方式によって放送局1から提供される放送サービスと、インターネット等により構成される通信ネットワークNを介してサービスサーバ3から提供される通信サービスとが連携される。また、この放送通信連携システム100では、受信機4と連携するホームサーバ40に、通信ネットワークNを介してサービスサーバ3から通信サービスが提供される。これにより、放送通信連携サービスが受信機4及びホームサーバ40のユーザに提供される。
本実施形態では、放送通信連携システム100は、Hybridcast(登録商標)システムであるものとする。Hybridcastとは、同報性、高品質、高信頼という放送の特徴と、視聴者の個別の要求に応えることができるという通信の特徴とを生かしたシステムを構築するための仕組みである。Hybridcastシステムは、放送サービスを中心に置きながら、通信の活用によってサービスを強化するという観点で、放送と通信のハイブリッドサービスを実現することができる。
放送局1は、番組編成設備と、番組送出設備と、送信設備とを含んで構成される一般的なデジタル放送用の放送設備(図示省略)を備える。
放送局1は、放送設備によって、コンテンツや、イベント情報(Event Information Table:EIT)や、AIT(以下、アプリケーション管理情報とも適宜呼ぶ)等を制作する。そして、放送局1は、放送設備によって、これらコンテンツ、イベント情報及びAIT等を多重化した放送信号を生成し、当該放送信号を放送波に変調して放送用アンテナ2から送信する。
放送局1は、放送設備によって、コンテンツや、イベント情報(Event Information Table:EIT)や、AIT(以下、アプリケーション管理情報とも適宜呼ぶ)等を制作する。そして、放送局1は、放送設備によって、これらコンテンツ、イベント情報及びAIT等を多重化した放送信号を生成し、当該放送信号を放送波に変調して放送用アンテナ2から送信する。
このような放送波に含まれるコンテンツとしては、放送スケジュールに従って放送される番組を構成する映像や音声の各データを含むコンテンツ(以下、番組コンテンツと呼ぶ)の他、番組コンテンツとは非同期に発生するコンテンツ、例えば緊急地震速報等を含むコンテンツ(以下、緊急コンテンツと呼ぶ)も存在する。
イベント情報は、番組コンテンツの名称、番組コンテンツの放送日時、番組コンテンツの説明等、コンテンツに関するメタ情報を含む。以下、テーブル形式のイベント情報をEITと呼ぶ。
AIT(アプリケーション管理情報)は、受信機4で実行可能な1以上のアプリケーションを管理するための情報である。AITには、1以上のアプリケーションのそれぞれに対応し、当該1以上のアプリケーションのそれぞれを管理するための個別管理情報が含まれる。個別管理情報には、管理対象のアプリケーションを識別するアプリケーションID、当該アプリケーションのライフサイクルを制御するライフサイクル制御情報、当該アプリケーションの所在を示すロケーション情報等が含まれている(後述の図6参照)。
AIT(アプリケーション管理情報)は、受信機4で実行可能な1以上のアプリケーションを管理するための情報である。AITには、1以上のアプリケーションのそれぞれに対応し、当該1以上のアプリケーションのそれぞれを管理するための個別管理情報が含まれる。個別管理情報には、管理対象のアプリケーションを識別するアプリケーションID、当該アプリケーションのライフサイクルを制御するライフサイクル制御情報、当該アプリケーションの所在を示すロケーション情報等が含まれている(後述の図6参照)。
アプリケーションにより提供されるコンテンツには、番組コンテンツに連動するコンテンツ及び番組コンテンツに連動しないコンテンツが含まれる。以下、アプリケーションにより提供されるコンテンツをアプリ用コンテンツという。
放送信号は、従来のデジタル放送の放送信号と同一であり、ARIB(登録商標)(Association of Radio Industries and Broadcast:社団法人電波産業会)標準規格で規定される。
図2は、デジタル放送に係る放送信号の伝送プロトコルのスタックを示す図である。図2に示すように、デジタル放送によって提供される映像、音声等の各種データは、国際標準規格MPEG−2 Systemsで規定されるTSパケット(トランスポートストリームパケット)に格納されて、時分割で多重伝送される。
TSパケットには、図2に示すように、セクション(Section)に対してPSI(Program Specific Information)/SI(Service Information)が規定されている。PSI/SIには、TSパケットに格納されているデータの種別を示す情報や、コンテンツの種別を示す情報が含まれている。上述のEITは、SIに含まれている。
TSパケットによるデータ伝送は、セクションを用いてデータを伝送する方式とPES(Packetized Elementary Stream)パケットを用いてデータを伝送する方式(データストリーム伝送方式)とに分類される。
セクションを用いてデータを伝送する方式には、データカルーセル伝送方式と、イベントメッセージ伝送方式がある。
データカルーセル伝送方式は、1以上のデータを一定周期で繰り返し伝送する伝送方式である。データカルーセル伝送方式によって伝送される個々のデータ(モジュール)には、それらを一意に識別するための識別情報が付されている。データカルーセル伝送方式は、受信機4側に個々のデータを任意のタイミングで取得させるために用いられる。
イベントメッセージ伝送方式は、放送局1から受信機4に対して、トリガ信号を送るための方式である。イベントメッセージ伝送方式は、データ量が少ないメッセージを放送局1から受信機4に伝送する場合に用いられる。
データストリーム伝送方式は、伝送するデータをPESパケットに収容してストリームとして伝送する伝送方式である。データストリーム伝送方式は、映像、音声、字幕データ等のリアルタイム型のデータや、他のストリームとの同期を要するデータの伝送に用いられる。
ここで、AITは、TSパケットを用いて様々な方法によって伝送可能である。
即ち、AITは、TSパケットのSIに含まれるEITに対して記述することによって伝送可能である。
即ち、AITは、TSパケットのSIに含まれるEITに対して記述することによって伝送可能である。
また、AITは、セクションを用いてデータカルーセル伝送方式により伝送可能である。AITをデータカルーセル伝送方式により伝送する場合、受信機4側でAITであることを認識できるようにモジュールに対して識別情報が付される。
また、AITは、PESとしてコンテンツの映像や音声に多重させて伝送可能である。
また、AITは、バイナリ表現又はXML(Extensible Markup Language)によるテキスト表現で記述して、TSパケットに格納することができる。
本実施形態では、AITの伝送方法は、上記の伝送方法の少なくともいずれかに予め規定されているものとする。
本実施形態では、AITの伝送方法は、上記の伝送方法の少なくともいずれかに予め規定されているものとする。
なお、XMLをベースとした、マルチメディア符号化用に開発されたBMLは、W3C(登録商標)(World Wide Web Consortium)が定義したxHTMLを基礎とし、手続き型言語にはJavaScript(登録商標)を基礎としたECMAScriptを用いて国際標準との整合性を考慮して定義された規格である。
サービスサーバ3は、図示は省略するが、放送済みの番組コンテンツや、アプリ用コンテンツを配信するコンテンツ配信サーバと、受信機4やホームサーバ40で動作する各種のアプリケーションを配信するアプリケーション配信サーバとを備える。
サービスサーバ3は、放送局1の設備と通信可能に接続されており、番組コンテンツや、番組コンテンツのメタデータを放送局1から受信する。
サービスサーバ3は、受信機4やホームサーバ40から番組コンテンツの取得要求を受け付けたことに応じて、受信機4やホームサーバ40に対して番組コンテンツを送信する。
サービスサーバ3は、受信機4やホームサーバ40から番組コンテンツの取得要求を受け付けたことに応じて、受信機4やホームサーバ40に対して番組コンテンツを送信する。
また、サービスサーバ3は、受信機4やホームサーバ40からアプリケーションの取得要求を受け付けたことに応じて、受信機4やホームサーバ40に対してアプリケーションを送信する。さらに、サービスサーバ3は、受信機4やホームサーバ40においてアプリケーションが実行されている場合に、映像や音声等の各データを含むアプリ用コンテンツを受信機4やホームサーバ40に送信する。
また、サービスサーバ3は、必要に応じて、番組コンテンツに対してAITを多重化させて受信機4やホームサーバ40に送信する。また、サービスサーバ3は、受信機4やホームサーバ40からAITの取得要求を受け付けたことに応じて、受信機4やホームサーバ40に対してAITを送信する。
また、サービスサーバ3は、番組コンテンツの所定シーンに対する視聴者の視聴状態を示す情報(以下、視聴状態情報と呼ぶ)と、放送局1から放送された放送信号に含まれる番組コンテンツを特定する番組IDと、を関連付けた関連付け情報をホームサーバ40から受信する。
ここで、関連付け情報には、視聴状態情報が所定シーンを視聴した時の視聴者の画像である画像関連付け情報と、視聴状態情報が所定シーンを視聴した時の視聴者の音声情報である音声関連付け情報と、が含まれる。
ここで、関連付け情報には、視聴状態情報が所定シーンを視聴した時の視聴者の画像である画像関連付け情報と、視聴状態情報が所定シーンを視聴した時の視聴者の音声情報である音声関連付け情報と、が含まれる。
また、サービスサーバ3は、ホームサーバ40から受信した画像関連付け情報をもとに、視聴者の動作認識や表情認識を行い、これを用いて視聴者の番組に関する関心度等を算出し、当該視聴者に勧める番組や当該番組や所定シーンに関連する情報を生成し、当該情報を受信機4やホームサーバ40やこれらに接続された携帯端末等に送信する。
また、サービスサーバ3は、ホームサーバ40から受信した音声関連付け情報をもとに、視聴者の発話内容や周囲の暗騒音区間を抽出し、この抽出の結果を用いて視聴者の番組に関する関心度等を算出し、当該視聴者に勧める番組や当該番組や所定シーンに関連する情報を生成し、当該情報を受信機4やホームサーバ40やこれらに接続された携帯端末等に送信する。
受信機4は、放送局1からの放送又はサービスサーバ3との通信を介して受信する番組コンテンツに対して所定の処理を行うことにより、番組コンテンツを構成する映像や音声を同期して出力する。
受信システムとしての受信機4及びホームサーバ40は、AITに基づいて、アプリケーションを適宜取得し、取得したアプリケーションを起動して実行する。また例えば、受信機4は、実行されているアプリケーションによってサービスサーバ3からアプリ用コンテンツを取得し、番組コンテンツに連携させて出力することも可能である。なお、アプリ用コンテンツの出力は、必ずしも番組コンテンツに連携させる必要はない。
以下、このような受信機4及びホームサーバ40の機能について詳述する。
以下、このような受信機4及びホームサーバ40の機能について詳述する。
まず、理解を容易にするため、図3を参照して、受信機4及びホームサーバ40が有する機能の一部の概要を説明する。
図3は、放送通信連携システム100の概要を示す図である。
図3は、放送通信連携システム100の概要を示す図である。
図3の例では、視聴状態情報として、視聴者の顔の表情が写った画像のデータ、及び、視聴者が発声した音声のデータが採用されている。このため、当該画像を撮影するためのカメラデバイス5、及び、視聴者の音声を入力するためのマイクロフォンデバイス6(以下、マイクデバイス6と略称する)が、ホームサーバ40に接続されている。なお、図3においては、カメラデバイス5とマイクデバイス6とはホームサーバ40からみて外部機器となっているが、これはあくまでも例示であって、後述するように、カメラデバイス5及びマイクデバイス6はホームサーバ40に内蔵されていてもよい。
また、図3中の点線で示すように、ホームサーバ40からみて外部機器であるカメラデバイス5及びマイクデバイス6は、ホームサーバ40に接続された携帯端末10に内蔵されたカメラデバイス及びマイクデバイスでもよく、また、ホームサーバ40に接続された携帯端末10に接続されたカメラデバイス及びマイクデバイスであってもよい。
また、受信機4及びホームサーバ40は、スマートフォンや携帯電話機等で構成される携帯端末10と連動して動作することもできる。
また、図3中の点線で示すように、ホームサーバ40からみて外部機器であるカメラデバイス5及びマイクデバイス6は、ホームサーバ40に接続された携帯端末10に内蔵されたカメラデバイス及びマイクデバイスでもよく、また、ホームサーバ40に接続された携帯端末10に接続されたカメラデバイス及びマイクデバイスであってもよい。
また、受信機4及びホームサーバ40は、スマートフォンや携帯電話機等で構成される携帯端末10と連動して動作することもできる。
受信機4は、放送局1が放送した番組コンテンツを含んだ放送信号を受信して、当該番組コンテンツを再生する。
また、受信機4は、当該番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報を取得する。
さらに、受信機4は、当該番組コンテンツを特定する番組IDを取得する。
そして、受信機4は、取得した時刻情報及び番組IDを、通信によりホームサーバ40に提供する。
ホームサーバ40は、受信機4が当該番組コンテンツにおける所定シーンを再生させているときに、カメラデバイス5に視聴者を撮影させて、その結果得られる画像のデータを視聴状態情報として取得したり、マイクデバイス6から入力した視聴者の音声のデータを視聴状態情報として取得する。
また、ホームサーバ40は、受信機4から時刻情報及び番組IDを取得する。
次に、ホームサーバ40は、これら取得した情報を関連付けた情報(以下、関連付け情報と呼ぶ)を生成する。即ち、当該番組コンテンツにおける所定シーンについての視聴状態情報並びに時刻情報、及び番組IDが関連付けられた関連付け情報が生成される。
そして、ホームサーバ40は、関連付け情報を、通信によりサービスサーバ3に提供する。
また、受信機4は、当該番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報を取得する。
さらに、受信機4は、当該番組コンテンツを特定する番組IDを取得する。
そして、受信機4は、取得した時刻情報及び番組IDを、通信によりホームサーバ40に提供する。
ホームサーバ40は、受信機4が当該番組コンテンツにおける所定シーンを再生させているときに、カメラデバイス5に視聴者を撮影させて、その結果得られる画像のデータを視聴状態情報として取得したり、マイクデバイス6から入力した視聴者の音声のデータを視聴状態情報として取得する。
また、ホームサーバ40は、受信機4から時刻情報及び番組IDを取得する。
次に、ホームサーバ40は、これら取得した情報を関連付けた情報(以下、関連付け情報と呼ぶ)を生成する。即ち、当該番組コンテンツにおける所定シーンについての視聴状態情報並びに時刻情報、及び番組IDが関連付けられた関連付け情報が生成される。
そして、ホームサーバ40は、関連付け情報を、通信によりサービスサーバ3に提供する。
サービスサーバ3は、関連付け情報を受信すると、これに対するサービスフィードバック情報として、当該番組コンテンツの所定シーンに関連する各種情報や、当該視聴者に推薦する別の番組コンテンツの情報を、受信機4やホームサーバ40や携帯端末10に送信する。
さらに以下、図4を参照して、受信機4について詳述する。
図4は、受信機4の機能構成を示すブロック図である。
受信機4は、放送波受信部11と、第1分離部12と、放送AIT取得部13と、受信機通信手段としての通信部14と、第2分離部15と、通信AIT取得部16と、アプリケーション実行制御部17と、音声制御部18と、表示制御部19と、スピーカ20と、ディスプレイ21と、メモリ22と、AIT記憶部23とを備える。
図4は、受信機4の機能構成を示すブロック図である。
受信機4は、放送波受信部11と、第1分離部12と、放送AIT取得部13と、受信機通信手段としての通信部14と、第2分離部15と、通信AIT取得部16と、アプリケーション実行制御部17と、音声制御部18と、表示制御部19と、スピーカ20と、ディスプレイ21と、メモリ22と、AIT記憶部23とを備える。
放送波受信部11は、放送用アンテナ2を介して放送局1から送信されている放送波を受信する。
第1分離部12は、放送波受信部11に受信された放送波を復調することによって、放送信号、即ちTSパケットを抽出する。そして、第1分離部12は、TSパケットのPSI/SIを参照して、TSパケットに含まれているデータの種別を判別し、映像、音声、EIT、番組ID等の各種データを分離して抽出する。また、第1分離部12は、予め規定されているAITの伝送方法に応じて、セクションやPESを参照してAITを分離して抽出する。
続いて、第1分離部12は、TSパケットのPESに含まれているデータが音声データである場合、この音声データを音声制御部18に出力する。また、第1分離部12は、TSパケットのPESに含まれているデータが映像データである場合、この映像データを表示制御部19に出力する。
また、第1分離部12は、抽出したEIT、番組IDやその他の各種データをメモリ22に記憶させる。また、第1分離部12は、AITを抽出した場合、抽出したAITを放送AIT取得部13に出力する。
放送AIT取得部13は、第1分離部12から出力されたAITを取得し、AIT記憶部23に記憶させる。
通信部14は、通信ネットワークNを介するサーバ群3やホームサーバ40との間で各種情報を送受信したり、リモートコントローラR(以下、リモコンRと略記する)からの操作信号を受信したり、携帯端末10との間で各種情報を送受信する。
第2分離部15は、サーバ群3から通信ネットワークNを介して送信されてきて通信部14に受信されたデータの種別を判別し、その判別結果に基づいてデータの出力先を分離する。例えば、第2分離部15は、受信したデータがAITであると判別した場合、このAITを通信AIT取得部16に出力する。また、第2分離部15は、受信したデータがアプリケーションであると判別した場合、このアプリケーションをアプリケーション実行制御部17に出力する。
また、第2分離部15は、受信したデータがTSパケットであると判別した場合、映像、音声、AIT、番組ID等の各種データをTSパケットから分離して抽出する。そして、第2分離部15は、AITを抽出した場合、このAITを通信AIT取得部16に出力し、AIT以外のデータを抽出した場合、このデータをアプリケーション実行制御部17に出力する。
通信AIT取得部16は、第2分離部15から出力されたAITを取得し、AIT記憶部23に記憶させる。
アプリケーション実行制御部17は、AIT又はリモコンRを介したユーザの実行指示に基づいてアプリケーションを取得し、取得したアプリケーションの実行を制御する。例えば、アプリケーション実行制御部17は、関連付け情報を生成して出力するアプリケーションを起動した場合、当該アプリケーションの実行によって、番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTSを表示制御部19から取得して、通信部14を介してホームサーバ40に送信する。また、アプリケーション実行制御部17は、当該アプリケーションの実行によって、メモリ22に記憶された番組ID及びユーザを特定するユーザIDを通信部14を介してホームサーバ40に送信する。
メモリ22は、EIT、番組ID等の番組コンテンツのメタ情報やその他各種情報を記憶する。
AIT記憶部23は、放送AIT取得部13及び通信AIT取得部16によって取得されたAITを記憶する。
AIT記憶部23は、放送AIT取得部13及び通信AIT取得部16によって取得されたAITを記憶する。
さらに以下、図5を参照して、ホームサーバ40について詳述する。
図5は、ホームサーバ40の機能構成を示すブロック図である。
ホームサーバ40は、ホームサーバ通信手段としての通信部44と、分離部45と、通信AIT取得部46と、アプリケーション実行制御部47と、AIT記憶部53、外部機器接続手段としてのデバイス接続部54と、関連付け部55とを備える。
図5は、ホームサーバ40の機能構成を示すブロック図である。
ホームサーバ40は、ホームサーバ通信手段としての通信部44と、分離部45と、通信AIT取得部46と、アプリケーション実行制御部47と、AIT記憶部53、外部機器接続手段としてのデバイス接続部54と、関連付け部55とを備える。
通信部44は、通信ネットワークNを介するサーバ群3や受信機4との間で各種情報を送受信したり、リモートコントローラR(以下、リモコンRと略記する)からの操作信号を受信したり、携帯端末10との間で各種情報を送受信する。
分離部45は、サーバ群3や受信機4から通信ネットワークNを介して送信されてきて通信部44に受信されたデータの種別を判別し、その判別結果に基づいてデータの出力先を分離する。例えば、分離部45は、受信したデータがAITであると判別した場合、このAITを通信AIT取得部46に出力する。また、分離部45は、受信したデータがアプリケーションであると判別した場合、このアプリケーションをアプリケーション実行制御部17に出力する。また、分離部45は、受信機4から受信したデータがNPT、PTS、番組ID又はユーザIDであると判別した場合は、これらのNPT、PTS、番組ID及びユーザIDをアプリケーション実行制御部47に出力する。
また、分離部45は、受信したデータがTSパケットであると判別した場合、映像、音声、AIT、番組ID等の各種データをTSパケットから分離して抽出する。そして、分離部45は、AITを抽出した場合、このAITを通信AIT取得部46に出力し、AIT以外のデータを抽出した場合、このデータをアプリケーション実行制御部47に出力する。
通信AIT取得部46は、分離部45から出力されたAITを取得し、AIT記憶部53に記憶させる。
アプリケーション実行制御部47は、AIT又はリモコンRを介したユーザの実行指示に基づいてアプリケーションを取得し、取得したアプリケーションの実行を制御する。例えば、アプリケーション実行制御部47は、関連付け情報を生成して出力するアプリケーションを起動した場合、当該アプリケーションの実行によって、受信機4から受信したNPT、PTS、番組ID及びユーザIDを関連付け部55に出力する。
AIT記憶部53は、通信AIT取得部46によって取得されたAITを記憶する。
AIT記憶部53は、通信AIT取得部46によって取得されたAITを記憶する。
デバイス接続部54は、カメラデバイス5やマイクデバイス6等のデバイスを接続し、当該デバイスからの入力情報を視聴状態情報として関連付け部55に供給する。
具体的には、デバイス接続部54は、アプリケーション実行制御部47により実行されたアプリケーション(以下、Hybridcastアプリケーションとも呼ぶ)によって、カメラデバイス5により視聴者が撮影された結果得られる画像のデータを、視聴状態情報として取得して、関連付け部55に出力する。また、デバイス接続部54は、アプリケーション実行制御部47により実行されたアプリケーションによって、マイクデバイス6から入力された視聴者の音声のデータを、視聴状態情報として取得して、関連付け部55に出力する。
なお、デバイス接続部54に接続されるカメラデバイス5やマイクデバイス6は、ホームサーバ40に接続された携帯端末10に内蔵されたカメラデバイス及びマイクデバイスでもよく、また、携帯端末10に接続されたカメラデバイス及びマイクデバイスであってもよい。
また、デバイス接続部54に接続されるデバイスは、カメラデバイス5やマイクデバイス6に限られず、その他例えば、視聴者の位置情報を取得可能なジャイロセンサや、視聴者の動作を検知可能な光センサであってもよい。
さらに、デバイス接続部54に接続とは、外部機器に接続することのみを意味せず、内蔵機器に接続することも意味する。従って、カメラデバイス5やマイクデバイス6は、外部機器である必要は特になく、ホームサーバ40に内蔵されていてもよい。
なお、デバイス接続部54のさらなる詳細については、図7乃至図11を参照して後述する。
具体的には、デバイス接続部54は、アプリケーション実行制御部47により実行されたアプリケーション(以下、Hybridcastアプリケーションとも呼ぶ)によって、カメラデバイス5により視聴者が撮影された結果得られる画像のデータを、視聴状態情報として取得して、関連付け部55に出力する。また、デバイス接続部54は、アプリケーション実行制御部47により実行されたアプリケーションによって、マイクデバイス6から入力された視聴者の音声のデータを、視聴状態情報として取得して、関連付け部55に出力する。
なお、デバイス接続部54に接続されるカメラデバイス5やマイクデバイス6は、ホームサーバ40に接続された携帯端末10に内蔵されたカメラデバイス及びマイクデバイスでもよく、また、携帯端末10に接続されたカメラデバイス及びマイクデバイスであってもよい。
また、デバイス接続部54に接続されるデバイスは、カメラデバイス5やマイクデバイス6に限られず、その他例えば、視聴者の位置情報を取得可能なジャイロセンサや、視聴者の動作を検知可能な光センサであってもよい。
さらに、デバイス接続部54に接続とは、外部機器に接続することのみを意味せず、内蔵機器に接続することも意味する。従って、カメラデバイス5やマイクデバイス6は、外部機器である必要は特になく、ホームサーバ40に内蔵されていてもよい。
なお、デバイス接続部54のさらなる詳細については、図7乃至図11を参照して後述する。
関連付け部55は、番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTSをアプリケーション実行制御部47から取得する。関連付け部55は、当該所定シーンを視聴した時の視聴者の視聴状態を示す視聴状態情報として、画像又は音声のデータをデバイス接続部54から取得する。関連付け部55は、番組IDやユーザID等のID情報をアプリケーション実行制御部47から取得する。
関連付け部55は、これらの取得した情報、即ち、NPT又はPTSと、画像又は音声のデータとしての視聴状態情報と、ID情報とを関連付けることによって、関連付け情報を生成して、通信部44を介してサービスサーバ3に送信する。
なお、関連付け部55のさらなる詳細については、図12乃至図15を参照して後述する。
関連付け部55は、これらの取得した情報、即ち、NPT又はPTSと、画像又は音声のデータとしての視聴状態情報と、ID情報とを関連付けることによって、関連付け情報を生成して、通信部44を介してサービスサーバ3に送信する。
なお、関連付け部55のさらなる詳細については、図12乃至図15を参照して後述する。
さらに以下、このような機能的構成を有するホームサーバ40のうち、デバイス接続部54について、図7乃至図11を参照して説明する。
上述の如く、デバイス接続部54には、カメラデバイス5やマイクデバイス6といったデバイスが接続される。ただし、デバイス接続部54は、デバイスが単に物理的に接続されたとしても、当該デバイスを発見して認識しなければ、当該デバイスからの情報を視聴状態情報として関連付け部55に出力することはできない。
図7は、このようなデバイスの発見に関する動作を説明する図であって、Hybridcast機能のレイヤの関係を示す図である。
図7に示すように、Hybridcast機能のレイヤとしては、下層から上層に向かう順に、ハードウェア、システムソフトウェア、ヴァーチャルマシン、Hybridcast基本ライブラリ及び拡張ライブラリ、並びに、Hybridcastアプリケーションが存在する。
デバイス接続部54におけるデバイスの発見の動作は、本実施形態では、拡張ライブラリ(ソフトウェアプログラム)の1つである機器発見ライブラリによって行われる。
図7に示すように、Hybridcast機能のレイヤとしては、下層から上層に向かう順に、ハードウェア、システムソフトウェア、ヴァーチャルマシン、Hybridcast基本ライブラリ及び拡張ライブラリ、並びに、Hybridcastアプリケーションが存在する。
デバイス接続部54におけるデバイスの発見の動作は、本実施形態では、拡張ライブラリ(ソフトウェアプログラム)の1つである機器発見ライブラリによって行われる。
図8は、デバイス接続部54の概念を示す図である。
図8に示すように、アプリケーション実行制御部47により実行されるHybridcastアプリケーションが、デバイス接続部54に設けられるデバイスマネージャやHID(Human Interface Device)等とやり取りをする。
ここで、一般的なフィジカルネットワーク層におけるデバイスマネージャインプリメンテーションやHIDインプリメンテーションは、本実施形態では、従来から存在するものが流用される。このため、図9乃至図11のシーケンス図に示すような各種各様のリスナーを実装し、同シーケンス図に示すような各種イベント等を生成して処理するクラスとして、デバイスマネージャやHIDを含むインプリメンテーションクラスを実装することにより、デバイス接続部54が実現される。
図8に示すように、アプリケーション実行制御部47により実行されるHybridcastアプリケーションが、デバイス接続部54に設けられるデバイスマネージャやHID(Human Interface Device)等とやり取りをする。
ここで、一般的なフィジカルネットワーク層におけるデバイスマネージャインプリメンテーションやHIDインプリメンテーションは、本実施形態では、従来から存在するものが流用される。このため、図9乃至図11のシーケンス図に示すような各種各様のリスナーを実装し、同シーケンス図に示すような各種イベント等を生成して処理するクラスとして、デバイスマネージャやHIDを含むインプリメンテーションクラスを実装することにより、デバイス接続部54が実現される。
図9は、動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、所定の外部機器がデバイスとして接続されたときのシーケンス図を示している。
ステップS1において、関連付け部55は、番組IDやユーザID等のID情報をメモリ22から取得する。ただし、ID情報の取得は、ステップS1の処理タイミングだけではなく、放送局1からの番組コンテンツの変わり目等で随時行われる。
ステップS1において、関連付け部55は、番組IDやユーザID等のID情報をメモリ22から取得する。ただし、ID情報の取得は、ステップS1の処理タイミングだけではなく、放送局1からの番組コンテンツの変わり目等で随時行われる。
次に、デバイスマネージャによる機器発見部分のシーケンスとして、次のようなステップS2乃至S9の処理が実行される。
ステップS2において、アプリケーション実行制御部47により実行されるHybridcastアプリケーション(図9乃至図11のシーケンス図の説明ではアプリと略称する)は、デバイス接続部54において、デバイスマネージャインスタンスを登録する。
ステップS3において、デバイスマネージャは、関連付け部55に対してアプリを通知する。
ステップS4において、関連付け部55は、関連付け部物理情報をデバイスマネージャに通知する。ここで、関連付け部物理情報とは、視聴者状態情報(画像や音声)を物理的にどこに流すべきかを示す情報である。
ステップS5において、アプリは、デバイスディスカバリーリスナを生成する。即ち、デバイスディスカバリイベントが登録される。
ステップS6において、デバイスマネージャが、HIDに対してデバイスの発見を試みる。
ステップS7において、HIDは、その応答をデバイスマネージャに返す。
ステップS8において、デバイスマネージャは、ステップS7の応答から得られたデバイス情報と、ステップS4において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
ステップS9において、デバイスマネージャは、デバイス情報をアプリに送ることによって、新しいデバイスをアプリに通知する。
ステップS2において、アプリケーション実行制御部47により実行されるHybridcastアプリケーション(図9乃至図11のシーケンス図の説明ではアプリと略称する)は、デバイス接続部54において、デバイスマネージャインスタンスを登録する。
ステップS3において、デバイスマネージャは、関連付け部55に対してアプリを通知する。
ステップS4において、関連付け部55は、関連付け部物理情報をデバイスマネージャに通知する。ここで、関連付け部物理情報とは、視聴者状態情報(画像や音声)を物理的にどこに流すべきかを示す情報である。
ステップS5において、アプリは、デバイスディスカバリーリスナを生成する。即ち、デバイスディスカバリイベントが登録される。
ステップS6において、デバイスマネージャが、HIDに対してデバイスの発見を試みる。
ステップS7において、HIDは、その応答をデバイスマネージャに返す。
ステップS8において、デバイスマネージャは、ステップS7の応答から得られたデバイス情報と、ステップS4において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
ステップS9において、デバイスマネージャは、デバイス情報をアプリに送ることによって、新しいデバイスをアプリに通知する。
このようにして、デバイスマネージャによる機器発見部分のシーケンスとして、ステップS2乃至S9の処理が実行されると、それに引き続き、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、次のようなステップS10乃至S14の処理が実行される。
ステップS10において、アプリは、デバイスインスタンスに対して、デバイスステイタスリスナーを登録する。
ステップS11において、デバイスインスタンスは、デバイスの状況(例えば電源状態がON状態なのかOFF状態なのかといった状況)を、HIDに対して確認する。
ステップS12において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、デバイスの電源状態がOFF状態の場合には、さらに図10に示す処理が必要になるが、この処理については後述する。
ステップS13において、デバイスインスタンスは、HIDから通知されたデバイスの状況を、アプリに通知する。
ステップS14において、デバイスインスタンスは、デバイスの入力データ(画像や音声のデータであって、視聴者状態情報になるデータ)を関連付け部55に出力する制御を実行すべく、関連付け部55の通知をHIDに対して行う。
ステップS10において、アプリは、デバイスインスタンスに対して、デバイスステイタスリスナーを登録する。
ステップS11において、デバイスインスタンスは、デバイスの状況(例えば電源状態がON状態なのかOFF状態なのかといった状況)を、HIDに対して確認する。
ステップS12において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、デバイスの電源状態がOFF状態の場合には、さらに図10に示す処理が必要になるが、この処理については後述する。
ステップS13において、デバイスインスタンスは、HIDから通知されたデバイスの状況を、アプリに通知する。
ステップS14において、デバイスインスタンスは、デバイスの入力データ(画像や音声のデータであって、視聴者状態情報になるデータ)を関連付け部55に出力する制御を実行すべく、関連付け部55の通知をHIDに対して行う。
ここで、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスについて説明する。
先ず、デバイスの電源状態によらず、ステップS11の処理は実行されるが、デバイスの電源状態がOFF状態である場合には、ステップS12の処理の代わりに、図10のシーケンス図に従った処理が実行される。
図10は、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンス図である。
ステップS12−1の処理は、ステップS12と実質同一の処理である。ただし、ステップS12−1においては、電源状態がOFF状態である旨がデバイスインスタンスに通知される。
そこで、ステップS33において、デバイスインスタンスは、デバイスの電源状態をON状態に遷移させる要求(以下、デバイス電源ON要求と呼ぶ)を、デバイスマネージャに対して行う。
ステップS34において、デバイスマネージャは、デバイスの電源状態をON状態に遷移させる。
ステップS12−2において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、この場合、電源状態がON状態である旨がデバイスインスタンスに通知される。
その後、上述した図9のステップS13及びS14の処理が実行される。
先ず、デバイスの電源状態によらず、ステップS11の処理は実行されるが、デバイスの電源状態がOFF状態である場合には、ステップS12の処理の代わりに、図10のシーケンス図に従った処理が実行される。
図10は、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンス図である。
ステップS12−1の処理は、ステップS12と実質同一の処理である。ただし、ステップS12−1においては、電源状態がOFF状態である旨がデバイスインスタンスに通知される。
そこで、ステップS33において、デバイスインスタンスは、デバイスの電源状態をON状態に遷移させる要求(以下、デバイス電源ON要求と呼ぶ)を、デバイスマネージャに対して行う。
ステップS34において、デバイスマネージャは、デバイスの電源状態をON状態に遷移させる。
ステップS12−2において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、この場合、電源状態がON状態である旨がデバイスインスタンスに通知される。
その後、上述した図9のステップS13及びS14の処理が実行される。
このようにして、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、図9のステップS10乃至S14の処理(デバイスの電源状態がOFF状態の場合図10の処理)が実行されると、次に引き続き、次のようなステップS15乃至S19の処理が実行される。
ステップS15において、アプリは、デバイスインスタンスに対して、入力イベントを要求する。
ステップS16において、デバイスインスタンスは、HIDに対して、入力イベントを要求する。
ステップS17において、デバイスは、即ちここでは外部機器であるカメラデバイス5又はマイクデバイス6は、画像又は音声のデータをHIDに入力する。
ステップS18において、HIDは、ステップS17の処理で入力された画像又は音声のデータを、入力データとして関連付け部55に提供する。なお、関連付け部55は、当該入力データを視聴者状態情報として取得する。
ステップS19において、アプリは、ステップS18の処理時点のNPT/PTSを関連付け部55に提供する。
これ以降、アプリから入力イベントが要求される毎に、ステップS15乃至S19の処理が繰り返し実行される。
ステップS15において、アプリは、デバイスインスタンスに対して、入力イベントを要求する。
ステップS16において、デバイスインスタンスは、HIDに対して、入力イベントを要求する。
ステップS17において、デバイスは、即ちここでは外部機器であるカメラデバイス5又はマイクデバイス6は、画像又は音声のデータをHIDに入力する。
ステップS18において、HIDは、ステップS17の処理で入力された画像又は音声のデータを、入力データとして関連付け部55に提供する。なお、関連付け部55は、当該入力データを視聴者状態情報として取得する。
ステップS19において、アプリは、ステップS18の処理時点のNPT/PTSを関連付け部55に提供する。
これ以降、アプリから入力イベントが要求される毎に、ステップS15乃至S19の処理が繰り返し実行される。
以上まとめると、デバイス接続部54においては、デバイスマネージャが機能する。このデバイスマネージャの主な機能は、HID(デバイス)を発見し、発見したデバイスのデバイス情報と、関連付け部情報とを一緒に用いてデバイスインスタンスを生成することである。
また、このようにしてデバイスマネージャにより生成されたデバイスインスタンスの機能は、アプリから入力イベントを受け取り、HIDと関連付け部55とを制御することである。
また、関連付け部55の機能は、デバイス(HID)からの入力データ(画像や音声のデータであって、視聴者状態情報となるデータ)と、ホームサーバ40に接続された受信機4の内部情報(NPTPTSといった時間情報やID情報)とを関連付けることである。
また、このようにしてデバイスマネージャにより生成されたデバイスインスタンスの機能は、アプリから入力イベントを受け取り、HIDと関連付け部55とを制御することである。
また、関連付け部55の機能は、デバイス(HID)からの入力データ(画像や音声のデータであって、視聴者状態情報となるデータ)と、ホームサーバ40に接続された受信機4の内部情報(NPTPTSといった時間情報やID情報)とを関連付けることである。
ところで、デバイス接続部54に接続されるデバイスは、上述したように、外部機器に特に限定されず、ホームサーバ40の内蔵機器であってもよい。
図11は、動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、デバイスとしてホームサーバ40の内蔵機器を用いる場合のシーケンス図を示している。
図11と図9とを比較するに、図11のステップS51乃至S54は、図9のステップS1乃至S4と同様の処理である。
しかしながら、図11においては、図9のステップS5乃至S7に相当する処理は存在しない。内蔵機器の発見は不要だからである。このため、図11のステップS55においては、デバイスマネージャは、内蔵機器の既知情報と、ステップS54において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
また、図11においては、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスが存在しない。即ち、図11においては、図9のステップS10乃至S14(デバイスの電源状態がOFF状態の場合には図10)に相当する処理は存在しない。内蔵機器の場合、ステイタスリスナーは不要だからである。即ち、デバイスマネージャから状況を変更可能だからである。
なお、図11のステップS56乃至S60は、図9のステップS15乃至S19と同様の処理である。即ち、アプリから入力イベントが要求される毎に、ステップS56乃至S60の処理が繰り返し実行される。
図11と図9とを比較するに、図11のステップS51乃至S54は、図9のステップS1乃至S4と同様の処理である。
しかしながら、図11においては、図9のステップS5乃至S7に相当する処理は存在しない。内蔵機器の発見は不要だからである。このため、図11のステップS55においては、デバイスマネージャは、内蔵機器の既知情報と、ステップS54において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
また、図11においては、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスが存在しない。即ち、図11においては、図9のステップS10乃至S14(デバイスの電源状態がOFF状態の場合には図10)に相当する処理は存在しない。内蔵機器の場合、ステイタスリスナーは不要だからである。即ち、デバイスマネージャから状況を変更可能だからである。
なお、図11のステップS56乃至S60は、図9のステップS15乃至S19と同様の処理である。即ち、アプリから入力イベントが要求される毎に、ステップS56乃至S60の処理が繰り返し実行される。
以上、図4の機能的構成を有するホームサーバ40のうち、デバイス接続部54の詳細について、図7乃至図11を参照して説明した。次に、このようなホームサーバ40のうち、関連付け部55の詳細について、図12乃至図15を参照して説明する。
図12は、関連付け部55の機能構成の一例を示す機能ブロック図である。
関連付け部55は、画像情報取得部551と、相対時間情報取得部552と、ID(番組・ユーザID)取得部553と、画像関連付け部554と、により画像関連付け情報を生成する。
画像情報取得部551は、デバイス接続部54から入力データとして出力された画像(動画のコマ又は静止画)のデータ(図9のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時の視聴者が写った画像のデータを、視聴者状態情報として取得する。
相対時間情報取得部552は、アプリケーション実行制御部47から出力された所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTS(図9のステップS19参照)を取得する。
ID(番組・ユーザID)取得部553は、アプリケーション実行制御部47から出力された番組ID及びユーザID(図9のステップS1のID情報)を取得する。
画像関連付け部554は、画像情報取得部551に取得された画像のデータと、相対時間情報取得部552に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部553に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、画像関連付け部554により生成される関連付け情報を、特に、画像関連付け情報と呼ぶ。画像関連付け部554は、アプリケーション実行制御部47がアプリケーションを終了させるまで、随時、画像関連付け情報を通信部44に出力する。
関連付け部55は、画像情報取得部551と、相対時間情報取得部552と、ID(番組・ユーザID)取得部553と、画像関連付け部554と、により画像関連付け情報を生成する。
画像情報取得部551は、デバイス接続部54から入力データとして出力された画像(動画のコマ又は静止画)のデータ(図9のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時の視聴者が写った画像のデータを、視聴者状態情報として取得する。
相対時間情報取得部552は、アプリケーション実行制御部47から出力された所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTS(図9のステップS19参照)を取得する。
ID(番組・ユーザID)取得部553は、アプリケーション実行制御部47から出力された番組ID及びユーザID(図9のステップS1のID情報)を取得する。
画像関連付け部554は、画像情報取得部551に取得された画像のデータと、相対時間情報取得部552に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部553に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、画像関連付け部554により生成される関連付け情報を、特に、画像関連付け情報と呼ぶ。画像関連付け部554は、アプリケーション実行制御部47がアプリケーションを終了させるまで、随時、画像関連付け情報を通信部44に出力する。
図13は、図12の例の関連付け部55の処理の流れを説明するフローチャートである。
ステップS101において、関連付け部55は、画像情報取得部551で画像(動画のコマ又は静止画)のデータを取得し、相対時間情報取得部552で時刻情報(NPT又はPTS)を取得し、ID取得部553で番組ID及びユーザIDを取得する。
ステップS102において、画像関連付け部554は、ステップS101で取得した各種情報、即ち、画像のデータ、時刻情報、並びに番組ID及びユーザIDを関連付けることによって、画像関連付け情報を生成する。
ステップS103において、画像関連付け部554は、ステップS102で生成した画像関連付け情報を通信部44に出力する。
ステップS104において、関連付け部55は、アプリケーション実行制御部47がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS101に処理を戻し、終了させた場合は本処理を終了させる。
ステップS101において、関連付け部55は、画像情報取得部551で画像(動画のコマ又は静止画)のデータを取得し、相対時間情報取得部552で時刻情報(NPT又はPTS)を取得し、ID取得部553で番組ID及びユーザIDを取得する。
ステップS102において、画像関連付け部554は、ステップS101で取得した各種情報、即ち、画像のデータ、時刻情報、並びに番組ID及びユーザIDを関連付けることによって、画像関連付け情報を生成する。
ステップS103において、画像関連付け部554は、ステップS102で生成した画像関連付け情報を通信部44に出力する。
ステップS104において、関連付け部55は、アプリケーション実行制御部47がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS101に処理を戻し、終了させた場合は本処理を終了させる。
関連付け部55から出力された画像関連付け情報は、通信部44を介して、サービスサーバ3(図4参照)に送信される。
サービスサーバ3は、受信した画像関連付け情報をもとに画像処理を行う。これにより、サービスサーバ3は、視聴者が「どのシーンで笑った」、「どのシーンで興味を失った」等の情報を推定し、視聴者に特別な動作をさせることなく、視聴者の視聴状態を推定することが可能となる。
サービスサーバ3は、受信した画像関連付け情報をもとに画像処理を行う。これにより、サービスサーバ3は、視聴者が「どのシーンで笑った」、「どのシーンで興味を失った」等の情報を推定し、視聴者に特別な動作をさせることなく、視聴者の視聴状態を推定することが可能となる。
図14は、関連付け部55の機能構成の別の例を示す機能ブロック図である。
関連付け部55は、音声情報取得部555と、相対時間情報取得部552と、ID(番組・ユーザID)取得部553と、音声関連付け部556と、により音声関連付け情報(音声の関連付けられたアップリンク情報)を生成する。
音声情報取得部555は、デバイス接続部54から入力データとして出力された音声のデータ(図9のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時に発した音声のデータを、音声情報として取得する。
音声関連付け部556は、音声情報取得部555に取得された音声情報と、相対時間情報取得部552に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部553に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、音声関連付け部556により生成される関連付け情報を、特に、音声関連付け情報と呼ぶ。音声関連付け部556は、アプリケーション実行制御部47がアプリケーションを終了させるまで、随時、音声関連付け情報を通信部44に出力する。
関連付け部55は、音声情報取得部555と、相対時間情報取得部552と、ID(番組・ユーザID)取得部553と、音声関連付け部556と、により音声関連付け情報(音声の関連付けられたアップリンク情報)を生成する。
音声情報取得部555は、デバイス接続部54から入力データとして出力された音声のデータ(図9のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時に発した音声のデータを、音声情報として取得する。
音声関連付け部556は、音声情報取得部555に取得された音声情報と、相対時間情報取得部552に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部553に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、音声関連付け部556により生成される関連付け情報を、特に、音声関連付け情報と呼ぶ。音声関連付け部556は、アプリケーション実行制御部47がアプリケーションを終了させるまで、随時、音声関連付け情報を通信部44に出力する。
図15は、図14の例の関連付け部55の処理の流れを説明するフローチャートである。
ステップS201において、関連付け部55は、音声情報取得部555で音声情報を取得し、相対時間情報取得部552で時刻情報(NPT又はPTS)を取得し、ID取得部553で番組ID及びユーザIDを取得する。
ステップS202において、音声関連付け部556は、ステップS201で取得した各種情報、即ち、音声情報、時刻情報、番組ID及びユーザIDを関連付けることによって、音声関連付け情報を生成する。
ステップS203において、音声関連付け部556は、ステップS202で生成した音声関連付け情報を通信部44に出力する。
ステップS204において、関連付け部55は、アプリケーション実行制御部47がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS201に処理を戻し、終了させた場合は本処理を終了させる。
ステップS201において、関連付け部55は、音声情報取得部555で音声情報を取得し、相対時間情報取得部552で時刻情報(NPT又はPTS)を取得し、ID取得部553で番組ID及びユーザIDを取得する。
ステップS202において、音声関連付け部556は、ステップS201で取得した各種情報、即ち、音声情報、時刻情報、番組ID及びユーザIDを関連付けることによって、音声関連付け情報を生成する。
ステップS203において、音声関連付け部556は、ステップS202で生成した音声関連付け情報を通信部44に出力する。
ステップS204において、関連付け部55は、アプリケーション実行制御部47がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS201に処理を戻し、終了させた場合は本処理を終了させる。
本実施形態によれば、以下のような効果がある。
(1)受信機4は、放送局1が放送した放送信号に含まれるコンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報と、当該所定シーンを視聴した時の視聴者の視聴状態と、放送信号に含まれるコンテンツを特定する番組IDと、を通信部14によりホームサーバ40へ送信する。
ホームサーバ40は、受信機4から送信された時刻情報及び番組IDと、所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を関連付け部55により生成し、この生成した関連付け情報を通信部44によりサービスサーバ3に送信する。
(1)受信機4は、放送局1が放送した放送信号に含まれるコンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報と、当該所定シーンを視聴した時の視聴者の視聴状態と、放送信号に含まれるコンテンツを特定する番組IDと、を通信部14によりホームサーバ40へ送信する。
ホームサーバ40は、受信機4から送信された時刻情報及び番組IDと、所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を関連付け部55により生成し、この生成した関連付け情報を通信部44によりサービスサーバ3に送信する。
これにより、ホームサーバ40において、受信機4で再生された番組IDにより特定されるコンテンツの所定シーンと当該所定シーンを視聴した視聴者の視聴状態とが紐づけられ、サービスサーバ3に送信される。
従って、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
従って、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
(2)ホームサーバ40は、カメラデバイスやマイクデバイスを備えていなくとも、外部機器としてカメラデバイスやマイクデバイスをデバイス接続部54に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、当該サービスを受けることができるホームサーバの必須項目から視聴状態取得手段を除外できるので、当該サービスを受けることができるホームサーバの普及を促進できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、当該サービスを受けることができるホームサーバの必須項目から視聴状態取得手段を除外できるので、当該サービスを受けることができるホームサーバの普及を促進できる。
(3)ホームサーバ40は、カメラデバイスやマイクデバイスを備えていなくとも、視聴者の視聴状態を取得できる携帯端末10をデバイス接続部54に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
(4)ホームサーバ40は、カメラデバイスやマイクデバイスを備えたので、放送と通信の連携を図るシステムにおいて、別途にカメラデバイスやマイクデバイスを用意しなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
(5)受信機4の関連付け部55の画像情報取得部551は、デバイス接続部54を介して、視聴状態情報として所定シーンを視聴した時の視聴者を撮影した画像のデータをカメラデバイス5から取得する。画像関連付け部554は、画像情報取得部551が取得した画像のデータと、相対時間情報取得部552が取得した時刻情報と、ID取得部553が取得した番組IDと、を関連付けた画像関連付け情報を生成する。
これにより、視聴状態情報として、視聴者の画像のデータを用いることができるので、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての恣意的でない視聴状態を容易かつ適切に取得できるようになる。
(6)受信機4の関連付け部55の音声情報取得部555は、デバイス接続部54を介して、視聴状態情報として視聴者が所定シーンを視聴した時に発した音声のデータをマイクデバイス6から取得する。音声関連付け部556は、音声情報取得部555が取得した音声のデータと、相対時間情報取得部552が取得した時刻情報と、ID取得部553が取得した番組IDと、を関連付けた音声関連付け情報を生成する。
これにより、視聴状態情報として、視聴者の音声のデータを用いることができるので、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての恣意的でない視聴状態を容易かつ適切に取得できるようになる。
なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
本実施形態では、例えば、デバイスとしてカメラデバイス及びマイクデバイスを備えているが、これに限られるものではなく、視聴者の視聴状態情報を取得できる限り、カメラデバイス又はマイクデバイスのいずれかを備えればよい。
本実施形態では、例えば、デバイスとしてカメラデバイス及びマイクデバイスを備えているが、これに限られるものではなく、視聴者の視聴状態情報を取得できる限り、カメラデバイス又はマイクデバイスのいずれかを備えればよい。
1 放送局
3 サービスサーバ
4 受信機
14 通信部
40 ホームサーバ
44 通信部
55 関連付け部
N ネットワーク
3 サービスサーバ
4 受信機
14 通信部
40 ホームサーバ
44 通信部
55 関連付け部
N ネットワーク
Claims (7)
- ネットワークを介してサービスサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機と、前記受信機及び前記サービスサーバとネットワークを介して接続されたホームサーバと、を備える受信システムであって、
前記受信機は、前記コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び前記放送信号に含まれる前記コンテンツを特定する番組IDを前記ホームサーバに送信する受信機通信手段を有し、
前記ホームサーバは、
前記受信機から送信された前記時刻情報及び前記番組IDと、前記所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け手段と、
前記関連付け手段で生成した前記関連付け情報を前記サービスサーバに送信するホームサーバ通信手段と、を有する受信システム。 - 前記ホームサーバは、前記所定シーンを視聴した時の視聴者の視聴状態を取得する視聴状態取得手段が接続される外部機器接続手段を備える請求項1に記載の受信システム。
- 前記ホームサーバは、ネットワークを介して携帯端末に接続され、
前記外部機器接続手段は、前記ホームサーバ通信手段を介して、前記携帯端末が備える又は前記携帯端末に接続された前記視聴状態取得手段が接続される、
請求項2に記載の受信システム。 - 前記ホームサーバは、前記所定シーンを視聴した時の視聴者の視聴状態を取得する視聴状態取得手段、
を備える請求項1に記載の受信システム。 - 前記視聴状態取得手段は、画像を取得するカメラデバイスであり、
前記関連付け手段は、
前記外部機器接続手段を介して、前記所定シーンを視聴した時の視聴者を撮影した前記画像を前記カメラデバイスから取得する画像情報取得手段と、
前記時刻情報を取得する相対時間情報取得手段と、
前記番組IDを取得するID取得手段と、
前記画像情報取得手段が取得した前記画像と、前記相対時間情報取得手段が取得した前記時刻情報と、前記ID取得手段が取得した前記番組IDと、を関連付けた画像関連付け情報を生成する画像関連付け手段と、
を備える請求項2又は3に記載の受信システム。 - 前記視聴状態取得手段は、音声情報を取得するマイクデバイスであり、
前記関連付け手段は、
前記外部機器接続手段を介して、視聴者が前記所定シーンを視聴した時に発した前記音声情報を前記マイクデバイスから取得する音声情報取得手段と、
前記時刻情報を取得する相対時間情報取得手段と、
前記番組IDを取得するID取得手段と、
前記音声情報取得手段が取得した前記音声情報と、前記相対時間情報取得手段が取得した前記時刻情報と、前記ID取得手段が取得した前記番組IDと、を関連付けた音声関連付け情報を生成する音声関連付け手段と、
を備える請求項2又は3に記載の受信システム。 - ネットワークを介してサービスサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機及び前記サービスサーバとネットワークを介して接続されたホームサーバを制御するコンピュータを、
前記受信機から送信された前記コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び前記放送信号に含まれる前記コンテンツを特定する番組IDと、前記所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け手段、
前記関連付け手段により生成された前記関連付け情報を前記サービスサーバに送信する制御を実行する通信手段、
として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011111813A JP2012244363A (ja) | 2011-05-18 | 2011-05-18 | 受信システム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011111813A JP2012244363A (ja) | 2011-05-18 | 2011-05-18 | 受信システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012244363A true JP2012244363A (ja) | 2012-12-10 |
Family
ID=47465613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011111813A Withdrawn JP2012244363A (ja) | 2011-05-18 | 2011-05-18 | 受信システム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012244363A (ja) |
-
2011
- 2011-05-18 JP JP2011111813A patent/JP2012244363A/ja not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5493627B2 (ja) | 情報処理装置、データ管理方法、およびプログラム | |
JP6247309B2 (ja) | 双方向サービスを処理する装置及び方法 | |
EP2910029B1 (en) | Apparatus and method for processing an interactive service | |
US9661371B2 (en) | Method for transmitting a broadcast service, apparatus for receiving same, and method for processing an additional service using the apparatus for receiving same | |
WO2012161115A1 (ja) | 番組切替制御装置及びプログラム | |
KR101838084B1 (ko) | 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 | |
JP5979646B2 (ja) | 受信機 | |
KR101841313B1 (ko) | 멀티미디어 흐름 처리 방법 및 대응하는 장치 | |
US20130117798A1 (en) | Augmenting content generating apparatus and method, augmented broadcasting transmission apparatus and method, and augmented broadcasting reception apparatus and method | |
JP5854637B2 (ja) | 受信機 | |
JP5773746B2 (ja) | 端末連携システム | |
JP2012242983A (ja) | コンテンツ配信サーバ | |
JP5859223B2 (ja) | 受信機及びプログラム | |
JP5843480B2 (ja) | 受信機及びプログラム | |
JP5864131B2 (ja) | 放送通信連携システム、サーバ及びプログラム | |
JP5854636B2 (ja) | 受信機及びプログラム | |
JP2010109487A (ja) | デジタル放送受信装置及びデジタル放送受信方法 | |
WO2012157753A1 (ja) | 放送通信連携受信装置 | |
CN107005745B (zh) | 封装视听内容流的方法和设备 | |
JP2012244363A (ja) | 受信システム及びプログラム | |
JP5854068B2 (ja) | 情報処理装置、データ管理方法、およびプログラム | |
JP6185959B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2012244387A (ja) | 受信機 | |
JP5584729B2 (ja) | 放送通信連携受信装置 | |
JP2012257239A (ja) | 放送通信連携受信装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140805 |