JP2007235581A - テレビジョン受信装置 - Google Patents
テレビジョン受信装置 Download PDFInfo
- Publication number
- JP2007235581A JP2007235581A JP2006055042A JP2006055042A JP2007235581A JP 2007235581 A JP2007235581 A JP 2007235581A JP 2006055042 A JP2006055042 A JP 2006055042A JP 2006055042 A JP2006055042 A JP 2006055042A JP 2007235581 A JP2007235581 A JP 2007235581A
- Authority
- JP
- Japan
- Prior art keywords
- viewer
- detected
- image data
- feature amount
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 72
- 238000003384 imaging method Methods 0.000 claims description 58
- 238000012790 confirmation Methods 0.000 claims description 50
- 238000004364 calculation method Methods 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 7
- 238000013500 data storage Methods 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 claims description 4
- 230000015654 memory Effects 0.000 abstract description 40
- 238000000034 method Methods 0.000 description 55
- 230000008569 process Effects 0.000 description 42
- 238000000605 extraction Methods 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 210000004709 eyebrow Anatomy 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 238000005070 sampling Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 206010027145 Melanocytic naevus Diseases 0.000 description 1
- 208000029152 Small face Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
【課題】信頼性を考慮した視聴者の確認結果に基づき視聴者の為の動作の制御をする。
【解決手段】テレビジョン受信装置100では、画像入力部227より視聴者の画像データを入力すると、特徴量抽出部203にて顔特徴量を抽出し、エリア分割部217、サイズ検出部219および角度検出部221により顔の位置、サイズ、傾き角度を検出する。認証部205は、抽出した顔特徴量に基づき本人確認をし、顔の位置、サイズ、傾き角度に基づき当該確認結果の信頼度を算出する。本人確認に成功し、かつ信頼度が高い時には、コンテンツ検索部209とコンテンツ出力部211により当該視聴者のためのコンテンツがメモリから読み出されて出力される。
【選択図】図10
【解決手段】テレビジョン受信装置100では、画像入力部227より視聴者の画像データを入力すると、特徴量抽出部203にて顔特徴量を抽出し、エリア分割部217、サイズ検出部219および角度検出部221により顔の位置、サイズ、傾き角度を検出する。認証部205は、抽出した顔特徴量に基づき本人確認をし、顔の位置、サイズ、傾き角度に基づき当該確認結果の信頼度を算出する。本人確認に成功し、かつ信頼度が高い時には、コンテンツ検索部209とコンテンツ出力部211により当該視聴者のためのコンテンツがメモリから読み出されて出力される。
【選択図】図10
Description
本発明はテレビジョン受信装置に関し、特に、視聴者を認識して、認識結果に応じて動作が制御されるテレビジョン受信装置に関する。
カメラを備えて、カメラで撮像された被写体(視聴者)を確認して確認結果に応じたコンテンツを表示するサービスを有するテレビジョン受信装置が提供されている。しかし、表示されるコンテンツは、視聴者に固有のコンテンツである場合が多いから、誤確認されて全くの第3者にコンテンツが許可なく表示されてしまうという惧れがあり、また、誤確認された視聴者は全く関係のないコンテンツが表示されるので、再度、確認してもらうなど使い勝手に優れない。
このような課題を解消するための技術として、特許文献1では、視聴場所から個人を特定して認識精度を向上させている。
また、特許文献2では、複数の顔画像から見え方の変化をモデル化して、モデルとの照合精度の向上が記載されている。
また、特許文献3では、多種類の確認システムを組み合わせて用いることで個人の識別精度を向上させている。
また、特許文献4では、顔が所定の方向を向いたことを検出したときに、撮影動作を行なうようにしている。
また、特許文献5では、撮影された顔画像と、登録されている画像とを比較して、差分を検出して出力するものが開示されている。
特開平07−222208号公報
特開2001−307096号公報
特開平07−095625号公報
特開2003−224761号公報
特開2004−104426号公報
上述したいずれの特許文献でも、確認または識別の精度を向上させてはいるが、その確認結果または識別結果と、その信頼性とを考慮した技術は提案していない。したがって、上述した課題を確実に解消するために、コンテンツ表示など視聴者に独自の制御は、信頼性の高い認識結果に基づいたものとなるような技術の提供が望まれていた。
それゆえにこの発明の目的は、信頼性を考慮した視聴者の確認結果に基づき視聴者に独自の動作の制御を行なうテレビジョン受信装置を提供することである。
この発明のある局面に従うと、テレビジョン受信装置は、視聴者を予め撮像することにより生成された画像データから検出された前記視聴者の顔の特徴量を格納する顔特徴量記憶部と、前記視聴者に応じて前記テレビジョン受信装置の動作を制御するための制御データを格納する制御データ記憶部と、視聴者の撮像により生成された画像データを取得する画像取得手段と、前記画像取得手段により前記画像データが取得されると、前記特徴量記憶部に格納されている顔特徴量と前記画像取得手段により取得された画像データとに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する認証手段と、前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量を用いて、前記認証手段の確認結果の信頼度を検出する信頼度検出手段と、前記認証手段による確認の結果と前記信頼度検出手段により検出された信頼度とに応じて、前記制御データに基づいて前記テレビジョン受信装置の動作を制御する制御手段とを備える。
信頼度検出手段は、視聴者を予め複数回撮像することにより生成された各画像データから検出した視聴者の体勢を示す特徴量に関する統計データを算出する統計算出手段を含む。認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量と、統計算出手段により算出されている前記統計データとに基づき、前記信頼度を検出する。
視聴者の体勢を示す特徴量は、視聴者と前記テレビジョン受信装置との相対位置に応じた特徴量を含み、前記相対位置に応じた特徴量は、前記画像データから検出した視聴者の顔画像の位置であり、前記視聴者の体勢を示す特徴量は、視聴者の姿勢に応じた特徴量を含み、前記姿勢に応じた特徴量は、前記画像データから検出した視聴者の顔画像のサイズと、前記画像データから検出した視聴者の顔画像の傾き角度を含む。
統計算出手段は、視聴者を予め複数回撮像することにより生成された各画像データから検出した視聴者の体勢を示す特徴量の群の、前記特徴量により規定される特徴空間における位置を前記統計データとして算出する。
信頼度検出手段は、統計データが特徴量の群の前記特徴空間における位置と、前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量の前記特徴空間における位置との距離を前記信頼度として算出する距離算出手段を含む。テレビジョン受信装置は、信頼度検出手段が検出した信頼度を所定基準と比較して高いか否かを判定する信頼度判定手段をさらに備える。
制御手段は、前記信頼度判定手段により高いと判定された場合に前記認証手段による確認の結果に応じて、前記制御データに基づいて前記テレビジョン受信装置の動作を制御する。
テレビジョン受信装置は、外部から発信された制御信号を受信する受信手段をさらに備え、認証手段は、前記制御信号の受信に応答して前記視聴者が前記テレビジョン受信装置に登録されているか否かを確認し、認証手段は、取得手段により取得された視聴者の画像データに基づいて前記顔の画像の特徴量を算出し、当該算出した特徴量と前記特徴量記憶部に格納されている特徴量とに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する。
この発明の他の局面に従うと、テレビジョン受信装置は、視聴者を予め撮像することにより生成された画像データから検出された前記視聴者の顔の特徴量を格納する顔特徴量記憶部と、前記視聴者に応じて前記テレビジョン受信装置の動作を制御するための制御データを格納する制御データ記憶部と、視聴者の撮像により生成された画像データを取得する画像取得手段と、前記画像取得手段により前記画像データが取得されると、前記特徴量記憶部に格納されている顔特徴量と前記画像取得手段により取得された画像データとに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する認証手段と、前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量を用いて、前記認証手段の確認結果の信頼度を検出する信頼度検出手段と、前記認証手段による確認の結果と前記信頼度検出手段により検出された信頼度とに応じて、前記制御データに基づいて前記テレビジョン受信装置の動作を制御する制御手段とを備える。
好ましくは、信頼度検出手段は、視聴者を予め複数回撮像することにより生成された各画像データから検出した視聴者の体勢を示す特徴量に関する統計データを算出する統計算出手段を含み、認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量と、前記統計算出手段により算出されている前記統計データとに基づき、前記信頼度を検出する。
好ましくは、視聴者の体勢を示す特徴量は、視聴者と前記テレビジョン受信装置との相対位置に応じた特徴量を含む。
好ましくは、相対位置に応じた特徴量は、前記画像データから検出した視聴者の顔画像の位置である。
好ましくは、視聴者の体勢を示す特徴量は、視聴者の姿勢に応じた特徴量を含む。
好ましくは、姿勢に応じた特徴量は、前記画像データから検出した視聴者の顔画像のサイズを含む。
好ましくは、姿勢に応じた特徴量は、前記画像データから検出した視聴者の顔画像のサイズを含む。
好ましくは、姿勢に応じた特徴量は、前記画像データから検出した視聴者の顔画像の傾き角度を含む。
好ましくは、統計算出手段は、視聴者を予め複数回撮像することにより生成された各画像データから検出した視聴者の体勢を示す特徴量の群の、前記特徴量により規定される特徴空間における位置を前記統計データとして算出し、前記信頼度検出手段は、前記統計データが特徴量の群の前記特徴空間における位置と、前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量の前記特徴空間における位置との距離を前記信頼度として算出する距離算出手段を含む。
好ましくは、信頼度検出手段が検出した信頼度を所定基準と比較して高いか否かを判定する信頼度判定手段をさらに備えて、制御手段は、前記信頼度判定手段により高いと判定された場合に前記認証手段による確認の結果に応じて、前記制御データに基づいて前記テレビジョン受信装置の動作を制御する。
好ましくは、外部から発信された制御信号を受信する受信手段をさらに備え、前記認証手段は、前記制御信号の受信に応答して前記視聴者が前記テレビジョン受信装置に登録されているか否かを確認する。
好ましくは、認証手段は、取得手段により取得された視聴者の画像データに基づいて前記顔の画像の特徴量を算出し、当該算出した特徴量と前記特徴量記憶部に格納されている特徴量とに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する。
本発明によれば、視聴者に応じたテレビジョン受信装置の動作を制御する場合には、認証手段による視聴者の顔の特徴量に基づいた確認結果に加えて、当該確認結果の信頼度に応じて動作の制御をしているので、信頼性を考慮した視聴者の確認結果に基づき視聴者に応じた動作の制御を行なうことができる。
信頼度は、視聴者の体勢を示す特徴量を用いて検出されるので、視聴時の体勢は視聴者についてほぼ固定したものであることに鑑みると、視聴者本人でない第3者に当該視聴者に応じた動作の制御がされるという誤動作の発生を抑制することができる。
以下、この発明の実施の形態について図面を参照して説明する。
本実施の形態に係るテレビジョン受信装置(以下、テレビという)には撮像(撮影)の方向が固定の撮像装置(カメラ)が備えられる。当該撮像装置はテレビにより提示される放送番組などの各種コンテンツの視聴者を撮像して静止画を出力するために設けられたものである。ここでは、テレビ視聴する場合には視聴者はテレビの前の椅子などに座って居ると想定されるので、撮像用のレンズは視聴者を撮像することが可能な当該固定した位置の方向に向けられている。
本実施の形態に係るテレビジョン受信装置(以下、テレビという)には撮像(撮影)の方向が固定の撮像装置(カメラ)が備えられる。当該撮像装置はテレビにより提示される放送番組などの各種コンテンツの視聴者を撮像して静止画を出力するために設けられたものである。ここでは、テレビ視聴する場合には視聴者はテレビの前の椅子などに座って居ると想定されるので、撮像用のレンズは視聴者を撮像することが可能な当該固定した位置の方向に向けられている。
また、ここでは、視聴者はテレビジョン受信装置を、リモコン端末(リモートコントローラ端末)を手元で操作して遠隔制御すると想定する。
また、ここでは、確認された視聴者についてテレビジョン受信装置の動作を制御するための制御データは、出力画像を制御するコンテンツデータとしているが、コンテンツデータに限定されず、画面の明るさ制御のためのデータ、音量制御のデータ、表示画像の比率を変更するデータなどであってもよい。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰返さない。
<第1の実施の形態>
図1を参照して、本発明の第1の実施の形態に係るテレビ100の使用態様について説明する。図1は、部屋10にテレビ100が設置されている状態を表わす図である。
図1を参照して、本発明の第1の実施の形態に係るテレビ100の使用態様について説明する。図1は、部屋10にテレビ100が設置されている状態を表わす図である。
部屋10には、テレビ100と椅子11とがそれぞれ配置されている。椅子11には、視聴者12が座っている。視聴者12は、リモコン端末300を有している。
ここでは視聴者12は図1のように椅子11に座っているが、椅子11がソファであればソファーに寝転んでいる姿勢で視聴していることもあろうし、また、子供であればテレビ100の画面を見上げる姿勢でみている場合もあろう。しかしながら、一般家庭におけるテレビ100の位置はある程度決まっており、且つそれを見る視聴者もほぼ固定した椅子11に座ってお決まりの姿勢で視聴することが多い。そこで、本実施の形態では、視聴時の視聴者とテレビ100(後述の撮像装置150)との相対位置はある程度一定であること、また視聴時の視聴者の姿勢はお気に入りの姿勢が多くある程度決まっていることから、テレビ100との相対位置に従う後述する顔の位置、ならびに視聴時の姿勢に従うサイズおよび角度の値は、視聴者毎にほぼ一定の範囲に収まると想定している。
テレビ100は、撮像装置150とリモコン信号を受信する受光部106とを備える。
図2を参照して、テレビ100の構成について説明する。図2は、テレビ100を正面から表わす図である。
図2を参照して、テレビ100の構成について説明する。図2は、テレビ100を正面から表わす図である。
テレビ100は、ディスプレイ130と、スピーカ140と、撮像装置150とを備える。スピーカ140は、たとえばステレオ音声の出力が可能なスピーカである。スピーカ140の位置は、図2に示されるものに限られない。たとえば、テレビ100の筐体の側面に配置されてもよい。撮像装置150は、たとえばテレビ100の正面の中心に配置されているが、中心でなくてもよい。
撮像装置150は、撮影可能な範囲に存在する被写体を撮影する。被写体には、テレビ100の視聴者(視聴者の顔)が含まれる。撮像装置150は図2に示すようにテレビ100に内蔵されるものに限定されず、テレビ100に外付けされるものであってもよい。外付けの場合にはテレビ100と撮像装置150とは有線または無線で通信すると想定する。
図3を参照して、テレビ100の構成についてさらに説明する。図3は、テレビ100のハードウェア構成を表わすブロック図である。
テレビ100は、図2に示される構成に加えて、映像音声信号の放送信号を受信するアンテナ102と、アンテナ102に接続されて、かつアンテナ102を介して受信した放送信号から、選局を指示されたチャンネルで放送される映像音声信号を抽出して出力するチューナ114と、図示のない外部装置から与えられる映像音声信号を入力する外部入力部104と、リモコン端末300からの信号を受信する受光部106と、手動操作されてテレビ100に対する指示を入力する操作部108と、テレビ100の動作を制御するCPU(Central Processing Unit)110とメモリ112を含む制御部113を備える。リモコン端末300は、テレビ100の動作を制御するための赤外線光を発する。リモコン端末300の構成は、後述する。
テレビ100はさらに、外部入力部104とチューナ114とに接続され、CPU110からの信号に基づいて映像音声信号の入力先を外部入力部104とチューナ114のいずれかに切り換える切換回路116と、CPU110からの信号に基づいて切換回路116から出力される信号を映像信号と音声信号とに分離して出力する信号処理回路120と、映像を表示するディスプレイ130と、与えられる音声信号に基づく音声を出力するスピーカ140とを備える。
信号処理回路120は、外部入力部104とチューナ114のいずれか一方からの信号を切換回路116を介して入力して、入力信号を映像信号と音声信号とに分離する分離回路122と、分離回路122から出力された映像信号を処理して出力する映像処理部123と、映像処理部123から出力された映像信号とCPU110からの信号とに基づいてディスプレイ130に表示される画像を生成するためのOSD(On Screen Display)回路124と、分離回路122から出力された音声信号を処理してスピーカ140に出力する音声処理部125を含む。
OSD回路124はCPU110により起動される間は、CPU110から与えられるデータ信号による画像が映像処理部123から出力される映像信号の画像に重畳して表示されるように処理する。CPU110により起動が指示されない場合には、映像処理部123から出力された映像信号はOSD回路124を通過してディスプレイ130に与えられる。
撮像装置150は、たとえばCCD(Charge Coupled Device)を用いたカメラである。CPU110の制御のもとに撮像装置150により撮像がされて出力されたデジタルの画像データは画像メモリ152に一旦格納される。画像メモリ152に格納される画像データはCPU110の制御の元に2値画像に変換される。
画像データは、撮像装置150による撮影によって生成される。あるいは、外部入力部104を介して入力されるものであってもよい。
図4には、メモリ112の内容例が示される。メモリ112は、コンテンツエリア1120、特徴パターンエリア1121、学習結果エリア112、座標空間設定エリア1123および分割情報1126を格納する分割情報エリア1125を含む。コンテンツエリア1120、特徴パターンエリア1121および学習結果エリア1122は、テレビ100への電源供給が断たれても、その記憶内容が保持されるようなメモリである。
図5には、コンテンツエリア1120の内容例が示される。コンテンツエリア1120には、テレビ100を利用する複数の視聴者のそれぞれに対応して、識別データIDj(j=1、2、3、…、m)と、1つ以上のコンテンツデータCNTjと、コンテンツリストCNTLiとが関連付けて予め格納される。識別データIDjは、対応の視聴者を一意に識別するためのデータであり、たとえば名前、番号などで示されて、リモコン端末300または操作部108の操作により入力される。コンテンツデータCNTjは、対応の視聴者を確認することができた場合に、テレビ100を介して画像または音声で出力されるコンテンツ(情報またはデータ)である。コンテンツデータCNTjの例としては、対応の視聴者がお気に入りのテレビ番組のデータ、外部入力部104を介して入力した映画などのデータ、お気に入りのチャンネルの番組表のデータなどである。番組表のデータはアンテナ102を介して受信したEPG(Electric Program Guide)データに基づきCPU110が作成することで準備される。またコンテンツリストCNTLiは関連付けされた1つ以上のコンテンツデータCNTjのタイトルなどからなるデータである。コンテンツリストCNTLiが読出されてディスプレイ130に表示されて、表示されたリストから所望のタイトルがリモコン端末300を操作して指定されると、指定されたタイトルのコンテンツデータCNTjがコンテンツエリア1120から読出されてディスプレイ130またはスピーカ140を介して出力される。
図6には特徴パターンエリア1121の内容例が示される。特徴パターンエリア1121には、テレビ100を利用する複数の視聴者のそれぞれに対応して、特徴パターン1Pj(j=1、2、3、…、m)が格納される。特徴パターン1Pjは、対応の視聴者の識別データIDjと特徴パターンデータCHPjとを関連付けて含む。特徴パターンデータCHPjは、撮像装置150を用いて撮像された視聴者の顔の画像データに基づき抽出された特徴量を示す。特徴量の抽出については後述する。
図7には、学習結果エリア1122の内容例が示される。学習結果エリア1122には、テレビ100を利用する複数の視聴者のそれぞれに対応してテーブルTAj(j=1、2、3、…、m)が格納される。テーブルTAjは、データD1〜D7を関連付けて含む。データD1は対応の視聴者の識別データIDjが予め格納される。データD2はトータルデータを示す。データD3〜D6はエリア番号、サイズ、角度および検出回数をそれぞれ示す。データD7は後述の統計データを示す。
データD3のエリア番号は次のようにして取得する。つまり、撮像装置150により撮像して得られた画像データは矩形状の画像を示すデータであると想定した場合に、当該画像について後述のエリア分割部217により図8のようなエリア分割が仮想的になされる。画像には矩形の一辺に平行なx軸と他辺に平行なy軸(x軸とy軸は直交する)とを設定した場合に、各軸に平行な辺においてたとえば5等分割する。エリア分割部217はこの分割によって得られた複数エリアのそれぞれに一意に番号を割当てる。図8では25個のエリアに分割されたので‘1’、‘2’、‘3’、・・・、‘25’の番号が各エリアに当てられてデータD3の示すエリア番号としている。なお、分割されたエリアのサイズは、当該画像で検出されうる顔画像の大きさよりも大きいと想定する。
エリア分割部217は分割された各エリアについて当該エリアの元の画像における位置を示す位置情報と割当てたエリア番号とを対応付けて有する分割情報1126を生成してメモリ112の分割情報エリア1125に格納する。図8の各エリアの位置情報は、x軸に平行な辺の画素とy軸に平行な辺の画素を用いて示される。たとえば、番号1のエリアの位置情報はx軸の辺では1番目〜10番目の画素およびy軸に平行な辺では1番目〜15番目の画素、また番号2のエリアの位置情報は同様にx軸について11番目〜20番目の画素でy軸については16番目〜30番目の画素というように、元の画像データの画像の画素を用いて位置が示される。
データD4のサイズは、関連付けされたデータD3が示す番号のエリアにおいて検出された顔画像のサイズを示す。データD5の角度は、関連付けされたデータD3が示す番号のエリアにおいて検出された顔画像の傾き角度を示す。データD6の検出回数は、関連付けされたデータD3のエリアの番号、当該エリアにおいて検出されたデータD4が示す顔画像のサイズ、および当該エリアにおいて検出されたデータD5が示す顔画像の傾き角度からなる組のそれぞれについて、当該組合せのデータが検出された回数を示す。データD2は、テーブルTAjに格納された組のそれぞれのデータD6が示す検出回数の総数(トータルデータ)を示す。
データD4が示す顔サイズは、顔画像の縦幅または横幅の大きさ(単位は画素)を示す。顔サイズの検出は後述する。
データD5が示す角度は、たとえば図9のようにして検出することができる。図9では、あるエリアで検出された顔画像の傾きを検出する態様が模式的に示される。傾き検出は、撮像装置150から出力された画像データの画像において仮想的に直交する2本の基準軸Bl1とBl2を設定する。そして、検出された顔画像における左右の目の端点P1〜P4を結んだ直線Lと2本の基準軸Bl1とBl2のいずれか一方とが交差して形成される角の角度θを求めることによって、求めた角度θを検出された顔についての傾き角度としている。なお、1本の直線上に端点P1〜P4が位置しない場合には、端点P1〜P4のうちの少なくとも2点を結んだ直線と2本の基準軸Bl1とBl2のいずれか一方とが交差して形成される角の角度を求めることにする。この少なくとも2点は、たとえば点P1と点P4というように、予め指定された点である。
図10には、テレビ100の機能構成が示される。テレビ100は、特徴パターン登録部201、特徴量抽出部203、認証部205、コンテンツ検索部209、コンテンツ出力部211、コンテンツ登録部213、学習部215、画像入力部227、撮像制御部229、リモコン指示受付部231およびメッセージ出力部223を備える。
特徴パターン登録部201は特徴パターンエリア1121に、複数の視聴者のそれぞれ毎に、その識別データIDjと特徴パターンデータCHPjとが関連付けされた特徴パターンIPjを格納する。具体的には、テレビ100が特徴パターン登録モードにあるときに、撮像装置150を介して撮像された画像データにおいて特徴量抽出部203により視聴者の顔画像データが検出されて、検出された顔画像から特徴量が抽出されるので、抽出された特徴量と、その時点でリモコン指示受付部231を介してリモコン端末300から受信した信号に基づく当該視聴者の識別子とを、特徴パターンデータCHPjと識別データIDjとして関連付けた特徴パターンIPjを生成して特徴パターンエリア1121に格納する。このように、テレビ100が特徴パターン登録モードにあるときは、視聴者についての特徴パターン1Pjが生成されて特徴パターンエリア1121に格納(登録)される。なお、顔画像データの検出と、検出された顔画像からの特徴量の抽出の詳細は後述する。
認証部205は、撮像装置150により撮像して出力された画像データ中の顔画像について検出された特徴量と特徴パターンエリア1121の各特徴パターン1Pjの特徴パターンデータCHPjの特徴量とに基づいて被写体が登録された正当なものであるかの確認(以下、認証という)の処理を行なう。認証処理は、たとえば検出された特徴量と各特徴パターンデータCHPjの特徴量とを比較して、その差異を算出することにより行なわれる。この場合、差異が予め定められた範囲(域値)よりも小さい場合には、撮影された被写体(顔)は、予め登録されている視聴者の顔と同一であると確認される(以下、認証に成功するという)。そうでない場合には、登録されていない視聴者の顔が撮像されたと確認されることになる(以下、認証に成功しないという)。認証部205は認証に成功した場合には、認証に成功した特徴パターンCHPjに関連付けされた識別データIDjを特徴パターンエリア1121から読出し出力する。また、認証部205は、認証処理の確認結果の信頼度を算出するための信頼度算出部206と算出された信頼度に基づき信頼度を判定する信頼度判定部207を有する。信頼度の算出と判定の詳細は後述する。
コンテンツ検索部209およびコンテンツ出力部210は、認証部205の確認結果と後述の信頼度とに応じて、テレビ100の動作(コンテンツ出力動作)を制御する制御部に相当する。コンテンツ検索部209は、認証部205において認証に成功した場合に出力される識別データIDjを入力して、入力した識別データIDjに基づきコンテンツエリア1120を検索して、当該識別データIDjに関連付けて格納されているコンテンツリストCNTLjを読出して、コンテンツ出力部211に出力する。コンテンツ出力部211は、与えられるデータに基づく映像または音声を、ディスプレイ130またはスピーカ140に出力する。
コンテンツ登録部213は、テレビ100のコンテンツ登録モードにおいて、視聴者が指定するコンテンツデータCNTjを、当該視聴者の識別データIDjと関連付けてコンテンツエリア1120に格納(登録)する。なお、ここでは、説明を簡単にするために、各視聴者に対応の識別データIDj、コンテンツデータCNTjおよびコンテンツリストCNTLjは関連付けされて予めコンテンツエリア1120に格納されていると想定する。
学習部215は、テレビ100の学習モードにおいて、視聴者毎に顔の位置、サイズおよび傾き角度のデータをサンプリング(収集)しながら、サンプリングしたデータを学習エリア1122の各視聴者毎に予め準備されたテーブルTAjに格納する。以下、これを学習という。なお、学習結果エリア1122においては、複数のテーブルTAjのための領域が予め確保されており、当該領域において各視聴者に対応して、当該視聴者の識別データIDjを指すデータD1を格納した学習テーブルTAjが生成されて格納される。テーブルTAjが生成された時点では、他のデータD2〜D7はまだ格納されていない。テーブルTAjは対応の視聴者の特徴パターン1Pjが生成されたときに、当該特徴パターン1Pjの識別データIDjを格納するようにして生成あれて格納される。
画像入力部227は、撮像装置150により撮像して出力された画像データを格納する画像メモリ152を含んで構成される。
学習部215は、学習モードにおいて画像メモリ152に格納された画像データに基づき、前述したようなエリア分割を行なうエリア分割部217、エリア分割後の各エリアについて顔画像を検出するとともに検出した位置を出力する顔検出部216、顔画像のサイズおよび角度を検出するサイズ検出部219および角度検出部221、検出回数更新部223、テーブル登録部225および統計データ算出部226を備える。検出回数更新部223は、検出された顔画像の認証に成功する毎にデータD6が示す検出回数およびデータD2が示すトータル回数をカウントアップする。テーブル登録部225は、顔検出部215、サイズ検出部219、角度検出部221、検出回数更新部223および統計データ算出部226により出力されたデータを、データD2〜D7として学習テーブルTAjに格納(登録)する。
撮像制御部229は、CPU110の指示に従い撮像装置150の撮像動作を制御する。リモコン指示受付部231は受光部106に対応しており、リモコン端末300から送信された赤外線変調された指示信号を受信して、復調し、指示データに変換し出力する。
メッセージ出力部233は、OSD回路124を介して各種メッセージをディスプレイ130に出力し、またはスピーカ140から出力する。
(顔画像の検出)
顔検出部216は、メモリ152から読出された画像データに基づいて、被写体の顔に相当する画像領域を抽出(検出)する。この抽出処理を図11を参照して説明する。図11には、メモリ152に格納された画像データが指す顔画像が概念的に示される。
顔検出部216は、メモリ152から読出された画像データに基づいて、被写体の顔に相当する画像領域を抽出(検出)する。この抽出処理を図11を参照して説明する。図11には、メモリ152に格納された画像データが指す顔画像が概念的に示される。
被写体が図1のようにテレビ100のディスプレイ130の正面に位置した状態で撮像装置150により撮像がされると、撮像装置150から出力された画像データは、メモリ152に格納される。被写体の顔は、肌色の部分とそうでない部分とを含む。たとえば頭髪、眉あるいは瞳は、多くの場合、黒色である。顔検出部216はこのような被写体の画像に対してたとえば画像データの2値化処理あるいは濃淡処理を行なうと、濃淡の程度が異なる画像が生成される。
濃淡の程度が異なる画像においては、たとえば、図11に示されるように、眉1002a,1002bと、瞳1004a,1004bと、鼻1006と、口1008とがそれぞれ認識される。メモリ152の画像データが指す画像の実際の被写体の像に対する縮尺の値が予め特定されている場合には、たとえば、顔検出部216は画像データにおいて認識した目の間隔1012と、目の長さ1010,1014と、口の幅1016と、目尻と口の中心部との距離1018のそれぞれに該当する画素数を検出して、検出した画素数と縮尺値とに基づき、目の間隔1012と、目の長さ1010,1014と、口の幅1016と、目尻と口の中心部との距離1018のそれぞれを算出する。また、認識された眉1002a,1002bと、瞳1004a,1004bと、鼻1006と、口1008の位置も同様にして算出される。算出された情報は一旦メモリ112の所定領域に格納される。
この場合、たとえば間隔1012の値と間隔1018の値とをそれぞれ左右方向の情報、上下方向の情報としてメモリ112の所定領域に格納することにより、撮像装置150の撮像により出力された画像において被写体(顔)の画像が検出できたことが明示されるとともに、左右方向および上下方向の情報に基づき顔画像が画像全体のどの位置にいるかも容易に特定することができる。また、顔検出の処理後に左右方向の情報、上下方向の情報がメモリ112の所定領域に格納されていない場合には、撮像装置150の撮像により出力された画像において被写体(顔)の画像が検出できなかったことが明示される。メモリ112の上述の左右方向の情報、上下方向の情報が格納される所定領域は、顔の検出開始がされる毎に初期化されると想定する。
なお、顔の特徴点は、前述のものに限られず、目、鼻、口その他の顔の認識技術において通常使用されるものであればよい。
角度検出部221は、角度検出のために用いる図9の点P1〜P4の位置を、顔検出部216により算出されてメモリ112に格納された距離と位置の情報を用いて算出する。
サイズ検出部219は、顔検出部216により算出されてメモリ112に格納された間隔1012の値と間隔1018の値とをそれぞれ示す左右方向の情報、上下方向の情報とを用いて、所定手順に従い顔画像の横幅、縦幅のサイズを算出する。
(特徴量抽出)
特徴量抽出部203は、画像メモリ152の画像データにおいて上述のような手順に従い顔の画像領域を検出する機能と、検出した顔画像の特徴量を算出する機能を有する。特徴量とは、抽出された領域を特定するためのデータから算出される当該領域の画像上の特徴を表わすデータをいう。本実施の形態においては、特徴量には、図11で示した目の間隔、目と口の間隔、目元と目尻の間隔等が含まれる。これらの特徴量に加えて、目の大きさ、目の領域における瞳の領域の割合等が当該視聴者の顔に固有の特徴量として用いられてもよい。あるいは、眉毛、まつげ、肌のほくろのように、白黒の濃淡が表われ易い領域の長さ、面積、形状などが特徴量として用いられてもよい。
特徴量抽出部203は、画像メモリ152の画像データにおいて上述のような手順に従い顔の画像領域を検出する機能と、検出した顔画像の特徴量を算出する機能を有する。特徴量とは、抽出された領域を特定するためのデータから算出される当該領域の画像上の特徴を表わすデータをいう。本実施の形態においては、特徴量には、図11で示した目の間隔、目と口の間隔、目元と目尻の間隔等が含まれる。これらの特徴量に加えて、目の大きさ、目の領域における瞳の領域の割合等が当該視聴者の顔に固有の特徴量として用いられてもよい。あるいは、眉毛、まつげ、肌のほくろのように、白黒の濃淡が表われ易い領域の長さ、面積、形状などが特徴量として用いられてもよい。
(リモコン端末)
図12および図13を参照して、テレビ100に制御信号を送信するリモコン端末300について説明する。図12には、リモコン端末300の外観が示される。
図12および図13を参照して、テレビ100に制御信号を送信するリモコン端末300について説明する。図12には、リモコン端末300の外観が示される。
リモコン端末300は、ユーザの操作に応答して赤外線信号を発光するための赤外線発光部360と、情報を表示するディスプレイ302と、視聴者により操作されて指示の入力を受け付ける操作部340とを含む。操作部340は、テレビ100の電源をオン/オフするための電源ボタン307、ディスプレイ302に表示される図示のないカーソルの移動と確定の入力を受け付けるキー群304と、数字ボタン306と、アップ/ダウンボタン308とを含む。
なお、ここではテレビ100は図示のない商用電源のコンセントにプラグを差し込むことで各部に電源が供給された状態にあると想定する。したがって、この状態で電源ボタン307がオン操作されると、テレビ100の内部ではディスプレイ130およびスピーカ140への出力を可能ならしめるための各部への電源の供給の開始がなされて、画面の表示、音声の出力がされる。一方、テレビ100に電源が供給された状態で、電源ボタン307がオン操作されない間は、テレビ100の内部ではディスプレイ130およびスピーカ140への出力を可能ならしめるための各部への電源の供給はされないので画面の表示も音声の出力もされない。
キー群304は、カーソルを左右方向あるいは上下方向に移動させるための移動キー324と、押下を検出することにより、選択された項目を確定するためのデータの入力を受け付ける確定ボタン314とを含む。アップ/ダウンボタン308は、チャンネルのアップ/ダウンの指示の入力を受け付ける選局ボタン328と、音量の増減を調整する音量調整ボタン318とを含む。
図9には、リモコン端末300によって実現される機能の構成が示される。リモコン端末300は、制御回路310と、選局ボタン328の入力に応答して選択されたチャンネルを選局する指示を出力するためのチャンネル選局回路320と、操作部340とを含む。制御回路310は、赤外線発光部360に接続されて、チャンネル選局回路30または操作部340から入力する信号に基づいて予め定められた処理を実行し、赤外線信号を発信する制御を実行する。制御回路310はリモコン端末300を制御するためのデータまたはプログラムを格納するメモリ312を有する。なお、リモコン端末300が通常有するその他の回路、たとえば、音量の増減を調整するための信号を生成する回路、オンスクリーンディスプレイの表示を指令する信号を生成する回路は、当業者にとって容易に理解できるものである。したがって、ここではそれらの説明は略す。
(学習モード)
学習モードの動作手順は図14のフローチャートで示される。当該フローチャートはプログラムとして予めメモリ112に格納されて、CPU110により読出されて実行される。視聴者が、図1に示されるような状態で、テレビ100の前に位置して、リモコン端末300を操作していると判定されると、テレビ100は学習モードに従う動作を実行する。
学習モードの動作手順は図14のフローチャートで示される。当該フローチャートはプログラムとして予めメモリ112に格納されて、CPU110により読出されて実行される。視聴者が、図1に示されるような状態で、テレビ100の前に位置して、リモコン端末300を操作していると判定されると、テレビ100は学習モードに従う動作を実行する。
まず、リモコン指示受付部231は、図1の状態の視聴者によりリモコン端末300の操作がなされたか否かを判定する(ステップS(以下、単にSと略す)1)。つまり、リモコン端末300からの赤外線信号をリモコン指示受付部231で受信したか否かを判定する。赤外線信号を受信して、リモコン端末300が操作されたことを判定すると(S1でYES)学習モードの動作を実行する。リモコン端末300からの赤外線信号が受信されない間はS1の処理が繰返される。
学習モードの動作では、まず、撮像制御部229は、撮像装置150に指示して、撮像を行なわせる(S7)。当該指示により撮像装置150は撮像をして画像データは画像入力部227によりメモリ152に格納される(S9)。
次に、学習部215では、メモリ152の画像データについてエリア分割部217により、前述したような手順で画像データの画像は図8のようにN個のエリアに分割される(S11)。図8ではNは25個を指す。そして、学習部215は、処理を制御するための変数iおよびFLにそれぞれ0を設定する(S13)。変数iの値はスキャン(走査)対象のエリアを指示し、変数FLの値は認証に成功したか否かを指示する。
次に、変数iの値が1インクリメントされて(S15)、i番目のエリアについての図15のスキャン処理が実行される(S17)。このスキャン処理において、認証部205による確認処理が行なわれて、認証に成功した場合には変数FLの値に1が設定されるが、認証に成功しない場合には0のままである。
i番目のエリアについてS17のスキャン処理が終了すると、変数FLの値が1であるか否かが判定される(S19)。学習部215は、1であることを判定すると(S19でYES)、後述するS23以降の処理に移る。1でない、すなわち0のままであることを判定すると(S19でNO)、つまりS17の処理において認証に成功しなかったということを判定すると、変数iの値が変数Nの値以上であるか否かを判定する(S21)。ここで変数Nの値は、図8のように分割されたエリアの総数を指示する値(=25)であり、予めメモリ112に格納されている。
変数iの値が変数Nの値(=25)以上であると判定されると(S21でYES)、全てのエリアについてスキャン処理が終了したので一連の処理は終了するが、変数Nの値未満であると判定されると(S21でNO)、S15の処理に戻り、図8の1、2,3,・・・25の順番に従い次位のエリアを対象にして同様な処理を進めるために、変数iの値が1インクリメントされる。以降の処理が次位のエリアについて前述と同様に行なわれる。
(スキャン処理)
図15には、図14のスキャン処理(S17)のフローチャートが示される。図15のフローチャートに従いスキャンの手順について説明する。
図15には、図14のスキャン処理(S17)のフローチャートが示される。図15のフローチャートに従いスキャンの手順について説明する。
顔検出部216は、画像メモリ152の画像データに基づき顔画像の検出を行なう(S35)。検出の手順は前述した通りである。
検出結果に基づき、学習部215は顔画像が検出できたか否かを判定する(S37)。つまり、メモリ152の所定領域に図11で示した間隔1012の値と間隔1018の値とがそれぞれ左右方向の情報、上下方向の情報として格納されていた場合には、顔画像検出ができたと判定するが(S37でYES)、格納されていない(初期化の状態である)場合には顔を検出できないと判定して(S37でNO)、図15の処理を終了して図14の元の処理に戻る。
顔画像を検出できた場合には(S37でYES)、認証部205による確認処理が行なわれる(S39)。つまり、検出された顔画像のデータについて特徴量抽出部203により前述した手順に従い特徴量が抽出されて、認証部205は抽出された特徴量と特徴パターンエリア1121の各特徴パターンデータCHPjとに基づき前述のような確認処理を行なう(S39)。認証に成功した場合には、認証に成功したときに比較対象となっていた特徴パターンデータCHPjに関連付けられていた識別データIDjが読出されて出力される。
CPU110は認証部205の確認処理後に識別データIDjが出力されたと判定すると認証に成功したと判別し(S41でYES)、後述のS43以降の処理に移るが、識別データIDjが出力されないと判定すると認証に成功しなかったと判別し(S41でNO)、図15の処理を終了して図14の元の処理に戻る。
認証に成功した場合には(S41でYES)、CPU110はテレビ100の各部を制御してリモコン端末300から受信した指示信号に従う動作を行なわせる(S43)。その後、CPU110は認証部205から出力された識別データIDjに基づき学習結果エリア1122を検索して、当該識別データIDjをデータD1として格納したテーブルTAjのデータD2を読出し、読出したデータD2が示す総検出回数と予め規定された最大回数を示すデータMAXの値とを比較して、比較結果に基づき、総検出回数が最大回数以上になっているか否かを判定する(S45)。なお、データMAXは予めメモリ112に格納されていると想定する。
総検出回数が最大回数以上になっていると判定すると(S45でYES)、図14の元の処理に戻り学習モードの動作を終了する。このように、確認された視聴者についてのテーブルTAjのデータについてサービス提供の確認を行なうのに十分な件数のデータがサンプリングされて格納されている場合には、すなわち学習が終了している場合には、これ以上サンプリングする必要はないので学習モードの動作を終了する。
一方、総検出回数が最大回数未満であると判定すると(S45でNO)、確認された視聴者についてのテーブルTAjのデータのサンプリングを行なうために、サイズ検出部219および角度検出部221により、S35で検出された顔画像についてサイズの検出および角度が検出されて出力される(S47およびS49)。その後、学習部215は、変数FLに値1を設定し(S51)、処理は図14の元の処理に戻る。
図14のS19の処理に戻る。図15において変数FLの値が1に更新された(認証に成功した)場合には(S51)、S19の判定により処理はS23に移行する。
認証に成功した場合には認証部205により確認された視聴者の識別データIDjが出力されるとともに、S35、S47およびS49において確認された視聴者の顔画像の位置、サイズおよび角度の情報が検出されて出力される。検出回数更新部223と検出回数更新部225は、S17の処理で出力された識別データIDjに基づき学習結果エリア1122を検索して、当識別データIDjをデータD1として格納したテーブルTAjの内容を更新する(S23、S25)。
具体的には、テーブル登録部225は、S35、S47およびS49において出力された顔画像の位置、サイズおよび角度の情報をテーブルTAjにデータD3、D4およびD5として追加格納する(S23)。ただし、出力された顔画像の位置、サイズおよび角度を示すデータD3〜D5の組がテーブルTAjにすでに格納されていた場合には、追加格納は行なわれない。
なお、S35で出力された位置情報は、図8の対応のエリアを指示する番号に変換された後に、テーブルTAjにデータD3として格納される。具体的には、テーブル登録部225は、顔検出部216から出力された検出顔画像の左右情報および上下情報をメモリ112から読出し、読出した情報に基づき、メモリ112の分割情報エリア1125の分割情報1126を検索して、該当する位置情報に関連付けされたエリアの番号を読出して、検出された顔画像の位置として検出回数更新部225に出力する。
また、検出回数更新部225は、出力された顔画像の位置(エリアの番号)、サイズおよび角度に基づき、テーブルTAjを検索して当該顔画像の位置(エリアの番号)、サイズおよび角度を示すデータD3〜D5の組に関連付けされたデータD6の値を1カウントアップして更新し、その後、当該テーブルTAjのデータD6が示す値の総数を算出して、算出した値でデータD2の値を更新する(S25)。
その後、学習部215は当該テーブルTAjのデータD2が示すトータルの検出回数とデータMAXの値とを比較して、トータルの検出回数がデータMAXの値以上であるか否かを判定する(S27)。トータルの検出回数がデータMAXの値未満であることを判定すると(S27でNO)、学習モードの動作を終了する。
一方、トータルの検出回数がデータMAXの値以上であることを判定すると(S27でYES)、統計データ算出部226により当該テーブルTAjの内容に基づき統計データが算出されて、データD7として当該テーブルに格納される(S29)。その後、学習モードの動作を終了する。
(統計データの算出)
統計データ算出部226による統計データの算出について図16を参照して説明する。統計データ算出部226は、テーブルTAjに格納されたエリア番号を示すデータD3、サイズを示すデータD4および角度を示すデータD5からなる各組の所定空間におけるばらつきの状態を求めている。
統計データ算出部226による統計データの算出について図16を参照して説明する。統計データ算出部226は、テーブルTAjに格納されたエリア番号を示すデータD3、サイズを示すデータD4および角度を示すデータD5からなる各組の所定空間におけるばらつきの状態を求めている。
所定空間を指示するデータは座標空間設定エリア1123において格納(設定)される。テーブルTAjに格納されたエリア番号を示すデータD3、サイズを示すデータD4および角度を示すデータD5からなる各組を示すデータは、座標空間設定エリア1123の所定空間において仮想的に配置される。具体的には、座標空間設定エリア1123の所定空間は、顔検出時の3種類の特徴データであるデータD3〜D5の相互に直交する座標軸X、YおよびZで規定される3次元座標空間の特徴空間に相当し、所定空間にはデータD3〜D5の組を示すデータ(図中、黒丸で示す)をプロットすることができる。プロットされたと想定した場合の各黒丸の所定空間(3次元座標空間)における位置を示すデータが統計データD7としてテーブルTAjに格納される。
(サービスモード)
本実施の形態では、図1の状態でテレビ100のディスプレイ130の前に居る視聴者が電源ボタン307を操作してテレビ100の電源オン操作をする毎に、テレビ100では図17に示されるフローチャートに従うサービスモードの動作が実行される。なお、ここでは、学習モードの動作により視聴者毎のテーブルTAjにはデータMAXの値以上の件数のデータD3〜D5の組が格納されており、また統計データD7も算出して格納されていると想定する。なお、サービスモードでは、学習部215の機能が利用される。
本実施の形態では、図1の状態でテレビ100のディスプレイ130の前に居る視聴者が電源ボタン307を操作してテレビ100の電源オン操作をする毎に、テレビ100では図17に示されるフローチャートに従うサービスモードの動作が実行される。なお、ここでは、学習モードの動作により視聴者毎のテーブルTAjにはデータMAXの値以上の件数のデータD3〜D5の組が格納されており、また統計データD7も算出して格納されていると想定する。なお、サービスモードでは、学習部215の機能が利用される。
図17に示されるフローチャートに従う処理のプログラムは予めメモリ112に格納されており、CPU110は当該プログラムを読出し実行することにより、当該サービスモードの動作が実現される。
CPU110は、テレビ100の電源がオンされると、撮像制御部229の制御により撮像装置150が撮像動作を行ない、撮像により得られた画像データはメモリ152に格納されて、その後、エリア分割部217により図8のようなN個のエリア分割が行なわれて分割情報1126がメモリ112に格納される(S61〜S65)。
次に、認識部208は、制御のための変数iを0に設定する(S67)。その後、変数iの値を1つずつカウントアップしながら、分割された各エリアについてスキャン処理を行ない、前述と同様に顔検出部216による顔画像の検出と、サイズ検出部219によるサイズ検出と、角度検出部221による角度検出とが実行されて、検出結果が出力される(S69〜S75)。S69〜S75の処理は、図14で示したS15〜S21の処理と同じであるので、説明は略す。
S71のスキャン処理において、認証に成功しなかった場合には(S73でYES)、検出されたエリア番号、顔サイズおよび角度のデータをテーブルTAjへ追加格納する処理がテーブル登録部225により行なわれる(S77)。テーブル登録部225は、S65で生成されてメモリ112に格納された分割情報1126を、前述したように検出された顔画像の位置情報に基づき検索して対応するエリア番号を読出している。
これにより、サービスモードでありながら、学習モードと同様に、視聴者のテーブルTAjについてデータを追加登録することができる。なお、S77の追加登録は、テーブルTAjにデータMAXが示す値以上の件数のデータが登録されている場合には、パスしてもよい。
その後、認証部205の信頼度算出部206は、視聴者のテレビ100視聴時の体勢を指す特徴量、つまりテレビ100と視聴者との相対位置関係および視聴者の視聴時の姿勢に係る特徴量を用いて信頼度を算出する。具体的には、S71のスキャン処理により検出(出力)されたエリア番号(顔画像の位置)、顔サイズおよび角度のデータと認証に成功した視聴者のテーブルTAjから読出した統計データD7とを比較して比較結果に基づき確認結果の信頼度を算出して、信頼度判定部207に出力する(S79)。ここでは、視聴者毎のテーブルTAjには予め信頼度算出のための統計データD7が格納されており統計データを算出する必要はないので、信頼度算出に係る時間を短くできる。
信頼度判定部207は、与えられる信頼度と所定基準とを比較して、比較結果に基づき信頼度が高いかあるいは低いかを判定する(S81)。高いおよび低いを判定するための所定基準のデータは、メモリ112に予め格納されていると想定する。
(信頼度の算出)
ここで信頼度算出部206による算出手順について説明する。信頼度算出部206は、テーブルTAjから読出した統計データD7をメモリ112の座標空間設定エリア1123の3次元座標空間にプロットする。これにより、図16のように黒丸の点が分布する領域Vが得られる。分布の状態に因り領域Vの大きさ・形は変化する。領域Vからは同一人の視聴者であれば、テレビ100を視聴する位置、姿勢などはほぼ固定していることから、顔の位置、サイズ、傾き角度のデータは集中して分布する傾向にあることがわかる。
ここで信頼度算出部206による算出手順について説明する。信頼度算出部206は、テーブルTAjから読出した統計データD7をメモリ112の座標空間設定エリア1123の3次元座標空間にプロットする。これにより、図16のように黒丸の点が分布する領域Vが得られる。分布の状態に因り領域Vの大きさ・形は変化する。領域Vからは同一人の視聴者であれば、テレビ100を視聴する位置、姿勢などはほぼ固定していることから、顔の位置、サイズ、傾き角度のデータは集中して分布する傾向にあることがわかる。
そして、今回検出データD3〜D5の組を表わす点P1(たとえば、座標(x2、y2、z2))を3次元座標空間にプロットする。信頼度算出部206は領域Vのほぼ中心(重心)プロットされた点P2(たとえば、座標(x1、y1、z1)、または中心に該当する点がない場合には中心付近にプロットされた点P2を統計データD7の代表値の点として検出して、点P1と点P2の3次元座標空間における距離Sを算出する。したがって、距離Sは点P1が点P2からどれだけ離れているか、すなわち統計データD7の分布域である領域Vからどれだけ離れているかを指示することになる。したがって、距離Sの値が小さいほど今回の認証部205による確認結果の信頼の程度は大きくなることが示されて、大きいほど信頼の程度が小さいことが示される。信頼度算出部207は距離Sの値を信頼度として、信頼度判定部207に出力する。
信頼度判定部207は、与えられる信頼度(距離Sの値)とメモリ112から読出した信頼度が高いか否かを判定するための所定基準データとを比較して、比較結果、信頼度が所定基準以上であれば信頼度は高いと判定し、所定基準未満であれば信頼度は低いと判定する。
信頼度が高いと判定されると(S81で‘高い’)、認証に成功した視聴者についてのサービス処理が実行される。具体的には、コンテンツ検索部209は、認証に成功したときに認証部205から出力された識別データIDjに基づきコンテンツエリア1120を検索して、当該識別データIDjに関連付けられたコンテンツリストCNTLjを読みだし、コンテンツ出力部211に与えるので、コンテンツ出力部211は与えられるコンテンツリストCNTLjをディスプレイ130に表示する。視聴者は表示されたコンテンツリストから所望タイトルを指定することで、指定されたタイトルのコンテンツデータCNTjがコンテンツエリア1120から読出されて出力される。
一方、信頼度が低いと判定された場合には(S81で‘低い’)、S83のサービス処理はスキップされて(行なわれず)、メッセージ出力部233によりOSD回路124を介して図18の人物確認メニューの画面が表示される(S85)。図18の人物確認メニューの画面では、たとえばAさんの認証に成功した場合が示される。人物確認メニューにおいては、識別データIDjが指すAさんの認証に成功したが、Aさん用のコンテンツリストを表示するか否かを問合せている。ここで、‘はい’か‘いいえ’の選択肢が示されていおり、視聴者はいずれかを入力する(S87)。そして、入力した内容に従う処理が行なわれて(S89)、一連の処理は終了する。
S89では、視聴者がリモコン端末300を操作して‘はい’が指定された場合には、Aさん用のコンテンツリストが読出されて表示されるが、‘いいえ’が指定されると、たとえばテレビを見る意思はないのに誤ってリモコン端末300を操作した人あるいはAさん以外の人が撮像されてAさんであると誤認識されたかもしれないので、CPU110はテレビ100の電源をオフなど、Aさん用のコンテンツを出力するのとは別の所定処理を行なう。これにより、Aさんのコンテンツリストが誤って表示されるのを回避できる。また、認証に成功しないときは(S73でNO、かつS75でYESが成立するとき)はサービスモードの動作を強制的に終了しているので、登録された視聴者以外に登録されている視聴者のコンテンツ出力などのサービス提供がされるのを確実に回避できる。
(他の実施の形態)
図17の処理はテレビ100の電源がオンされると開始されるようにしたが、定期的に繰返し実行されるとしてもよい。つまり、テレビ100の前に視聴者がいるか否かにかかわらず、撮像装置150による撮像が行なわれて、それにより得られた画像データ中に含まれる視聴者の顔画像を検出して、検出した顔画像に基づく確認を行ない、その確認結果に従いサービス提供がなされるようにしてもよい。
図17の処理はテレビ100の電源がオンされると開始されるようにしたが、定期的に繰返し実行されるとしてもよい。つまり、テレビ100の前に視聴者がいるか否かにかかわらず、撮像装置150による撮像が行なわれて、それにより得られた画像データ中に含まれる視聴者の顔画像を検出して、検出した顔画像に基づく確認を行ない、その確認結果に従いサービス提供がなされるようにしてもよい。
また、図1のような状態の視聴者の周辺で動いている人を誤検出しないようにする。たとえば、撮像を複数回繰返して、毎回の撮像毎に取得される画像データについて図15のS35の顔検出を行なうようにする。そして、顔検出できたか否かの判定(S37)は、複数回の検出のうち一定エリアで連続して顔検出できたときに、顔検出できたと判定する。これにより、確認および信頼度の精度が向上する。
また、図17の処理で認証に成功しなかったとき(S73でNO、かつS75でYES)は、一連の処理を強制的に終了させていたが、再度、顔の確認処理を行ない確認結果を求めなおすようにしてもよい。
また、テーブルTAjについてデータD3〜D5が示すエリア番号、サイズおよび角度の組のうち、対応の視聴者の特徴(顔の位置(座る姿勢)、サイズ(大きい顔か小さい顔か)および首を傾ける癖があるかなど)に基づき特定される種類の組については、関連付けされたデータD6が示す検出回数を一定の重み付けをしてカウントする。こうすることにより、視聴者の視聴時の特徴に基づいた信頼度の算出が可能となる。
また、S77のデータの追加をするか否かは、視聴者の指示により行なわれるようにしてもよい。たとえば、視聴者がサービス処理(S83)では、他人のコンテンツリストではなく、いつも自分のコンテンツリストが表示されること確認した場合には、高い信頼度を得ることが可能となっているからS77のテーブルTAjへのデータの追加登録処理をパスするようにしてもよい。
また、視聴者のテーブルTAjの内容は、当該視聴者の指示に応じて削除することが可能である。たとえば、部屋10の模様替えをしてテレビ100(撮像装置150)に対する椅子111の位置が変化した場合には、テーブルTAjに格納されていたデータは有効ではなくなるので、その場合には視聴者は指示してテーブルTAjの内容をリセット(初期化)した後に、再度、学習モードにおいてデータのサンプリングを行なうことになる。
また、信頼度を算出するための統計データD7を得るために、顔画像の位置、サイズ、角度の3種類の特徴量を用いたが、特徴量の種類はこれらに限定されない。また、3種類用いたが、4種類以上であってもよく、または2種類または1種類であってもよい。4種類以上の場合には図16の3次元座標空間に代替して4次元以上の座標空間が適用される。また2種類の場合には2次元座標空間(平面)に統計データがプロットされて、1種類の場合には1次元座標空間(直線)に統計データがプロットされる。なお、信頼度を算出するために用いる特徴量としては顔画像の位置、サイズ、角度のほかには、たとえば、位置、サイズ、角度に関連付けて検出されやすい輝度情報を考慮にいれてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10 部屋、11 椅子、12 視聴者、100 テレビ、102 アンテナ、104 外部入力部、106 受光部、108 操作部、110 CPU、112 メモリ、150 撮像装置、205 認証部、215 学習部、300 リモコン端末。
Claims (12)
- テレビジョン受信装置であって、
視聴者を予め撮像することにより生成された画像データから検出された前記視聴者の顔の特徴量を格納する顔特徴量記憶部と、
前記視聴者に応じて前記テレビジョン受信装置の動作を制御するための制御データを格納する制御データ記憶部と、
視聴者の撮像により生成された画像データを取得する画像取得手段と、
前記画像取得手段により前記画像データが取得されると、前記特徴量記憶部に格納されている顔特徴量と前記画像取得手段により取得された画像データとに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する認証手段と、
前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量を用いて、前記認証手段の確認結果の信頼度を検出する信頼度検出手段と、
前記認証手段による確認の結果と前記信頼度検出手段により検出された信頼度とに応じて、前記制御データに基づいて前記テレビジョン受信装置の動作を制御する制御手段とを備え
前記信頼度検出手段は、
視聴者を予め複数回撮像することにより生成された各画像データから検出した視聴者の体勢を示す特徴量に関する統計データを算出する統計算出手段を含み、
前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量と、前記統計算出手段により算出されている前記統計データとに基づき、前記信頼度を検出し、
前記視聴者の体勢を示す特徴量は、
視聴者と前記テレビジョン受信装置との相対位置に応じた特徴量を含み、前記相対位置に応じた特徴量は、前記画像データから検出した視聴者の顔画像の位置であり、
前記視聴者の体勢を示す特徴量は、視聴者の姿勢に応じた特徴量を含み、
前記姿勢に応じた特徴量は、前記画像データから検出した視聴者の顔画像のサイズと、前記画像データから検出した視聴者の顔画像の傾き角度を含み、
前記統計算出手段は、
視聴者を予め複数回撮像することにより生成された各画像データから検出した視聴者の体勢を示す特徴量の群の、前記特徴量により規定される特徴空間における位置を前記統計データとして算出し、
前記信頼度検出手段は、
前記統計データが特徴量の群の前記特徴空間における位置と、前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量の前記特徴空間における位置との距離を前記信頼度として算出する距離算出手段を含み、
前記信頼度検出手段が検出した信頼度を所定基準と比較して高いか否かを判定する信頼度判定手段をさらに備えて、
前記制御手段は、前記信頼度判定手段により高いと判定された場合に前記認証手段による確認の結果に応じて、前記制御データに基づいて前記テレビジョン受信装置の動作を制御し、
外部から発信された制御信号を受信する受信手段をさらに備え、
前記認証手段は、前記制御信号の受信に応答して前記視聴者が前記テレビジョン受信装置に登録されているか否かを確認し、
前記認証手段は、
前記取得手段により取得された視聴者の画像データに基づいて前記顔の画像の特徴量を算出し、当該算出した特徴量と前記特徴量記憶部に格納されている特徴量とに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する、テレビジョン受信装置。 - テレビジョン受信装置であって、
視聴者を予め撮像することにより生成された画像データから検出された前記視聴者の顔の特徴量を格納する顔特徴量記憶部と、
前記視聴者に応じて前記テレビジョン受信装置の動作を制御するための制御データを格納する制御データ記憶部と、
視聴者の撮像により生成された画像データを取得する画像取得手段と、
前記画像取得手段により前記画像データが取得されると、前記特徴量記憶部に格納されている顔特徴量と前記画像取得手段により取得された画像データとに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する認証手段と、
前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量を用いて、前記認証手段の確認結果の信頼度を検出する信頼度検出手段と、
前記認証手段による確認の結果と前記信頼度検出手段により検出された信頼度とに応じて、前記制御データに基づいて前記テレビジョン受信装置の動作を制御する制御手段とを備える、テレビジョン受信装置。 - 前記信頼度検出手段は、
視聴者を予め複数回撮像することにより生成された各画像データから検出した視聴者の体勢を示す特徴量に関する統計データを算出する統計算出手段を含み、
前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量と、前記統計算出手段により算出されている前記統計データとに基づき、前記信頼度を検出する、請求項2に記載のテレビジョン受信装置。 - 前記視聴者の体勢を示す特徴量は、
視聴者と前記テレビジョン受信装置との相対位置に応じた特徴量を含む、請求項2または3に記載のテレビジョン受信装置。 - 前記相対位置に応じた特徴量は、前記画像データから検出した視聴者の顔画像の位置である、請求項4に記載のテレビジョン受信装置。
- 前記視聴者の体勢を示す特徴量は、
視聴者の姿勢に応じた特徴量を含む、請求項2から5のいずれかに記載のテレビジョン受信装置。 - 前記姿勢に応じた特徴量は、前記画像データから検出した視聴者の顔画像のサイズを含む、請求項6に記載のテレビジョン受信装置。
- 前記姿勢に応じた特徴量は、前記画像データから検出した視聴者の顔画像の傾き角度を含む、請求項6または7に記載のテレビジョン受信装置。
- 前記統計算出手段は、
視聴者を予め複数回撮像することにより生成された各画像データから検出した視聴者の体勢を示す特徴量の群の、前記特徴量により規定される特徴空間における位置を前記統計データとして算出し、
前記信頼度検出手段は、
前記統計データが特徴量の群の前記特徴空間における位置と、前記認証手段の確認に用いた前記画像データから検出した視聴者の体勢を示す特徴量の前記特徴空間における位置との距離を前記信頼度として算出する距離算出手段を含む、請求項3から8のいずれかに記載のテレビジョン受信装置。 - 前記信頼度検出手段が検出した信頼度を所定基準と比較して高いか否かを判定する信頼度判定手段をさらに備えて、
前記制御手段は、前記信頼度判定手段により高いと判定された場合に前記認証手段による確認の結果に応じて、前記制御データに基づいて前記テレビジョン受信装置の動作を制御する、請求項2から9のいずれかに記載のテレビジョン受信装置。 - 外部から発信された制御信号を受信する受信手段をさらに備え、
前記認証手段は、前記制御信号の受信に応答して前記視聴者が前記テレビジョン受信装置に登録されているか否かを確認する、請求項2から10のいずれかに記載のテレビジョン受信装置。 - 前記認証手段は、
前記取得手段により取得された視聴者の画像データに基づいて前記顔の画像の特徴量を算出し、当該算出した特徴量と前記特徴量記憶部に格納されている特徴量とに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する、請求項2から11のいずれかに記載のテレビジョン受信装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006055042A JP2007235581A (ja) | 2006-03-01 | 2006-03-01 | テレビジョン受信装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006055042A JP2007235581A (ja) | 2006-03-01 | 2006-03-01 | テレビジョン受信装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007235581A true JP2007235581A (ja) | 2007-09-13 |
Family
ID=38555704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006055042A Pending JP2007235581A (ja) | 2006-03-01 | 2006-03-01 | テレビジョン受信装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007235581A (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0935068A (ja) * | 1995-07-21 | 1997-02-07 | Video Res:Kk | テレビ視聴者識別方法およびその装置 |
JP2003186462A (ja) * | 2001-12-14 | 2003-07-04 | Minolta Co Ltd | 画像表示装置 |
WO2006011295A1 (ja) * | 2004-07-23 | 2006-02-02 | Matsushita Electric Industrial Co., Ltd. | 通信装置 |
JP2007088803A (ja) * | 2005-09-22 | 2007-04-05 | Hitachi Ltd | 情報処理装置 |
-
2006
- 2006-03-01 JP JP2006055042A patent/JP2007235581A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0935068A (ja) * | 1995-07-21 | 1997-02-07 | Video Res:Kk | テレビ視聴者識別方法およびその装置 |
JP2003186462A (ja) * | 2001-12-14 | 2003-07-04 | Minolta Co Ltd | 画像表示装置 |
WO2006011295A1 (ja) * | 2004-07-23 | 2006-02-02 | Matsushita Electric Industrial Co., Ltd. | 通信装置 |
JP2007088803A (ja) * | 2005-09-22 | 2007-04-05 | Hitachi Ltd | 情報処理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5805152A (en) | Video presentation system | |
US7835551B2 (en) | Television set and authentication device | |
US7940986B2 (en) | User interface system based on pointing device | |
KR101731346B1 (ko) | 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치 | |
KR100867173B1 (ko) | 정보 처리 장치, 정보 처리 방법 및 기억매체 | |
US7423669B2 (en) | Monitoring system and setting method for the same | |
EP2453384A1 (en) | Method and apparatus for performing gesture recognition using object in multimedia device | |
EP2453388A1 (en) | Method for user gesture recognition in multimedia device and multimedia device thereof | |
US20050088542A1 (en) | System and method for displaying an image composition template | |
US11704933B2 (en) | Information processing apparatus, information processing method, and program | |
US20180139502A1 (en) | Display device | |
KR20120051211A (ko) | 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치 | |
KR20130076977A (ko) | 방송 수신 장치 및 그 제어 방법 | |
KR20120050617A (ko) | 멀티미디어 장치와 복수 개의 이종 이미지 센서 그리고 그 제어방법 | |
KR101314685B1 (ko) | 촬영부를 구비한 디스플레이 장치 및 이를 제어하는 리모콘, 그 디스플레이 제어 방법 | |
JP2007235582A (ja) | テレビジョン受信装置と視聴者認証方法 | |
CN109391769A (zh) | 控制设备、控制方法和存储介质 | |
JP4756980B2 (ja) | テレビジョン受信装置 | |
JP4225307B2 (ja) | テレビジョン受信装置 | |
JP2007235581A (ja) | テレビジョン受信装置 | |
KR20120051213A (ko) | 멀티미디어 장치의 영상촬영방법 및 그에 따른 멀티미디어 장치 | |
JP5703120B2 (ja) | テレビジョン視聴支援装置 | |
US20130083010A1 (en) | Three-dimensional image processing apparatus and three-dimensional image processing method | |
JP2010147773A (ja) | カメラ | |
JP2009048479A (ja) | 機器操作装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110412 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110802 |