[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014077994A - 画像表示装置、その制御方法および制御プログラム並びに撮像装置 - Google Patents

画像表示装置、その制御方法および制御プログラム並びに撮像装置 Download PDF

Info

Publication number
JP2014077994A
JP2014077994A JP2013184110A JP2013184110A JP2014077994A JP 2014077994 A JP2014077994 A JP 2014077994A JP 2013184110 A JP2013184110 A JP 2013184110A JP 2013184110 A JP2013184110 A JP 2013184110A JP 2014077994 A JP2014077994 A JP 2014077994A
Authority
JP
Japan
Prior art keywords
image
subject
display
subject image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013184110A
Other languages
English (en)
Inventor
Masahiro Yamashita
将弘 山下
Akihiko Sato
晃彦 佐藤
Iazuyoshi Kiyosawa
一好 清澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013184110A priority Critical patent/JP2014077994A/ja
Priority to US14/031,357 priority patent/US9398222B2/en
Publication of JP2014077994A publication Critical patent/JP2014077994A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】複数の被写体像を含む画像とともにその特定領域を規定する表示体を画面表示する際の、ユーザによる画像の視認性を良好にする。
【解決手段】画像表示装置のシステム制御部は、画面において互いに隣接する被写体像701、702の顔検出枠701a、702aの間の水平方向距離が第1の閾値以下であり、かつ、顔検出枠701a、702aの間の垂直方向距離が第2の閾値を超えている場合に、画面上で顔検出枠のいずれが上方に位置するのかを判定し、画面上で上方に位置すると判定された顔検出枠702aに対応する被写体像702の人体検出枠を非表示にする。
【選択図】図7B

Description

本発明は、画像とその特定領域を規定する表示体とを表示する画像表示装置、その制御方法および制御プログラム並びに画像表示装置を有する撮像装置に関する。
デジタルカメラなどの撮像装置には、被写体の特定領域を検出し、当該検出された特定領域を特定する検出枠を、撮影した被写体画像とともに画像表示装置に表示するものがある。
例えば、特許文献1には、被写体の顔領域を検出する顔検出部を備え、検出された顔領域を示す顔検出枠を被写体画像に重ねて表示する撮像装置が開示されている。この撮像装置では、被写体の顔領域の特徴値(顔の角度など)に応じて顔検出枠の属性(検出枠の色又は形状など)を変更して顔検出枠を表示し、これによって、ユーザが被写体の顔領域の特徴を直感的に把握することができるようにしている。
被写体の顔領域を検出する顔検出部に加えて、被写体の人体の部分(人体領域)を検出する人体検出部を備え、検出された人体領域を示す人体検出枠を被写体画像に重ね合わせて表示する撮像装置が知られている。
図14は、従来の撮像装置における顔検出枠および人体検出枠の表示の一例を示す図である。
撮像装置に備えられた顔検出部および人体検出部が互いに独立して動作する場合、図14に示すように、これら検出部による検出結果に基づき表示画面200に被写体像203に重ねて顔検出枠201および人体検出枠202が表示される。このとき、顔検出枠201が人体検出枠202で囲まれた状態で表示されることになる。この結果、顔検出枠201および人体検出枠202、特に、顔検出枠201のユーザによる視認性が低下してしまう。これを防止するため、例えば、顔検出枠と人体検出枠とを分けて表示することが行われている。
特開2007−274207号公報
しかし、複数の被写体像の顔検出枠および人体検出枠を表示する場合には、顔検出枠と人体検出枠とを分けて表示したとしても図15に示すように検出枠の大部分が重なることがある。
図15は、従来の別の撮像装置における顔検出枠および人体検出枠の表示の例を示す図である。
図15においては、表示画面200に5つの被写体像1001〜1005が表示され、これら被写体像1001〜1005に対応づけてそれぞれ顔検出枠1001a〜1005aおよび人体検出枠1001b〜1005bが表示される。その結果、顔検出枠1001a〜1005aおよび人体検出枠1001b〜1005bの大部分が重なり、被写体像1001〜1005のユーザによる視認性が悪化してしまう。
従って、本発明の目的は、複数の被写体像を含む画像とその特定領域を規定する表示体を画面表示する際の、ユーザによる画像の視認性が良好な画像表示装置、その制御方法および制御プログラム、並びに画像表示装置を有する撮像装置を提供することにある。
本発明の画像表示装置は、複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置であって、第1の被写体像の第1の領域と第2の被写体像の第1の領域とが前記画面上で垂直方向に並ぶ場合に、前記第1の被写体像の前記第1の表示体と前記第2の被写体像の前記第1の表示体とのいずれが前記画面において上方に位置するのかを判定する判定手段と、前記判定手段によって前記画面において上方に位置すると判定された前記第1の表示体に対応する被写体像の前記第2の表示体を非表示にすべきであると決定する表示制御手段とを備えることを特徴とする。
本発明の画像表示装置は、複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置であって、前記画面上で第1の被写体像と第2の被写体像が水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であるか否かを判定する判定手段と、前記判定手段によって前記第1の被写体像と前記第2の被写体像が水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体とを被写体表示体に統合し、前記被写体表示体を前記表示部により前記画面に表示させる表示制御手段とを備えることを特徴とする。
本発明の画像表示装置は、複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置であって、前記画面上で第1の被写体像と第2の被写体像とが水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であるか否かを判定する判定手段と、前記判定手段によって前記第1の被写体像と前記第2の被写体像とが水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体の少なくともいずれかの水平方向の幅を調整する表示制御手段とを備えることを特徴とする。
本発明の制御方法は、複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置の制御方法であって、第1の被写体像の第1の領域と第2の被写体像の第2の領域とが前記画面上で垂直方向に並ぶ場合に、前記第1の被写体像の前記第1の表示体と前記第2の被写体像の前記第1の表示体とのいずれが前記画面において上方に位置するのかを判定する判定ステップと、前記判定ステップで前記画面において上方に位置すると判定された前記第1の表示体に対応する被写体像の前記第2の表示体を非表示にすべきであると決定する表示制御ステップとを備えることを特徴とする。
本発明の制御方法は、複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置の制御方法であって、前記画面上で第1の被写体像と第2の被写体像が水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であるか否かを判定する判定ステップと、前記判定ステップで前記第1の被写体像と前記第2の被写体像が水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体とを被写体表示体に統合し、前記被写体表示体を前記表示部により前記画面に表示させる表示制御ステップとを備えることを特徴とする。
本発明の制御方法は、複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置の制御方法であって、前記画面上で第1の被写体像と第2の被写体像とが水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であるか否かを判定する判定ステップと、前記判定ステップで前記第1の被写体像と前記第2の被写体像とが水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体の少なくともいずれかの水平方向の幅を調整する表示制御ステップとを備えることを特徴とする。
本発明の制御プログラムは、上記制御方法のいずれかをコンピュータに実行させることを特徴とする。
本発明の撮像装置は、上記画像表示装置のいずれかと、複数の被写体像を撮像して画像データを得る撮像手段とを備え、前記画像表示装置の前記表示制御手段は前記画像データに応じた画像を前記画像表示装置の前記表示部に表示させることを特徴とする。
本発明によれば、複数の被写体像を含む画像とその特定領域を規定する第1及び第2の表示体(例えば、顔検出枠および人体検出枠)を画面表示する際、ユーザによる画像の視認性を良好にすることができる。
本発明の実施の形態による画像表示装置を備えた撮像装置の一例であるデジタルカメラの構成例を示すブロック図である。 デジタルカメラの顔検出部によって得られた顔情報の一例を示す図である。 デジタルカメラの人体検出部によって得られた人体情報の一例を示す図である。 デジタルカメラのシステム制御部で生成された顔検出枠および人体検出枠の一例を説明するための図である。 顔検出枠および人体検出枠の表示を制御するためにシステム制御部で行われる表示制御処理の手順を説明するためのフローチャートである。 図5の表示制御処理にしたがって顔検出枠を画面表示した状態を示す図である。 2つの顔情報の顔水平検出位置を比較する状態を示す図である。 2つの顔情報の顔垂直検出位置を比較する状態を示す図である。 顔検出枠とともに人体検出枠が表示された状態を示す図である。 顔検出枠と人体検出枠とを被写体検出枠に統合して表示する例を説明するための図である。 本発明の第2の実施の形態における顔検出枠および人体検出枠の表示を制御するために行われる表示制御処理の手順を説明するためのフローチャートである。 図9の表示制御処理にしたがって表示される顔検出枠および人体検出枠を説明するための図である。 本発明の第3の実施の形態における顔検出枠および人体検出枠の表示を制御するために行われる表示制御処理の手順を説明するためのフローチャートである。 図11の表示制御処理にしたがって表示される顔検出枠および人体検出枠の一例を説明するための図である。 図11の表示制御処理にしたがって表示される顔検出枠および人体検出枠の別の例を説明するための図である。 従来の撮像装置における顔検出枠および人体検出枠の表示の一例を示す図である。 従来の別の撮像装置における顔検出枠および人体検出枠の表示の例を示す図である。
[第1の実施の形態]
図1は、本発明の実施の形態による画像表示装置を備えた撮像装置の一例であるデジタルカメラの構成例を示すブロック図である。
図示の撮像装置すなわちデジタルカメラ(以下単にカメラと呼ぶ)100は、フォーカスレンズを含む撮影レンズユニット(以下単に撮影レンズと呼ぶ)103を有している。撮影レンズ103の後段には絞り機能を備えるシャッター101(絞り兼シャッター)が配置されている。絞り兼シャッターに代えて、互いに別の部材で構成された絞りとシャッターを用いてもよい。
撮影レンズ103およびシャッター101を通過した光学像(被写体像)は撮像部22の撮像素子に結像する。この撮像部22はCCD又はCMOSイメージセンサで構成されており、撮像素子に結像した光学像を光電変換して得た電気信号(アナログ画像信号)を出力する。このアナログ信号はA/D変換器23に与えられ、デジタル信号(画像データ)に変換される。
撮影レンズ103の前面側には、撮影レンズ103、シャッター101および撮像部22を含む撮像系を覆うバリア102が配置され、撮像系の汚れおよび破損を防止するようにしている。
画像処理部24は、A/D変換器23からの画像データ又はメモリ制御部15からの画像データに対して画素補間やサイズ縮小などのリサイズ処理や色変換処理を行う。また、画像処理部24は、画像データを用いて所定の演算処理を行う。そして、システム制御部50は、当該演算結果に基づいて露光制御および測距制御を行う。つまり、システム制御部50は、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理およびEF(フラッシュプリ発光)処理を行う。
さらに、画像処理部24は、画像データを用いて所定の演算処理を行い、当該演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器23から出力された画像データは、画像処理部24およびメモリ制御部15を介して、メモリ32に書き込まれる。メモリ32には、表示部28に表示するための画像データが格納される。なお、メモリ32は、所定枚数の静止画像データおよび所定時間の動画像データ、そして、音声データを格納するための十分な記憶容量を有している。加えて、メモリ32は画像表示用のビデオメモリを兼ねている。
D/A変換器13は、メモリ32に格納されている画像表示用の画像データをアナログ信号に変換して表示部28に与え、アナログ信号(画像データ)に応じた画像が表示部28に表示される。なお、表示部28は、例えば、LCDである。
不揮発性メモリ56は、EEPROMなどの電気的に消去・記録可能なメモリであり、システム制御部50の動作用の定数およびプログラムなどが記憶される。システムメモリ52は、例えばRAMであり、システム制御部50の動作用の定数、変数、および不揮発性メモリ56から読み出したプログラムなどが展開される。
システム制御部50はカメラ100の制御を司るもので、不揮発性メモリ56に記録されたプログラムを実行して後述する各処理を行う。また、システム制御部50はメモリ32、D/A変換器13、表示部28などを制御して表示制御を実行する。
モード切替スイッチ60、シャッターボタン61および操作部70は、システム制御部50に各種の動作指示を入力するための入力操作部である。
モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、再生モードなどのいずれかに切り替える際に用いられる。
シャッターボタン61は撮影指示を行うためのものであり、第1及び第2シャッタースイッチを有している。シャッターボタン61の操作によってシャッターボタン61が所謂半押し状態となると、第1シャッタースイッチがオンとなって、第1シャッタースイッチ信号SW1(撮影準備指示)がシステム制御部50に与えられる。これに応じて、システム制御部50は、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理などを開始する。
シャッターボタン61が所謂全押し状態となると、第2シャッタースイッチがオンとなって、第2シャッタースイッチ信号SW2(撮影指示)がシステム制御部50に与えられる。これに応じて、システム制御部50は、撮像部22から画像信号を出力させてから記録媒体200に画像データを書き込むまでの一連の撮影処理の制御を開始する。
表示部28に表示される種々の機能アイコンのいずれかを選択的に操作すると、操作部70に備えられたボタンおよびキーなどの各操作部材に場面毎に適宜機能が割り当てられて、各種機能ボタンとして機能する。
機能ボタンとして、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタンおよび属性変更ボタンがある。メニューボタンが押されると、各種の設定を行うためのメニュー画面が表示部28に表示される。ユーザはメニュー画面上で4方向ボタン又はSETボタンを用いて直感的に各種の設定を行うことができる。
電源スイッチ72は、カメラ100の電源のオン/オフを行うためのスイッチである。
電源制御部80は、電池検出回路、DC−DCコンバータ、および通電するブロックを切り替えるスイッチ回路などを有しており、電池装着の有無、電池の種類および電池残量の検出を行う。また、電源制御部80は、検出結果およびシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部に供給する。
電源部30は、アルカリ電池又はリチウム電池などの一次電池、又はNiCd電池、NiMH電池又はLi電池等の二次電池を有し、そして、ACアダプター端子などを有している。インターフェース(I/F)18は記録媒体200とのインターフェースである。記録媒体200は、例えば、半導体メモリ等からなるメモリカードまたはハードディスクで構成される。
システム制御部50には顔検出部104および人体検出部105が接続されている。顔検出部104は、メモリ32に格納された画像データにおける被写体像の顔領域(第1の領域)を検出する。人体検出部105は、メモリ32に格納された画像データにおける被写体像の人体領域(第2の領域)を検出する。これら顔領域および人体領域は被写体像における特定領域である。
上述のカメラ100は、撮影画面の中央位置1点に対してAFを行う所謂中央1点AFを用いた撮影を行うことができ、また、顔検出部104の顔検出機能で検出された顔領域に対してAFを行う所謂顔AFを用いた撮影を行うことができる。
以下、システム制御部50の制御下で実現される顔検出部104の顔検出機能について説明する。
顔検出部104は、メモリ32から入力した画像データに対して水平方向バンドパスフィルタ処理を行い、水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これにより、画像データからエッジ成分が検出される。
続いて、顔検出部104は、検出されたエッジ成分に関してパターンマッチングを行って、目、鼻、口および耳の候補群を抽出する。そして、顔検出部104は、抽出された目の候補群の中から予め設定された条件(例えば、2つの目の距離および傾きなどの条件)を満たす候補を目の対と判定し、目の対をなさない候補群を除外して目の候補群を絞り込む。
さらに、顔検出部104は、絞り込んだ目の候補群と当該目に対応して顔を形成する他のパーツ(鼻、口、耳)とを対応づけて顔領域候補を決定し、顔領域候補に対して予め設定された非顔条件フィルタ処理を行う。次に、顔検出部104は、顔条件を満たさないと判定した顔領域候補を除外し、残りの顔領域候補を顔領域として検出し、顔領域の検出結果を示す顔情報をシステム制御部50に出力する。システム制御部50は顔情報をシステムメモリ52に記憶する。
以下、システム制御部50の制御下で実現される人体検出部105の人体検出機能について説明する。人体検出部105は、メモリ32から入力した画像データに対して水平方向バンドパスフィルタ処理を行い、水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これにより、画像データからエッジ成分が検出される。
次に、人体検出部105は、検出されたエッジ成分に関してパターンマッチングを行って、エッジ成分が人体領域の輪郭形状に相当するか否かを判定し、人体領域の輪郭形状に相当するエッジ成分に基づき人体領域を検出する。そして人体検出部105は、人体領域の検出結果を示す人体情報をシステム制御部50に出力する。システム制御部50は人体情報をシステムメモリ52に記憶する。
図2は、顔検出部104によって得られ表示部28の画面上に表示された顔情報(顔検出情報ともいう)の一例を示す図である。
顔情報は、図2に示す画面上のXY座標系での顔水平検出位置Xf、顔垂直検出位置Yf、顔水平検出サイズHfおよび顔垂直検出サイズVf(それぞれピクセル単位で表される)と、顔ピッチ方向検出角度Θfpとで規定される。
顔水平検出位置Xfは、顔検出部104で検出された顔領域の水平方向(X軸方向)の始点を示す位置情報(X軸座標値)である。顔垂直検出位置Yfは、顔検出部104で検出された顔領域の垂直方向(Y軸方向)の始点を示す位置情報(Y軸座標値)である。
顔水平検出サイズHfは、顔領域の水平方向の大きさを示すサイズ情報である。顔垂直検出サイズVfは、顔領域の垂直方向の大きさを示すサイズ情報である。顔ピッチ方向検出角度Θfpは、垂直方向に対する顔の傾きを示す角度情報であり、図2に示す例ではΘfp=0である。
図3は、人体検出部105によって得られた人体情報(人体検出情報ともいう)の一例を示す図である。
人体情報は、図3に示す、表示部28の画面上のXY座標系での人体水平検出位置Xb、人体垂直検出位置Yb、人体水平検出サイズHbおよび人体垂直検出サイズVb(それぞれピクセル単位で表される)と、人体ピッチ方向検出角度Θbpとで規定される。
人体水平検出位置Xbは、人体検出部105で検出された人体領域の水平方向(X軸方向)の始点を示す位置情報(X軸座標値)である。人体垂直検出位置Ybは、人体検出部105で検出された人体領域の垂直方向(Y軸方向)の始点を示す位置情報(Y軸座標値)である。
人体水平検出サイズHbは、人体領域の水平方向の大きさを示すサイズ情報である。人体垂直検出サイズVbは、人体領域の垂直方向の大きさを示すサイズ情報である。人体ピッチ方向検出角度Θbpは、垂直方向に対する人体の傾きを示す角度情報であり、図3に示す例ではΘbp=0である。
図4は、システム制御部50で生成された顔検出枠(第1の表示体)および人体検出枠(第2の表示体:体検出枠ともいう)の一例を示す図である。なお、図4において、図2および図3に示す情報と同一の情報を同一の記号で示す。
システム制御部50は、顔検出部104によって得られた顔情報に基づいて図4に示す顔検出枠401を生成する。
顔検出枠401は、顔情報の顔水平検出位置Xfおよび顔垂直検出位置Yfで規定される座標(Xf,Yf)を始点とする矩形枠である。矩形枠のX軸方向終点は顔水平検出位置Xfと顔水平検出サイズHf(顔検出枠のX軸方向サイズ)との和および顔垂直検出位置Yfで規定される座標(Xf+Hf,Yf)にある。Y軸方向終点は顔水平検出位置Xfおよび顔垂直検出位置Yfと顔情報の顔垂直検出サイズVf(顔検出枠のY軸方向サイズ)との和で規定される座標(Xf,Yf+Vf)にある。そして、矩形枠の終点は座標(Xf+Hf,Yf+Vf)にある。
システム制御部50は、顔検出部104によって得られた顔情報と人体検出部105によって得られた人体情報とに基づいて図4に示す人体検出枠402を生成する。
人体検出枠402は、人体情報の人体水平検出位置XbをX軸方向始点とし、顔情報の顔垂直検出位置Yfと顔垂直検出サイズVfとの和YBをY軸方向始点とする矩形枠である。矩形枠のX軸方向終点は人体情報の人体水平検出位置Xbと人体水平検出サイズHbとの和Xb+Hbで表され、Y軸方向終点は人体情報の人体垂直検出位置Ybと人体垂直検出サイズVbとの和Yb+Vbで表される。
人体検出枠402の始点は座標(Xb,YB)で表され、終点は座標(Xb+Hb,Yb+Vb)で表される。人体検出枠402の垂直表示サイズVBは、人体検出枠402のY軸方向終点のY座標値Yb+VbからY軸方向始点のY座標値YBを減じた値(Yb+Vb)−YBに等しい。
図5は、顔検出枠および人体検出枠の表示を制御するためにシステム制御部50で行われる表示制御処理の手順を説明するためのフローチャートである。表示制御処理では、システム制御部50はメモリ制御部15を介して表示部28を制御する。
表示制御処理が開始されると、システム制御部50は、システムメモリ52から顔情報および人体情報を読み出す(ステップS601、S602)。
本例では、顔検出部104および人体検出部105によりそれぞれ検出した複数たとえばNmax個の顔領域および人体領域を示す顔検出枠および人体検出枠を表示する初期設定になっているものとする。顔領域のみが検出された場合は、その顔領域の下に人体領域があるとみなし、人体領域のみが検出された場合は、その人体領域の上に顔領域があるとみなす。そして、システムメモリ52に記録された顔情報および人体情報に対してX座標値の小さい順に1、2、・・・、Nmaxの識別番号が割り当てられるものとする。以下、n番目(1≦n≦Nmax)の顔領域の座標(顔検出座標)を(Xf,Yf)で示す。
続いて、システム制御部50は、顔情報(顔領域)を特定するための指数nを初期値「1」に設定する(ステップS603)。
次に、システム制御部50は、n番目の顔情報における顔水平検出位置Xfと(n+1)番目の顔情報における顔水平検出位置Xfn+1とに基づき、n番目の顔領域と(n+1)番目の顔領域が垂直方向において並んでいるか否かを判定する。つまり、相隣る被写体像である第1の被写体像および第2の被写体像のそれぞれに対応する顔検出枠が垂直方向において並んでいるか否かを判定する(ステップS604)。
ステップS604では、例えば、システム制御部50は、n番目の顔情報における顔水平検出位置Xfと所定の第1の閾値との和が、(n+1)番目の顔情報における顔水平検出位置Xfn+1以下であるか否かを判定する。言い換えれば、システム制御部50は、n番目の顔情報における顔水平検出位置Xfと(n+1)番目の顔情報における顔水平検出位置Xfn+1との距離(顔領域間の水平方向距離)が第1の閾値以下であるか否かを判定する。第1の閾値は、例えば、n番目の顔情報の水平サイズHf(顔検出枠のX軸方向サイズ)と所定のゲイン値αとの積α×Hfに等しい値に設定される。
ステップS604での判定結果がNOであれば、システム制御部50は、n番目の顔領域と(n+1)番目の顔領域とが垂直方向に並ぶと判定する。
次に、システム制御部50は、n番目の顔領域の垂直方向位置と(n+1)番目の顔領域の垂直方向位置とを比較する。例えば、システム制御部50はn番目の顔情報における顔垂直検出位置Yfと(n+1)番目の顔情報における顔垂直検出位置Yfn+1との差分(顔検出枠間の垂直方向距離)の絶対値が所定の第2の閾値を超えているか否かを判定する(ステップS605)。第2の閾値は、例えば、n番目の顔情報の垂直サイズVf(顔検出枠のY軸方向サイズ)と所定のゲイン値βとの積β×Vfnに等しい値に設定される。
なお、ステップS605では、2つの顔領域のY軸方向距離が第2の閾値を超えている場合に顔領域が上下に位置していると判断する。そして、X軸方向及びY軸方向のいずれにおいても2つの顔領域の位置が重なる場合には、いずれかの顔領域が誤検出されたと考えられる。また、2つの顔領域が上下方向に極端に離れているような構図は一般的には存在しないので、2つの顔領域がY軸方向にある程度離れていれば、上に位置する被写体像の人体領域と下に位置する被写体像の顔領域の位置とが重なると判定することができる。
ステップS605でYESであれば、システム制御部50は、XY座標系においてn番目の顔情報の顔垂直検出位置Yfと(n+1)番目の顔情報の顔垂直検出位置Yfn+1とのどちらが上方に位置するのかを判定する。このため、例えば、システム制御部50はYfn+1<Yfであるか否かを判定する(ステップS606)。
ステップS606でYfn+1<Yfであると判別された場合、表示部28の画面においてn番目の顔領域と(n+1)番目の顔領域とが垂直方向に並びかつ(n+1)番目の顔領域がn番目の顔領域の上方に位置する。この状態で、(n+1)番目の顔情報に対応する(n+1)番目の人体検出枠を画面に表示すると、(n+1)番目の人体検出枠がn番目の顔検出枠に重なって画面表示が見づらくなる。
そこで、Yfn+1<Yfであると判別されると(ステップS606でYES)、システム制御部50は、(n+1)番目の人体検出枠を非表示とすることに決定する(ステップS607)。これによって、(n+1)番目の人体検出枠とn番目の顔検出枠との画面上での重なりを回避して、見づらい画面表示を防止する。
続いて、システム制御部50は、顔情報を特定する指数nを1だけインクリメントし(ステップS608)、n=Nmaxであるか否かを判定する(ステップS609)。n=Nmaxであると判別すると(ステップS609でYES)、システム制御部50は表示制御を終了する。一方、n=Nmaxではなく、n<Nmaxであると判別すると(ステップS609でNO)、システム制御部50はステップS604に戻る。
ステップS606でYfn+1<Yfでないと判別された場合、表示部28の画面においてn番目の顔領域と(n+1)番目の顔領域とが垂直方向に並びかつn番目の顔領域が(n+1)番目の顔領域の上方に位置する。この状態で、n番目の人体検出枠を画面に表示すると、n番目の人体検出枠が(n+1)番目の顔検出枠に画面上で重なって画面表示が見づらくなる。
そこで、Yfn+1<Yfでないと判別されると(ステップS606でNO)、システム制御部50は、n番目の人体検出枠を非表示とすることに決定する(ステップS610)。これによって、画面上でのn番目の人体検出枠と(n+1)番目の顔検出枠との重なりを回避して、見づらい画面表示を防止する。
ステップS604での判定結果がYES、つまり、n番目の顔領域と(n+1)番目の顔領域とが垂直方向に並んでいないと判別すると、ステップS608の処理に進む。
ステップS605でNO、つまり、n番目の顔情報における顔垂直検出位置Yfと(n+1)番目の顔情報における顔垂直検出位置Yfn+1との差分の絶対値が第2の閾値以下であると判定すると、システム制御部50はステップS608に進む。
以下、図5で説明した表示制御処理による顔検出枠および人体検出枠の表示について具体的に説明する。
図6Aはシステムメモリ52から読み出した顔情報に基づいて生成された顔検出枠を画面表示した状態を示す図であり、図6Bは2つの顔情報の顔水平検出位置を比較する状態を示す図である。図7Aは2つの顔情報の顔垂直検出位置を比較する状態を示す図であり、図7Bは顔検出枠とともに人体検出枠が表示された状態を示す図である。
図6Aの例では、表示部28の画面に5つの被写体像701〜705が表示されている。システム制御部50は、システムメモリ52から5人分の顔情報を読み出して、当該顔情報に基づいて顔検出枠701a〜705aを生成し、表示部28に顔検出枠701a〜705aを表示させる。図6A中、顔検出枠701a〜705aの顔検出座標をX座標値が小さい順にそれぞれ(Xf,Yf)、(Xf,Yf)、(Xf,Yf)、(Xf,Yf)、および(Xf、Yf)で示す。
図5のステップS604において、システム制御部50は、1番目の被写体像701における顔水平検出位置Xfと2番目の被写体像702における顔水平検出位置Xfとに基づき次式(1)の関係が成立するか否かを判定する。
Xf+α×Hf<Xf ・・・(1)
式(1)中、Hfは1番目の顔検出枠701aの水平サイズである。
なお、本例では、顔検出枠701a〜705aおよび人体検出枠を表示する設定となっている(但し、人体検出枠はまだ表示されない)。
図6Bに示すように、本例では、Xf<Xf<(Xf+α×Hf)であり、Xf+α×Hf>Xfの関係が成立するので、システム制御部50は、顔検出枠701aと顔検出枠702aとが垂直方向に並んでいると判定する。
次に、図5のステップS605で、システム制御部50は、1番目の被写体像701における顔垂直検出位置Yfと2番目の被写体像702における顔垂直検出位置Yfとに基づき次式(2)の関係が成立するか否かを判定する。
|Yf−Yf|>β×Vf (2)
式(2)中、Vfは1番目の顔検出枠701aの垂直サイズである。
図7Aに示す例では、Yf<(Yf−β×Vf)<Yfであり、式(2)の関係が成立するので、システム制御部50は、顔検出枠701aと顔検出枠702aとが垂直方向に近接すると判定し、図5のステップS606に進む。システム制御部50は、ステップS606で、表示画面上で顔垂直検出位置Yfと顔垂直検出位置Yfのいずれが上方に位置するのかを判定する。
本例では、Yf<Yfであるので、システム制御部50は、表示画面上で顔検出枠702aが顔検出枠701aの上方に存在していると判定し、図5のステップS607に進み、被写体像702に対応する人体検出枠を非表示(OFF)と決定する。
つまり、本例では、顔検出枠701aおよび702aは垂直方向に並びかつ顔検出枠702aが顔検出枠701aの上方に位置しており、被写体像702に対応する人体検出枠を画面表示すると見づらい画面表示となってしまう。そのため、図7Bに示すように、被写体像701に対応する人体検出枠701bを表示するが、被写体像702に対応する人体検出枠を非表示とする(人体検出枠表示がONからOFFとされる)。
なお、図5に示す表示制御処理は一例であり、これに限定されない。或る被写体像の顔領域に対する顔検出枠と別の被写体像の人体領域に対する人体検出枠の双方を同時に表示したときに重なる部分が生じるか否かを別の方法で判定してもよい。
図6Aに示す例では、5つの被写体像701〜705が画面表示されている。システム制御部50は、顔検出座標(Xf、Yf)ないし顔検出座標(Xf、Yf)に基づく上記の式(1)、(2)の関係が成立するか否かの判定を含む上記各種判定を行う。そして、1以上の被写体像に対応する1以上の人体検出枠を必要に応じて非表示にする。
本例では、図7Bに示すように、被写体像702、704に対応する人体検出枠が非表示にされる。その一方、被写体像701〜705に対応する顔検出枠701a〜705aと被写体像701、703、705に対応する人体検出枠701b、703b、705bが画面表示される。このように、1以上の人体検出枠を必要に応じて非表示にすることによって、見づらい画面表示となることを防止することができる。
図8は、顔検出枠と人体検出枠とを被写体検出枠に統合して表示する例を説明するための図である。
顔検出枠表示および人体検出枠表示をともにONと決定した被写体像については、当該顔検出枠および人体検出枠を被写体検出枠に統合し、統合した被写体検出枠を画面表示するようにしてもよい。
図7Bに示す例では、被写体像701、703、705に対応する人体検出枠701b、703b、705bの表示をONとしている。システム制御部50は、被写体像701、703、705に対応する顔検出枠701a、703a、705aと人体検出枠701b、703b、705bとを被写体検出枠(被写体表示体)701c、703c、705cに統合する。そして、図8に示すように統合した被写体検出枠701c、703c、705cを画面表示させる。
[第2の実施の形態]
次に、本発明の第2の実施の形態に係る撮像装置について説明する。本実施形態の撮像装置は、システム制御部50が行う表示制御処理の手順以外は基本的には上記第1の実施形態のものと同一であり、共通点についての説明を省略する。
第1の実施の形態では、複数の顔検出枠が垂直方向に並ぶ場合には、上側に位置する1以上の顔検出枠に対応する1以上の人体検出枠を非表示にして画面表示が見づらくならないようにした。本実施の形態では、相隣る顔検出枠が水平方向に並んで位置し、かつ、顔検出枠間の距離が近い場合には、これらの顔検出枠に対応する人体検出枠同士を一つの人体検出枠に統合して表示する。
図9は、顔検出枠および人体検出枠の表示を制御するためにシステム制御部50で行われる表示制御処理の手順を説明するためのフローチャートである。図10は、図9に示す表示制御処理にしたがって表示される顔検出枠および人体検出枠を説明するための図である。
表示制御処理が開始されると、システム制御部50は、システムメモリ52から顔情報および人体情報を読み出す(ステップS901、S902)。
本実施の形態においても、顔検出部104および人体検出部105のそれぞれにより複数たとえばNmax個の顔領域および人体領域を検出するものとする。顔領域のみが検出された場合は、その顔領域の下に人体領域があるとみなし、人体領域のみが検出された場合は、その人体領域の上に顔領域があるとみなす。そして、システムメモリ52に記録された顔情報および人体情報に対してY座標値の小さい順に1、2、・・・、Nmaxの識別番号が割り当てられるものとする。以下、n番目(1≦n≦Nmax)の顔領域の座標(顔検出座標)を(Xf,Yf)で示し、n番目の顔領域のサイズを(Hf,Vf)で示す。
続いて、システム制御部50は、顔情報(顔領域)を特定するための指数n、iのそれぞれを初期値「1」に設定し(ステップS903、S904)、n番目の顔領域と(n+i)番目の顔領域とが水平方向に並んでいるか否かを判定する(ステップS905)。
ステップS905では、例えば、システム制御部50は、n番目の顔情報におけるY軸方向始点である顔垂直検出位置Yfを求める。さらに、システム制御部50はn番目の顔情報におけるY軸方向終点(Yf+Vf)と、(n+i)番目の顔情報におけるY軸方向中心Yfcn+i(=Yfn+i+Vfn+i/2)とを求める。そして、システム制御部50は、Y軸方向中心Yfcn+iがY軸方向始点YfとY軸方向終点(Yf+Vf)との間に存在しているか否かを判定し、これによりn番目の顔領域と(n+i)番目の顔領域とが水平方向に並んでいるか否かを判定する。
システム制御部50は、(n+i)番目の顔情報におけるY軸方向中心Yfcn+iが、n番目の顔情報におけるY軸方向始点Yfと終点(Yf+Vf)との間に存在していると判別すると(ステップS905でYES)、ステップS906に進む。システム制御部50は、ステップS906において、n番目の顔領域と(n+i)番目の顔領域とが水平方向に近接しているか否かを判定する。そのため、例えば、n番目の顔情報における顔水平検出位置Xfと(n+i)番目の顔情報における顔水平検出位置Xfn+iとの差分の絶対値が所定の閾値を超えているか否を判定する。閾値は、例えば、n番目の顔情報の水平サイズHfと所定のゲイン値α2との積α2×Hfに等しい値に設定され、ゲイン値α2は1より大きな値たとえば値2に設定される。
システム制御部50は、ステップS906でYESであれば、n番目の人体検出枠と(n+i)番目の人体検出枠とを統合し(ステップS907)、指数iを1だけインクリメントする(ステップS908)。
一方、システム制御部50は、n番目の顔領域と(n+i)番目の顔領域とが水平方向に近接していなければ(ステップS905またはS906でNO)、ステップS908へ進み、指数iを1だけインクリメントする。この場合、ステップS907をスキップするので、n番目の人体検出枠と(n+i)番目の人体検出枠は統合されない。
次に、システム制御部50は、指数n+iがNmaxを超えているかを判定し(ステップS909)、ステップS909での判別結果がNOであればステップS905に戻る。一方、ステップS909での判別結果がYESであれば、システム制御部50は、指数nを1だけインクリメントする(ステップS910)。なお、インクリメント後の指数nが表す顔領域が、先に判定を行った顔領域と水平方向において近接していると判定されているならば、指数nをさらに1だけインクリメントしてもよい。
次に、システム制御部50は、指数nがNmaxに達しているかを判定し(ステップS911)、ステップS911での判別結果がNOであればステップS904に戻る。一方、ステップS911での判別結果がYESであれば、システム制御部50は表示制御処理を終了する。
なお、本例では2つの顔情報におけるY軸方向始点に基づいて相隣る顔領域同士が近接しているかどうかを判定したが、これに限られるものではない。互いの顔領域の中心位置または人体領域の中心位置に基づいて必要に応じて顔領域のサイズや人体領域のサイズを考慮しつつ、判定を行っても良いし、人体検出枠の座標値に基づいて判定を行ってもよい。
以下、図9で説明した表示制御処理にしたがう顔検出枠および人体検出枠の表示について、図10を用いて説明する。
図10の例では、表示部28の画面に5つの被写体像1001〜1005が表示されている。システム制御部50は、システムメモリ52から5人分の顔情報を読み出して、当該顔情報に基づいて顔検出枠1001a〜1005aを生成し、表示部28に表示させる。
図10に示すように、顔検出枠1001aと1002aとが水平方向に並んで位置し、かつ、その距離が近い。また、顔検出枠1003aと1004aとが水平方向に並んで位置し、かつ、その距離が近い。そこで、システム制御部50は、顔検出枠1001aに対応する人体検出枠と顔検出枠1002aに対応する人体検出枠とを人体検出枠1001bに統合する。これと共に、システム制御部50は、顔検出枠1003aに対応する人体検出枠と顔検出枠1004aに対応する人体検出枠とを人体検出枠1003bに統合し、人体検出枠1001b、1003bを表示部28に表示させる。なお、顔検出枠は距離が近くとも統合せずに、別々に表示される。このため、どの被写体像の顔領域の検出に成功したのかを画面上で視認しやすい。
複数の人体検出枠は、例えば、人体検出枠の全てを包含する人体検出枠に統合される。あるいは、複数の人体検出枠は、中心の位置が複数の人体検出枠の重心の位置と垂直方向において一致し且つ垂直方向サイズが予め定めた値になる人体検出枠に統合してもよい。
複数の顔検出枠が垂直方向に並ぶ場合、本実施の形態の表示制御処理を実施した後に第1の実施の形態の表示制御処理を行うことにより、複数の顔検出枠に対応する人体検出枠を統合した人体検出枠のうち、上側に位置するものを非表示にしてもよい。
[第3の実施の形態]
次に、本発明の第3の実施の形態に係る撮像装置について説明する。本実施形態の撮像装置は、システム制御部50が行う表示制御処理の手順以外は基本的には上記第1の実施形態のものと同一であり、共通点についての説明を省略する。
本実施の形態では、複数の人体領域が水平方向に並び、かつ、その距離が閾値未満である場合に、人体検出枠が重ならないように人体検出枠の幅を調整して表示する。
図11は、システム制御部50で行われる顔検出枠および人体検出枠の表示を制御するための表示制御処理の手順を説明するためのフローチャートである。図12および図13は、それぞれ、図11の表示制御処理にしたがって表示される顔検出枠および人体検出枠を説明するための図である。
表示制御処理が開始されると、システム制御部50は、システムメモリ52から顔情報および人体情報を読み出す(ステップS1101、S1102)。
本実施の形態においても、顔検出部104および人体検出部105のそれぞれにより複数たとえばNmax個の顔領域および人体領域を検出するものとする。顔領域のみが検出された場合は、その顔領域の下に人体領域があるとみなし、人体領域のみが検出された場合は、その人体領域の上に顔領域があるとみなす。そして、システムメモリ52に記録された顔情報および人体情報に対してX座標値の小さい順に1、2、・・・、Nmaxの識別番号が割り当てられるものとする。以下、n番目(1≦n≦Nmax)の人体領域の座標(人体検出座標)を(Xb,Yb)で示し、n番目の顔領域のサイズを(Hb,Vb)で示す。
続いて、システム制御部50は、人体情報(人体領域)を特定するための指数nを初期値「1」に設定し(ステップS1103)、n番目の人体領域と(n+1)番目の人体領域とが水平方向に並んでいるか否かを判定する(ステップS1104)。
ステップS1104では、例えば、システム制御部50は、(n+1)番目の人体検出枠のX軸方向始点Xbn+1が、n番目の人体検出枠のX軸方向始点Xbから終点(Xb+Hb)までの間に位置しているか否かを判定する。これにより、これらの人体検出枠が水平方向に並んでいるか否かを判定する。
システム制御部50は、n番目の人体領域と(n+1)番目の人体領域とが水平方向に並んでいると判別すると、n番目の人体領域と(n+1)番目の人体領域とが垂直方向において重なるか否かを判定する(ステップS1105)。
そのため、例えば、システム制御部50は、(n+1)番目の人体検出枠の人体垂直検出位置Ybn+1が、n番目の人体検出枠の人体垂直検出位置YbからY軸方向終点(Yb+Vb)までの間に位置しているか否かを判定する。また、システム制御部50は、n番目の人体検出枠の人体垂直検出位置Ybが、(n+1)番目の人体検出枠の人体垂直検出位置Ybn+1からY軸方向終点(Ybn+1+Vbn+1)までの間に位置しているかを判定する。これら位置関係のどちらかを満たしていれば、n番目の人体領域と(n+1)番目の人体領域とが垂直方向に並んでいると判定する。
その場合(ステップS1105でYES)、システム制御部50は、n番目の人体検出枠と(n+1)番目の人体検出枠の調整を行う(ステップS1106)。
そのため、システム制御部50は、まずn番目の顔検出枠のX軸方向中心Xfcと、(n+1)番目の顔検出枠のX軸方向中心Xfcn+iとを求める。ここで、Xfc=Xf+Hf/2及びXfcn+i=Xfn+i+Hfn+i/2である。そして、システム制御部50は、n番目の顔検出枠のX軸方向中心Xfcと(n+1)番目の顔検出枠のX軸方向中心Xfcn+iとの間を二等分する座標値Xbmを求める。ここでXbm=Xfc+(Xfcn+i―Xfc)/2である。
そして、システム制御部50は、n番目の人体検出枠のX軸方向始点Xb及び終点(Xb+Hb)のそれぞれを値(2*Xfc―Xbm)及び値Xbmに修正する。これと共に、システム制御部50は、(n+1)番目の人体検出枠のX軸方向始点Xbn+1及び終点(Xbn+1+Hbn+1)のそれぞれを値Xbm及び値(2*Xfcn+i―Xbm)に修正する。これにより、それぞれの人体検出枠の水平方向の幅が小さくなり、図12に示すように、画面上でn番目の人体検出枠と(n+1)番目の人体検出枠とが重ならず、かつ、それぞれの顔検出枠の中心位置と人体検出枠の中心位置とが一致するようになる。
なお、この例ではn番目の人体検出枠と(n+1)番目の人体検出枠の両方の幅を小さくしたが、いずれか一方の幅を小さくしても構わない。
人体検出枠を調整する別の方法では、システム制御部50は、n番目の顔検出枠のX軸方向中心Xfcと、(n+1)番目の顔検出枠のX軸方向中心Xfcn+iとを求める。さらに、XfcとXfcn+iとを結ぶ線分を、n番目の顔情報の顔水平検出サイズHfと(n+1)番目の顔情報の顔水平検出サイズHfn+1との比J:Kで分割するX座標値Xbrを求める。
そして、システム制御部50は、n番目の人体検出枠のX軸方向始点Xb及び終点(Xb+Hb)のそれぞれを値(2*Xfc―Xbr)及び値Xbrに修正する。これと共に、システム制御部50は、(n+1)番目の人体検出枠のX軸方向始点Xbn+1及び終点(Xbn+1+Hbn+1)のそれぞれを値Xbr及び値(2*Xfcn+i―Xbr)に修正する。これにより、図13に示すように、画面上でn番目の人体検出枠と(n+1)番目の人体検出枠とが重ならず、かつ、それぞれの顔検出枠の中心位置と人体検出枠の中心位置とが一致するようになる。
システム制御部50は、人体検出枠の調整を完了すると、指数nを1だけインクリメントし(ステップS1107)、指数nがNmaxに達しているかを判定する(ステップS1108)。ステップS1108での判別結果がNOであれば、ステップS1104に戻る。システム制御部50は、指数nがNmaxに達していれば(ステップS1108でYES)、表示制御処理を終了する。
なお、複数の人体領域間の距離が閾値未満であるかどうかを判定する方法は、上記の方法に限られるものではない。互いの顔領域の中心位置または人体領域の中心位置に基づいて判定を行っても良いし、その際に顔領域のサイズや人体領域のサイズを考慮してもよい。
このようにして、複数の人体領域間の距離が閾値未満である場合には、人体検出枠の幅を小さく調整することによって、見づらい画面表示となることを防止することができる。なお、顔領域が近接する構図となる可能性は低いため、顔検出枠の幅は調整せずに、人体検出枠の幅のみを調整するようにすればよい。
以上、本発明の実施の形態を説明したが、本発明は、これらの実施の形態に限定されるものではなく、種々の形態をとることができる。
例えば、本発明は、上記実施の形態の機能を実現する制御方法の形態または制御プログラムの形態をとることができる。そして、上記実施形態の機能を実現するソフトウェア(制御プログラム)はネットワーク又は各種の不揮発性の記録媒体を介してシステム或いは装置に供給することができる。このとき、そのシステム或いは装置のコンピュータがプログラムを読み出して実行することにより本発明を実施することができる。
15 メモリ制御部
22 撮像部
24 画像処理部
28 表示部
50 システム制御部
104 顔検出部
105 人体検出部

Claims (20)

  1. 複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置であって、
    第1の被写体像の第1の領域と第2の被写体像の第1の領域とが前記画面上で垂直方向に並ぶ場合に、前記第1の被写体像の前記第1の表示体と前記第2の被写体像の前記第1の表示体とのいずれが前記画面において上方に位置するのかを判定する判定手段と、
    前記判定手段によって前記画面において上方に位置すると判定された前記第1の表示体に対応する被写体像の前記第2の表示体を非表示にすべきであると決定する表示制御手段とを備えることを特徴とする画像表示装置。
  2. 前記第1及び第2の被写体像の各々の第1の領域として各前記被写体像の顔領域を検出する顔検出手段と、
    前記第1及び第2の被写体像の各々の第2の領域として各前記被写体像の体領域を検出する体検出手段とを備えることを特徴とする請求項1に記載の画像表示装置。
  3. 前記第1及び第2の被写体像の各々の第1の表示体として各前記被写体像の顔領域を特定する顔検出枠が表示され、
    前記第1及び第2の被写体像の各々の第2の表示体として各前記被写体像の体領域を特定する体検出枠が表示され、
    前記判定手段は、前記第1の被写体像の前記顔領域と前記第2の被写体像の前記顔領域との間の水平方向距離が予め定められた第1の閾値以下であり、かつ、前記第1及び第2の被写体像の顔領域の間の垂直方向距離が予め定めた第2の閾値を超えている場合に、前記第1の被写体像の前記第1の表示体と前記第2の被写体像の前記第1の表示体とのいずれが前記画面において上方に位置するのかを判定することを特徴とする請求項1または2に記載の画像表示装置。
  4. 前記第1の閾値は、前記第1の被写体像と前記第2の被写体像のいずれかの前記顔検出枠のX軸方向サイズに基づいて決定されることを特徴とする請求項3に記載の画像表示装置。
  5. 前記第2の閾値は、前記第1の被写体像と前記第2の被写体像のいずれかの前記顔検出枠のY軸方向サイズに基づいて決定されることを特徴とする請求項3または4に記載の画像表示装置。
  6. 前記表示制御手段は、前記第2の表示体を非表示にすべきでないと決定された前記被写体像の前記第1及び第2の表示体を被写体表示体に統合し、前記表示部により該被写体表示体を前記画面に表示させることを特徴とする請求項1〜5のいずれか1項に記載の画像表示装置。
  7. 複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置であって、
    前記画面上で第1の被写体像と第2の被写体像が水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であるか否かを判定する判定手段と、
    前記判定手段によって前記第1の被写体像と前記第2の被写体像が水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体とを被写体表示体に統合し、前記被写体表示体を前記表示部により前記画面に表示させる表示制御手段とを備えることを特徴とする画像表示装置。
  8. 前記表示制御手段は、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体とを統合した前記被写体表示体が表示される場合に、前記第1の被写体像の前記第1の表示体と前記第2の被写体像の前記第1の表示体とを分けて前記表示部により前記画面に表示させることを特徴とする請求項7に記載の画像表示装置。
  9. 前記第1及び第2の被写体像の各々の第1の領域として各前記被写体像の顔領域を検出する顔検出手段と、
    前記第1及び第2の被写体像の各々の第2の領域として各前記被写体像の体領域を検出する体検出手段とを備えることを特徴とする請求項7または8に記載の画像表示装置。
  10. 前記表示制御手段は、前記判定手段によって前記第1の被写体像と前記第2の被写体像が水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体とを包含する表示体を前記表示部により前記画面に表示させることを特徴とする請求項7〜9のいずれか1項に記載の画像表示装置。
  11. 複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置であって、
    前記画面上で第1の被写体像と第2の被写体像とが水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であるか否かを判定する判定手段と、
    前記判定手段によって前記第1の被写体像と前記第2の被写体像とが水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体の少なくともいずれかの水平方向の幅を調整する表示制御手段とを備えることを特徴とする画像表示装置。
  12. 前記表示制御手段は、前記判定手段によって前記第1の被写体像と前記第2の被写体像とが水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体の少なくともいずれかの水平方向の幅を小さくすることを特徴とする請求項11に記載の画像表示装置。
  13. 前記第1及び第2の被写体像の各々の第1の領域として各前記被写体像の顔領域を検出する顔検出手段と、
    前記第1及び第2の被写体像の各々の第2の領域として各前記被写体像の体領域を検出する体検出手段とを備えることを特徴とする請求項11または12に記載の画像表示装置。
  14. 前記表示制御手段は、前記第1の被写体像の顔領域の中心と前記第2の被写体像の顔領域の中心とを結ぶ線分を等分する座標値に基づいて、前記第1の被写体像の前記第2の表示体の幅と前記第2の被写体像の前記第2の表示体の幅とを調整することを特徴とする請求項11〜13のいずれか1項に記載の画像表示装置。
  15. 前記表示制御手段は、前記第1の被写体像の顔領域の中心と前記第2の被写体像の顔領域の中心とを結ぶ線分を、前記第1の被写体像の顔領域のサイズと前記第2の被写体像の顔領域のサイズとの比で分割する座標値に基づいて、前記第1の被写体像の前記第2の表示体の幅と前記第2の被写体像の前記第2の表示体の幅とを調整することを特徴とする請求項11〜13のいずれか1項に記載の画像表示装置。
  16. 複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置の制御方法であって、
    第1の被写体像の第1の領域と第2の被写体像の第2の領域とが前記画面上で垂直方向に並ぶ場合に、前記第1の被写体像の前記第1の表示体と前記第2の被写体像の前記第1の表示体とのいずれが前記画面において上方に位置するのかを判定する判定ステップと、
    前記判定ステップで前記画面において上方に位置すると判定された前記第1の表示体に対応する被写体像の前記第2の表示体を非表示にすべきであると決定する表示制御ステップとを備えることを特徴とする制御方法。
  17. 複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置の制御方法であって、
    前記画面上で第1の被写体像と第2の被写体像が水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であるか否かを判定する判定ステップと、
    前記判定ステップで前記第1の被写体像と前記第2の被写体像が水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体とを被写体表示体に統合し、前記被写体表示体を前記表示部により前記画面に表示させる表示制御ステップとを備えることを特徴とする制御方法。
  18. 複数の被写体像を含む画像を画像表示装置の表示部の画面に表示する際、前記被写体像の第1及び第2の領域を特定する第1及び第2の表示体を前記被写体像に対応づけて前記画面に表示することができる画像表示装置の制御方法であって、
    前記画面上で第1の被写体像と第2の被写体像とが水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であるか否かを判定する判定ステップと、
    前記判定ステップで前記第1の被写体像と前記第2の被写体像とが水平方向に並び、かつ、前記第1及び第2の被写体像の間の距離が閾値未満であると判定された場合に、前記第1の被写体像の前記第2の表示体と前記第2の被写体像の前記第2の表示体の少なくともいずれかの水平方向の幅を調整する表示制御ステップとを備えることを特徴とする制御方法。
  19. 請求項16〜18のいずれか1項に記載の制御方法をコンピュータに実行させるための制御プログラム。
  20. 請求項1〜15のいずれか1項に記載の画像表示装置と、
    複数の被写体像を撮像して画像データを得る撮像手段とを備え、
    前記画像表示装置の前記表示制御手段は前記画像データに応じた画像を前記画像表示装置の前記表示部に表示させることを特徴とする撮像装置。
JP2013184110A 2012-09-20 2013-09-05 画像表示装置、その制御方法および制御プログラム並びに撮像装置 Pending JP2014077994A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013184110A JP2014077994A (ja) 2012-09-20 2013-09-05 画像表示装置、その制御方法および制御プログラム並びに撮像装置
US14/031,357 US9398222B2 (en) 2012-09-20 2013-09-19 Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012206967 2012-09-20
JP2012206967 2012-09-20
JP2013184110A JP2014077994A (ja) 2012-09-20 2013-09-05 画像表示装置、その制御方法および制御プログラム並びに撮像装置

Publications (1)

Publication Number Publication Date
JP2014077994A true JP2014077994A (ja) 2014-05-01

Family

ID=50274106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013184110A Pending JP2014077994A (ja) 2012-09-20 2013-09-05 画像表示装置、その制御方法および制御プログラム並びに撮像装置

Country Status (2)

Country Link
US (1) US9398222B2 (ja)
JP (1) JP2014077994A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102469694B1 (ko) * 2015-08-24 2022-11-23 삼성전자주식회사 카메라를 구비하는 장치에서 사진 촬영 지원 기법
KR20170053513A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법
JP6973394B2 (ja) * 2016-08-01 2021-11-24 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
KR102543656B1 (ko) * 2018-03-16 2023-06-15 삼성전자주식회사 화면 제어 방법 및 이를 지원하는 전자 장치
US10666858B2 (en) * 2018-10-30 2020-05-26 Sony Corporation Deep-learning-based system to assist camera autofocus
WO2020103068A1 (en) * 2018-11-22 2020-05-28 Polycom, Inc. Joint upper-body and face detection using multi-task cascaded convolutional networks
KR20210101087A (ko) 2020-02-07 2021-08-18 삼성전자주식회사 전자 장치 및 그 전자 장치에서 영상을 표시하는 방법
JP2021153229A (ja) * 2020-03-24 2021-09-30 キヤノン株式会社 情報処理装置、撮像装置、方法、プログラム及び記憶媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7634106B2 (en) * 2004-09-22 2009-12-15 Fujifilm Corporation Synthesized image generation method, synthesized image generation apparatus, and synthesized image generation program
JP4507281B2 (ja) 2006-03-30 2010-07-21 富士フイルム株式会社 画像表示装置、撮像装置および画像表示方法
JP4656331B2 (ja) * 2006-12-27 2011-03-23 富士フイルム株式会社 撮像装置および撮像方法
JP4396720B2 (ja) * 2007-03-26 2010-01-13 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR101362765B1 (ko) * 2007-11-07 2014-02-13 삼성전자주식회사 촬영 장치 및 그 제어 방법

Also Published As

Publication number Publication date
US9398222B2 (en) 2016-07-19
US20140078372A1 (en) 2014-03-20

Similar Documents

Publication Publication Date Title
JP2014077994A (ja) 画像表示装置、その制御方法および制御プログラム並びに撮像装置
US9747492B2 (en) Image processing apparatus, method of processing image, and computer-readable storage medium
US9667888B2 (en) Image capturing apparatus and control method thereof
US9036072B2 (en) Image processing apparatus and image processing method
JP2007279601A (ja) カメラ
JP2010010729A (ja) 撮像装置及びプログラム
JP2008236534A (ja) デジタルカメラ、及び情報表示方法、情報表示制御プログラム
CN105934940B (zh) 图像处理装置、方法与程序
US9936139B2 (en) Image pickup control apparatus, control method therefor, and recording medium
JP6253007B2 (ja) 表示装置
JP2014228629A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP4916403B2 (ja) 画像処理装置及びその制御方法
JP6460868B2 (ja) 表示制御装置およびその制御方法
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
KR101839473B1 (ko) 비교 영상 제공 방법 및 이를 적용한 영상 촬영 장치
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
JP2014110596A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP2018074514A (ja) 撮像装置及びその表示制御方法、並びにプログラム
JP6033044B2 (ja) 画像表示装置、その制御方法、および制御プログラム、並びに撮像装置
JP2018067802A (ja) 撮像制御装置、撮像装置の制御方法及びプログラム
KR101396335B1 (ko) 얼굴 인식 장치 및 방법
JP5800625B2 (ja) 撮像装置及びその制御方法、並びにプログラム
JP2009177316A (ja) 撮像装置
JP6124658B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2021081589A (ja) 表示制御装置およびその制御方法およびそのプログラム