JP2015159405A - image processing apparatus, imaging device, control method, program, and storage medium - Google Patents
image processing apparatus, imaging device, control method, program, and storage medium Download PDFInfo
- Publication number
- JP2015159405A JP2015159405A JP2014032726A JP2014032726A JP2015159405A JP 2015159405 A JP2015159405 A JP 2015159405A JP 2014032726 A JP2014032726 A JP 2014032726A JP 2014032726 A JP2014032726 A JP 2014032726A JP 2015159405 A JP2015159405 A JP 2015159405A
- Authority
- JP
- Japan
- Prior art keywords
- sub
- video
- expression
- evaluation value
- facial expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 79
- 238000003384 imaging method Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000011156 evaluation Methods 0.000 claims abstract description 96
- 230000014509 gene expression Effects 0.000 claims abstract description 55
- 238000004364 calculation method Methods 0.000 claims abstract description 33
- 230000008921 facial expression Effects 0.000 claims description 105
- 238000001514 detection method Methods 0.000 claims description 23
- 230000001815 facial effect Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 11
- 206010011469 Crying Diseases 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮影されたメイン映像に対応付けて記録された複数のサブ映像から所定のサブ映像を自動的に選択して表示する画像処理装置、撮像装置、制御方法、プログラム、及び記憶媒体に関する。 The present invention relates to an image processing apparatus, an imaging apparatus, a control method, a program, and a storage medium that automatically select and display a predetermined sub-video from a plurality of sub-videos recorded in association with a captured main video. .
従来、第1カメラ部と第2カメラ部の2つのカメラ部を備える撮像装置がある(例えば、特許文献1参照)。特許文献1に記載された撮像装置では、撮影モード時に第1カメラ部と第2カメラ部を用いて同時に撮影することが可能となっている。これによれば、第1カメラ部による撮影により被写体の映像が得られ、第2カメラ部による撮影により撮影者の映像が得られる。また、第1カメラ部及び第2カメラ部による撮影で得られたそれぞれの映像を合成して表示することで、被写体と撮影者が一体となった映像を表示することができる。 2. Description of the Related Art Conventionally, there is an imaging apparatus including two camera units, a first camera unit and a second camera unit (see, for example, Patent Document 1). In the imaging apparatus described in Patent Document 1, it is possible to simultaneously photograph using the first camera unit and the second camera unit in the photographing mode. According to this, an image of the subject can be obtained by photographing with the first camera unit, and an image of the photographer can be obtained by photographing with the second camera unit. Further, by synthesizing and displaying the respective images obtained by photographing with the first camera unit and the second camera unit, it is possible to display an image in which the subject and the photographer are integrated.
上記特許文献1記載の第1カメラ部と第2カメラ部を備える撮像装置において、第1カメラ部で撮影したメイン映像を再生して表示する度に、第2カメラ部でメイン映像の閲覧者をサブ映像として撮影することが考えられる。この場合には1つのメイン映像に対して複数の閲覧者のサブ映像が撮像装置で記録され、被写体と被写体を閲覧した複数の閲覧者とを関連付けた映像が得られる。 In the imaging apparatus including the first camera unit and the second camera unit described in Patent Document 1, each time the main video captured by the first camera unit is reproduced and displayed, the viewer of the main video is displayed by the second camera unit. It is conceivable to shoot as a sub video. In this case, sub-videos of a plurality of viewers are recorded with respect to one main video by the imaging device, and a video in which a subject and a plurality of viewers who viewed the subject are associated with each other is obtained.
しかし、特許文献1では、複数のサブ映像から所定のサブ映像を選択して表示する方法については言及していない。また、撮像装置では撮影した映像を表示する映像再生領域が限られることから、撮像装置で記録したサブ映像が多い場合には映像再生領域に表示するサブ映像を選択する必要がある。この場合には撮像装置の制御部でユーザにとって好適なサブ映像を自動的に選択して表示することが望ましい。 However, Patent Document 1 does not mention a method of selecting and displaying a predetermined sub video from a plurality of sub videos. In addition, since the video playback area for displaying the captured video is limited in the imaging apparatus, it is necessary to select the sub video to be displayed in the video playback area when there are many sub videos recorded by the imaging apparatus. In this case, it is desirable to automatically select and display a sub-video suitable for the user by the control unit of the imaging apparatus.
本発明の目的は、メイン映像に対応付けられた複数のサブ映像からユーザにとって好適なサブ映像を自動的に選択可能とした画像処理装置、撮像装置、制御方法、プログラム、及び記憶媒体を提供することにある。 An object of the present invention is to provide an image processing apparatus, an imaging apparatus, a control method, a program, and a storage medium that can automatically select a sub video suitable for a user from a plurality of sub videos associated with a main video. There is.
上記目的を達成するため、本発明は、メイン映像と該メイン映像に対応付けられた複数のサブ映像を記録する記録手段と、前記記録手段に記録されたサブ映像から人物の顔を検出する検出手段と、前記検出手段により検出された人物の顔の領域を基に、該人物の顔がどのような表情に相当するかを表す評価値を表情別に算出する表情別評価値算出手段と、前記表情別評価値算出手段により算出された評価値を基に、前記記録手段に記録された前記複数のサブ映像からサブ映像を選択する選択手段と、前記記録手段に記録された前記メイン映像と共に前記選択手段により選択されたサブ映像を表示する制御手段と、を備えることを特徴とする。 In order to achieve the above object, the present invention provides a recording means for recording a main video and a plurality of sub-videos associated with the main video, and a detection for detecting a human face from the sub-video recorded in the recording means. And an evaluation value calculation means for each expression that calculates an evaluation value for each expression based on the facial area of the person detected by the detection means, and an evaluation value representing what expression the person's face corresponds to, Based on the evaluation value calculated by the expression-specific evaluation value calculation means, the selection means for selecting a sub video from the plurality of sub videos recorded in the recording means, and the main video recorded in the recording means together with the main video And a control means for displaying the sub video selected by the selection means.
本発明によれば、記録手段に記録されたサブ映像から検出した人物の顔の領域を基に、人物の顔がどのような表情に相当するかを表す評価値を表情別に算出する。更に、算出された評価値を基に、記録手段に記録されたメイン映像と共に選択されたサブ映像を表示する。これにより、メイン映像に対応付けられた複数のサブ映像からユーザにとって好適なサブ映像を自動的に選択することが可能となる。 According to the present invention, the evaluation value representing what expression the person's face corresponds to is calculated for each expression based on the area of the person's face detected from the sub video recorded in the recording means. Furthermore, based on the calculated evaluation value, the selected sub video is displayed together with the main video recorded in the recording means. Thereby, it is possible to automatically select a sub video suitable for the user from a plurality of sub videos associated with the main video.
以下、本発明の実施形態を図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
〔第1実施形態〕
図1は、本発明の第1実施形態に係る撮像装置の構成を示すブロック図である。図1において、撮像装置100は、本発明の画像処理装置を実現するための一例であり、メイン撮像ユニット190とサブ撮像ユニット191の2つの撮像ユニットを備えるデジタルカメラとして構成されている。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of the imaging apparatus according to the first embodiment of the present invention. In FIG. 1, an
メイン撮像ユニット190とサブ撮像ユニット191は、それぞれ、シャッタ101、バリア102、撮影レンズ103、撮像部122、A/D変換器123を備えている。メイン撮像ユニット190とサブ撮像ユニット191は、互いに異なる方向に向けることが可能な構造を有する。メイン撮像ユニット190は、被写体(メイン映像)の撮影に用いる。サブ撮像ユニット191は、メイン撮像ユニット190で撮影した被写体(メイン映像)を閲覧する閲覧者(サブ映像)の撮影などに用いる。
The
撮影レンズ103は、ズームレンズ、フォーカスレンズを含むレンズ群である。シャッタ101は、絞り機能を備える。撮像部122は、被写体の光学像を電気信号に変換するCCDもしくはCMOS素子等から構成されている。A/D変換器123は、撮像部122から出力されるアナログ信号をデジタル信号に変換する。バリア102は、撮影レンズ103等を覆うことにより、撮影レンズ103、シャッタ101、撮像部122を含む撮像系の汚れや破損を防止する。
The photographing
画像処理部124は、画質調整処理した画像信号から静止画データを生成する処理を含む各種処理を行う。即ち、A/D変換器123から出力されるデータまたはメモリ制御部115から出力されるデータに対し、所定の画素補間、縮小といったリサイズ処理、色変換処理を行う。また、画像処理部124は、撮像した画像データを用いて所定の演算処理を行う。得られた演算結果に基づいてシステム制御部150が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。
The
更に、画像処理部124は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行う。A/D変換器123から出力されるデータは、画像処理部124及びメモリ制御部115を介してまたはメモリ制御部115を介してメモリ132に書き込まれる。
Further, the
顔検出部125は、A/D変換器123から出力されるデータまたはメモリ制御部115から出力されるデータに対し、撮像装置100により撮影した人物の顔を検出する所定の顔検出処理を行う。顔検出結果はメモリ制御部115を介してメモリ132に書き込まれる。顔検出部125は、本発明の検出手段として機能する。
The
表情別評価値算出部126は、A/D変換器123から出力されるデータまたはメモリ制御部115から出力されるデータに対し、撮像装置100により撮影した人物の表情別に評価値を算出する表情別評価値算出処理を行う。表情別評価値は、後述の図5(a)、図5(b)に示すように、人物の顔がどのような表情(笑顔、泣き顔、怒り顔)に相当するかを数値で表したものである。表情別評価値算出部126は、本発明の表情別評価値算出手段として機能する。
The facial expression-specific evaluation
メモリ132は、撮像部122により得られA/D変換器123でデジタルデータに変換された画像データ、表示部128への表示用の画像データ、顔検出部125による人物の顔領域の検出結果などを格納する。メモリ132は、所定枚数の静止画や所定時間の動画及び音声を格納するのに十分な記憶容量を有する。また、メモリ132は、画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器113は、メモリ132に格納されている表示用の画像データをアナログ信号に変換して表示部128に供給する。これにより、表示部128により画像が表示される。
The
表示部128は、LCD等の表示器に、D/A変換器113からのアナログ信号に応じた表示(静止画、動画)を行う。A/D変換器123によって一度A/D変換されメモリ132に蓄積されたデジタル信号(画像データ)をD/A変換器113においてアナログ信号に変換し、表示部128に逐次転送して表示する。これにより、表示部128は電子ビューファインダとして機能し、スルー画像表示を行うことができる。
The
不揮発性メモリ156は、電気的に消去/記録が可能なメモリであり、例えばFROM等が用いられる。不揮発性メモリ156には、システム制御部150の動作用の定数、撮像装置100で撮影した人物の表情別評価値の算出に用いる表情別の統計データ、プログラム等が記憶される。ここで言うプログラムとは、後述する各フローチャートに示す処理を実行するためのプログラムのことである。また、表情別の統計データとは、人物の例えば笑顔、怒り顔、泣き顔等の表情毎に顔の特徴量が変化する傾向を予め記録したデータである。
The
システム制御部150は、撮像装置全体を制御するものであり、不揮発性メモリ156に記録されたプログラムを実行することで、後述の各実施形態の処理を実現する。また、システム制御部150は、メモリ132、D/A変換器113、表示部128等を制御することにより表示制御も行う。システム制御部150は、不揮発性メモリ156に格納されたプログラムに基づき後述する各フローチャートに示す処理を実行する。
The
システム制御部150は、本発明の判別手段、選択手段、制御手段、表情別割合算出手段、フレーム選択手段として機能する。システムメモリ152は、RAMが用いられ、システム制御部150の動作用の定数、変数、不揮発性メモリ156から読み出したプログラム等を展開する。
The
モード切替スイッチ160、シャッタボタン161、第1シャッタスイッチ162、第2シャッタスイッチ163、操作部170は、システム制御部150に各種の動作指示を入力するための操作手段である。モード切替スイッチ160は、システム制御部150の動作モードを、静止画を記録媒体104に記録する静止画記録モード、動画を記録媒体104に記録する動画記録モード、静止画/動画を表示部128に表示する再生モード等のいずれかに切り替える。
The mode switch 160, the
第1シャッタスイッチ162は、シャッタボタン161の操作途中いわゆる半押し(撮影準備指示)でONとなり、第1シャッタスイッチ信号SW1を発生する。システム制御部150は、前記信号SW1により、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。第2シャッタスイッチ163は、シャッタボタン161の操作完了いわゆる全押し(撮影指示)でONとなり、第2シャッタスイッチ信号SW2を発生する。システム制御部150は、前記信号SW2により、撮像部122からの信号読み出しから記録媒体104に画像データを書き込むまでの一連の撮影処理の動作を開始する。
The
操作部170の各操作部材は、表示部128に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えばメニューボタンが押されると各種の設定可能なメニュー画面が表示部128に表示される。利用者は、表示部128に表示されたメニュー画面と4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
Each operation member of the
電源制御部180は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部180は、その検出結果及びシステム制御部150の指示に基づいてDC−DCコンバータを制御し、記録媒体104を含む各部へ必要な電圧を必要な期間供給する。電源部130は、アルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池やLi電池等の二次電池、ACアダプタ等から構成されている。記録媒体I/F118は、記録媒体104とのインタフェースを司る。
The
記録媒体104は、メイン撮像ユニット190及びサブ撮像ユニット191により撮影された映像(メイン映像とメイン映像に対応付けられた複数のサブ映像など)を記録するものであり、半導体メモリまたは磁気ディスク等から構成されている。ここで、メイン映像は、被写体をメイン撮像ユニット190により撮影して得た映像である。サブ映像は、メイン映像を再生して表示部128により表示した際に該メイン映像の閲覧者をサブ撮像ユニット191により撮影して得た映像である。
The
尚、図1に示す撮像装置はデジタルカメラにおいて本発明を実施した場合の構成例であり、以下に説明する動作を実行できるものであれば、図1に示す構成に限定されるものではない。即ち、メイン映像と該メイン映像に対応付けられた複数のサブ映像が記録された記録媒体を備えるものであれば、スマートフォンやパーソナルコンピュータ等でも撮像装置と同様に本発明を実施可能である。 The imaging apparatus shown in FIG. 1 is a configuration example when the present invention is implemented in a digital camera, and is not limited to the configuration shown in FIG. 1 as long as the operation described below can be executed. In other words, the present invention can be implemented in the same manner as the imaging apparatus even in a smartphone, a personal computer, or the like as long as it has a recording medium on which a main video and a plurality of sub-videos associated with the main video are recorded.
次に、本実施形態に係る撮像装置の再生モード時の処理について図2のフローチャートを参照して詳細に説明する。 Next, processing in the playback mode of the imaging apparatus according to the present embodiment will be described in detail with reference to the flowchart of FIG.
本発明の目的(メイン映像に対応付けられた複数のサブ映像から好適なサブ映像を自動的に選択可能とする)を踏まえ、図1の撮像装置によりメイン映像が撮影されており、メイン映像の再生及びサブ映像の撮影が複数回実行されている場合を例に説明する。従って、予めメイン映像及びメイン映像に対応付けられた複数のサブ映像が記録媒体104(記録手段)に記録されているものとする。 In view of the object of the present invention (a suitable sub video can be automatically selected from a plurality of sub videos associated with the main video), the main video is shot by the imaging apparatus of FIG. A case where reproduction and sub-video shooting are executed a plurality of times will be described as an example. Accordingly, it is assumed that a main video and a plurality of sub-videos associated with the main video are recorded in the recording medium 104 (recording unit) in advance.
図2は、本実施形態に係る撮像装置の再生モード時の処理を示すフローチャートである。図2において、システム制御部150は再生モードを開始すると、操作部170からのユーザ入力に基づき、記録媒体104に記録されている複数のメイン映像から1つのメイン映像を選択する(ステップS201)。次に、システム制御部150は選択されたメイン映像を表示部128により表示する(ステップS202)。次に、システム制御部150は記録媒体104に記録されている複数のサブ映像のうち1つのサブ映像に対して、顔検出部125によりサブ映像の人物の顔を検出する顔検出処理を行う(ステップS203)。
FIG. 2 is a flowchart showing processing in the playback mode of the imaging apparatus according to the present embodiment. In FIG. 2, when starting the playback mode, the
次に、システム制御部150は上記顔検出処理を行ったサブ映像の人物の表情のうち1つに関して、表情別評価値算出部126により表情別に評価値を算出する表情別評価値算出を行う(ステップS204)。表情別評価値算出方法としては、例えば、特開2005−31566号公報に開示されているように、画像データ内の人物の顔の特徴点を検出し、検出された特徴点から人物の笑顔度を推定する技術が挙げられる。
Next, the
本実施形態の表情別評価値算出は、メモリ132に書き込まれた人物の顔領域の検出結果と、不揮発性メモリ156に予め記憶されている表情別の統計データに基づき行われる。ここで表情別の統計データとは、人物の表情毎に顔の特徴点がどのように変化するかを表したデータであり、統計的な手法によって算出される。
The expression-specific evaluation value calculation of this embodiment is performed based on the detection result of the person's face area written in the
次に、システム制御部150は上記1つのサブ映像について、全ての表情に関して表情別評価値の算出を行ったか否かを判定する(ステップS205)。全ての表情に関して表情別評価値の算出を行っていない場合は、システム制御部150はステップS204に戻り処理を繰り返す。全ての表情に関して表情別評価値の算出を行った場合は、システム制御部150は上記1つのサブ映像について、表情別に算出された全ての表情別評価値のうち表情別評価値が最大となる表情を当該サブ映像の表情として判別する(ステップS206)。
Next, the
次に、システム制御部150は全てのサブ映像に対して表情別評価値算出及び表情判別を行ったか否かを判定する(ステップS207)。全てのサブ映像に対して表情別評価値算出及び表情判別を行っていない場合は、システム制御部150はステップS203に戻り一連の処理を繰り返す。全てのサブ映像に対して表情別評価値算出及び表情判別を行った場合は、システム制御部150は表情別評価値が予め定めた閾値よりも高い複数のサブ映像から、表情別評価値が高い順に予め定めた数だけサブ映像を優先的に選択する(ステップS208)。
Next, the
次に、システム制御部150は上記表情別評価値が高い順に選択したサブ映像を表示部128により表示する(ステップS209)。次に、システム制御部150は撮像装置を操作している人物の映像をサブ撮像ユニット191により撮影し、サブ映像として記録媒体104に記録し(ステップS210)、本処理を終了する。
Next, the
以上、撮像装置のシステム制御部150の制御により上記図2に示した手順を実行することで、表情別評価値の高い人物(メイン映像の閲覧者)を優先的に表示部128に表示することができる。
As described above, by performing the procedure shown in FIG. 2 under the control of the
図5(a)は、上記手順に基づいて行った処理の一例を表したものであり、メイン映像に対する閲覧者の顔と表情別評価値と表情判別結果を示す図である。図5(a)において、メイン映像に対する閲覧者である人物Aから人物Fの6人について、笑顔、泣き顔、怒り顔の表情別に算出した表情別評価値と、3人が笑顔、2人が泣き顔、1人が怒り顔と判別した表情判別結果とを示している。この場合、表示部128に表示するサブ映像を3つとすると、表情別評価値が高い人物A、人物C、人物Dが選択され表示される。
FIG. 5A illustrates an example of processing performed based on the above-described procedure, and is a diagram illustrating a viewer's face, facial expression evaluation value, and facial expression discrimination result for the main video. In FIG. 5 (a), with respect to six persons from person A to person F who are viewers of the main video, the evaluation value for each expression calculated for each expression of smile, crying face, and angry face, three smiling faces, two crying faces 1 shows a facial expression discrimination result determined by one person as an angry face. In this case, assuming that there are three sub-images displayed on the
図6は、メイン映像とメイン映像に関連付けられた複数のサブ映像の表示例を示す図である。図6において、表示部128の映像表示領域600は、メイン映像及びメイン映像に関連付けられたいくつかのサブ映像を表示する領域である。映像表示領域600は、メイン映像表示領域601、第1サブ映像表示領域602、第2サブ映像表示領域603、第3サブ映像表示領域604から構成される。ただし、記録媒体104にはメイン映像に関連付けられたサブ映像は3つより多く記録されており、表示された3つのサブ映像は記録媒体104から自動的に選択されている。
FIG. 6 is a diagram illustrating a display example of a main video and a plurality of sub-videos associated with the main video. In FIG. 6, a
上述したように本実施形態によれば、複数のサブ映像から表情別評価値を算出し、表情別評価値に基づきサブ映像の表情を判別し、サブ映像の表情に基づき該当するサブ映像を選択して表示する。これにより、メイン映像に対応付けられた複数のサブ映像からユーザにとって好適なサブ映像を自動的に選択することが可能となる。 As described above, according to this embodiment, the evaluation value for each facial expression is calculated from a plurality of sub-videos, the facial expression of the sub-video is determined based on the evaluation value for each facial expression, and the corresponding sub-video is selected based on the facial expression of the sub-video. And display. Thereby, it is possible to automatically select a sub video suitable for the user from a plurality of sub videos associated with the main video.
〔第2実施形態〕
本発明の第2実施形態は、上記第1実施形態に対して下記で説明する点において相違する。本実施形態のその他の要素は、上記第1実施形態(図1)の対応するものと同一であるため説明を省略する。
[Second Embodiment]
The second embodiment of the present invention differs from the first embodiment in the points described below. Other elements of the present embodiment are the same as the corresponding ones of the first embodiment (FIG. 1), and thus description thereof is omitted.
次に、本実施形態に係る撮像装置の再生モード時の処理について図3のフローチャートを参照して詳細に説明する。 Next, processing in the playback mode of the imaging apparatus according to the present embodiment will be described in detail with reference to the flowchart of FIG.
図3は、本実施形態に係る撮像装置の再生モード時の処理を示すフローチャートである。図3において、ステップS301〜ステップS307の処理は図2のステップS201〜ステップS207の処理と同様であるため説明を省略する。ステップS301〜ステップS307の処理の後、システム制御部150は全てのサブ映像の表情判別結果に基づき、全てのサブ映像に対して表情別割合を算出する(ステップS308)。ここで、表情別割合とは、特定の表情であると判別されたサブ映像の全てのサブ映像に占める割合である。
FIG. 3 is a flowchart showing processing in the reproduction mode of the imaging apparatus according to the present embodiment. In FIG. 3, the processing from step S301 to step S307 is the same as the processing from step S201 to step S207 in FIG. After the processes in steps S301 to S307, the
例えば、あるメイン画像に対応して記録媒体104に記録されているサブ映像が6つあり、表情判別結果が笑顔3つ、泣き顔2つ、怒り顔1つであった場合、表情別割合は次のように算出される。即ち、表情別割合は、笑顔50%(=3/6)、泣き顔33%(≒2/6)、怒り顔16%(≒1/6)となる。
For example, if there are six sub-videos recorded on the
次に、システム制御部150は最も表情別割合が高い表情から予め定めた数だけ表示部128に表示するサブ映像を優先的に選択する(ステップS309)。この場合、同じ表情内ではその表情の表情別評価値が高い順にサブ映像を選択する。以下のステップS310〜ステップS311の処理は図2のステップS209〜ステップS210の処理と同様であるため説明を省略する。
Next, the
以上、撮像装置のシステム制御部150の制御により上記図3に示した手順を実行することで、メイン映像と関係ある表情をした人物(閲覧者)を表示部128に表示することができる。
As described above, by executing the procedure shown in FIG. 3 under the control of the
図5(b)は、上記手順に基づいて行った処理の一例を表したものであり、メイン映像に対する閲覧者の顔と表情別評価値と表情判別結果を示す図である。図5(b)において、メイン映像に対する閲覧者である人物Aから人物Fの6人について、笑顔、泣き顔、怒り顔の表情別に算出した表情別評価値と、5人が笑顔、1人が怒り顔と判別した表情判別結果とを示している。この場合、表示部128に表示するサブ映像を3つとすると、最も表情別割合が大きい笑顔の5人から、表情別評価値が高い人物A、人物B、人物Cのサブ映像が選択され表示される。
FIG. 5B illustrates an example of processing performed based on the above-described procedure, and is a diagram illustrating an evaluation value for each face, facial expression, and facial expression discrimination result for the main video. In FIG. 5 (b), the evaluation value according to expression calculated for each expression of smiles, crying faces, and angry faces for six persons A to F who are viewers of the main video, five persons are smiling, one person is angry An expression discrimination result determined as a face is shown. In this case, assuming that there are three sub-images to be displayed on the
上述したように本実施形態によれば、メイン映像に対応付けられた複数のサブ映像からユーザにとって好適なサブ映像を自動的に選択することが可能となる。 As described above, according to the present embodiment, it is possible to automatically select a sub video suitable for the user from a plurality of sub videos associated with the main video.
〔第3実施形態〕
本発明の第3実施形態は、上記第1実施形態に対して下記で説明する点において相違する。本実施形態のその他の要素は、上記第1実施形態(図1)の対応するものと同一であるため説明を省略する。
[Third Embodiment]
The third embodiment of the present invention differs from the first embodiment in the points described below. Other elements of the present embodiment are the same as the corresponding ones of the first embodiment (FIG. 1), and thus description thereof is omitted.
次に、本実施形態に係る撮像装置の再生モード時の処理について図4のフローチャートを参照して詳細に説明する。 Next, processing in the playback mode of the imaging apparatus according to the present embodiment will be described in detail with reference to the flowchart of FIG.
図4は、本実施形態に係る撮像装置の再生モード時の処理を示すフローチャートである。図4において、ステップS401〜ステップS408の処理は図3のステップS301〜ステップS308の処理と同様であるため説明を省略する。ステップS401〜ステップS408の処理の後、システム制御部150は最も表情別割合が大きい表情について、表情別割合が予め定めた閾値を超えるか否かを判定する(ステップS409)。表情別割合が予め定めた閾値を超える場合は、システム制御部150は表情別評価値が前記閾値よりも高い複数のサブ映像から、表情別評価値が高い順に予め定めた数だけのサブ映像を優先的に選択する(ステップS410)。
FIG. 4 is a flowchart illustrating processing in the playback mode of the imaging apparatus according to the present embodiment. In FIG. 4, the processing from step S401 to step S408 is the same as the processing from step S301 to step S308 in FIG. After the processing in steps S401 to S408, the
表情別割合が予め定めた閾値を超えない場合は、システム制御部150は表情別評価値が前記閾値よりも高い複数の表情から、予め定めた数だけ表示するサブ映像を優先的に選択する(ステップS411)。この場合、複数の表情内では表情別評価値が高い順にサブ映像を選択する。以下のステップS412〜ステップS413の処理は図3のステップS310〜ステップS311の処理と同様であるため説明を省略する。
When the facial expression ratio does not exceed a predetermined threshold, the
上記ステップS410においては、ステップS409の判別結果から、メイン映像に対する閲覧者の表情が一意に決まる場合と考えられる。また、ステップS411においては、メイン映像に対する閲覧者の表情が一意に決まらない場合と考えられる。従って、上述の方法でサブ映像選択方法を切り替える。即ち、メイン映像に対応付けられた複数のサブ映像から表情別評価値が高いサブ映像を優先的に選択するか、表情別割合が高いサブ映像を優先的に選択するか、を切り替える。これにより、メイン映像に応じてより好ましい閲覧者を選択し表示することができる。 In step S410, it is considered that the viewer's facial expression for the main video is uniquely determined from the determination result in step S409. In step S411, it is considered that the viewer's facial expression for the main video is not uniquely determined. Therefore, the sub video selection method is switched by the above-described method. That is, switching between preferentially selecting a sub-video with a high expression-specific evaluation value or preferentially selecting a sub-video with a high expression-specific ratio from a plurality of sub-videos associated with the main video. Thereby, a more preferable viewer can be selected and displayed according to the main video.
上述したように本実施形態によれば、メイン映像に対応付けられた複数のサブ映像からユーザにとって好適なサブ映像を自動的に選択することが可能となる。 As described above, according to the present embodiment, it is possible to automatically select a sub video suitable for the user from a plurality of sub videos associated with the main video.
〔第4実施形態〕
本発明の第4実施形態は、上記第1実施形態に対して下記で説明する点において相違する。本実施形態のその他の要素は、上記第1実施形態(図1)の対応するものと同一であるため説明を省略する。
[Fourth Embodiment]
The fourth embodiment of the present invention is different from the first embodiment in the points described below. Other elements of the present embodiment are the same as the corresponding ones of the first embodiment (FIG. 1), and thus description thereof is omitted.
本実施形態の撮像装置の画像処理部124は、上記第1実施形態で説明した画質調整処理された画像信号から静止画データを生成する処理に加えて、更に、画質調整処理された複数のフレームの画像信号から動画データを生成する処理を行う。ここで、画像処理部124は、動画データの各フレームをフレーム内符号化して圧縮符号化された動画データを生成してもよい。また、動画データの複数のフレーム間での差分や動き予測などを利用して圧縮符号化された動画データを生成してもよい。例えばMotion JPEG、MPEG、H.264(MPEG4-Part10 AVC)等の様々な公知の圧縮符号化方式の動画データを生成することができる。
In addition to the process of generating still image data from the image signal subjected to the image quality adjustment process described in the first embodiment, the
一般に、フレーム内符号化されたフレーム画像データをIピクチャーと呼ぶ。また、前方のフレームとの差分を用いてフレーム間符号化された画像データをPピクチャーと呼ぶ。また、前方後方のフレームとの差分を用いてフレーム間符号化された画像データをBピクチャーと呼ぶ。尚、これらの圧縮方式は、公知の圧縮方式を用いており、本発明の特徴とは関係ないので説明を省略する。 In general, frame image data subjected to intra-frame coding is called an I picture. In addition, image data inter-frame encoded using a difference from the previous frame is called a P picture. In addition, image data that is inter-frame encoded using a difference between the front and rear frames is called a B picture. Note that these compression methods use known compression methods and are not related to the characteristics of the present invention, and thus the description thereof is omitted.
システム制御部150は、これらの動画データ及び図示しない音声データを合成することでデータストリームを形成し、データストリームを1つの動画ファイルとして記録媒体104に書き込んでいく。一方、再生モード時には、システム制御部150は、記録媒体104に記録された圧縮画像信号からなる静止画ファイルまたは圧縮画像信号と圧縮音声信号とからなる動画ファイルをメモリ132に読み出す。
The
システム制御部150は読み出された圧縮画像信号と圧縮音声信号を、画像処理部124及び音声処理部(不図示)に送る。画像処理部124は、圧縮画像信号を一時的に記憶させたメモリ132から公知の所定の手順で復号する。そして、メモリ制御部115は、復号化した画像信号を顔検出部125や表情別評価値算出部126に送信する。これにより、表情別に評価値算出処理が実行される。
The
次に、本実施形態に係る撮像装置の再生モード時の処理について図7を参照して詳細に説明する。 Next, processing in the playback mode of the imaging apparatus according to the present embodiment will be described in detail with reference to FIG.
上記第1乃至第3実施形態では、サブ映像が静止画データである場合について説明した。これに対し、本実施形態では、メイン映像及びサブ映像が特に動画データである場合について説明する。即ち、記録媒体104に記録されたサブ映像の動画データから少なくとも1つ以上のフレーム(具体的には予め定めた時間毎に複数のフレーム)を選択し、表情別評価値の算出、表情の判別、閲覧者を選択する処理について説明する。
In the first to third embodiments, the case where the sub video is still image data has been described. On the other hand, in the present embodiment, a case where the main video and the sub video are moving image data will be described. That is, at least one frame (specifically, a plurality of frames at predetermined time intervals) is selected from the moving image data of the sub video recorded on the
図7(a)、図7(b)は、本実施形態に係る撮像装置のサブ映像から閲覧者を選択する処理を説明する図である。図7(a)は、メイン映像に対応する閲覧者(人物A)の動画データを示している。図7(b)はメイン映像に対応する閲覧者(人物B)の動画データを示している。図7(a)、図7(b)において、横軸は動画データの経過時間であり、縦軸はある時間における表情別評価値である。t1〜t5は表情別評価値を取得するある時刻を示しており、例えば1分ごとに動画データの表情別評価値を取得する。この時間間隔は固定であってもよいし、動画の記録時間等によって変化させてもよい。 FIG. 7A and FIG. 7B are diagrams illustrating processing for selecting a viewer from the sub video of the imaging apparatus according to the present embodiment. FIG. 7A shows moving image data of a viewer (person A) corresponding to the main video. FIG. 7B shows moving image data of a viewer (person B) corresponding to the main video. 7A and 7B, the horizontal axis represents the elapsed time of the moving image data, and the vertical axis represents the evaluation value for each expression at a certain time. t1 to t5 indicate a certain time when the facial expression evaluation value is acquired. For example, the facial expression evaluation value of the moving image data is acquired every minute. This time interval may be fixed or may be changed depending on the recording time of the moving image.
時刻t1(=0)における人物Aの動画データの1フレームを復号化した画像信号に対して取得した笑顔に対する表情別評価値がe1aとなる。また、時刻t1(=0)における人物Bに対して取得した笑顔に対する表情別評価値がe1bとなる。この場合、他の表情に対してもそれぞれ表情別評価値を取得する。時刻t1(=0)における表情別評価値の取得を予めメイン映像に対する複数のサブ映像が記録されているもの全てについて実行する。 The expression-specific evaluation value for a smile obtained for an image signal obtained by decoding one frame of the moving image data of the person A at time t1 (= 0) is e1a. Further, the evaluation value classified by facial expression for the smile obtained for the person B at time t1 (= 0) is e1b. In this case, the evaluation value for each facial expression is acquired for each of the other facial expressions. Acquisition of the evaluation value for each facial expression at time t1 (= 0) is executed for all of the records in which a plurality of sub-videos for the main video are recorded in advance.
これらの表情別評価値について、上記第1乃至第3実施形態に示した方法を用いて、表示部128に表示するサブ映像を選択する。そして、選択された複数のサブ映像を表示例として上記図6に示したように表示部128に表示する。この場合、表示部128に表示する画像としては、メイン映像に対応する閲覧者の動画を表示してもよいし、表情別評価値を取得した静止画を表示してもよい。
For these facial expression evaluation values, a sub-video to be displayed on the
表示部128に表示するサブ映像の選択結果は、次の時刻t2まで維持する。即ち、表情別評価値は次の時刻t2まで有効とする。時刻t2において、時刻t1の処理と同様に、メイン映像に対する複数の全てのサブ映像について、表情別評価値を取得して表示するサブ映像を選択し、選択したサブ映像を表示部128に表示する。時刻t3以降についても、同様の処理を繰り返し実施する。
The selection result of the sub video to be displayed on the
上述の方法でサブ映像選択方法を切り替えることで、メイン映像及びサブ映像が特に動画データである場合でも、メイン映像に応じてより好ましい閲覧者を選択し表示することができる。 By switching the sub video selection method by the above-described method, a more preferable viewer can be selected and displayed according to the main video even when the main video and the sub video are moving image data.
上述したように本実施形態によれば、メイン映像に対応付けられた複数のサブ映像からユーザにとって好適なサブ映像を自動的に選択することが可能となる。 As described above, according to the present embodiment, it is possible to automatically select a sub video suitable for the user from a plurality of sub videos associated with the main video.
〔第5実施形態〕
本発明の第5実施形態は、上記第1実施形態に対して下記で説明する点において相違する。本実施形態のその他の要素は、上記第1実施形態(図1)の対応するものと同一であるため説明を省略する。
[Fifth Embodiment]
The fifth embodiment of the present invention differs from the first embodiment in the points described below. Other elements of the present embodiment are the same as the corresponding ones of the first embodiment (FIG. 1), and thus description thereof is omitted.
次に、本実施形態に係る撮像装置の再生モード時の処理について図8を参照して詳細に説明する。本実施形態では、閲覧者を選択する処理が上記第4実施形態とは異なるので、その内容について説明する。 Next, processing in the playback mode of the imaging apparatus according to the present embodiment will be described in detail with reference to FIG. In the present embodiment, since the process of selecting a viewer is different from that in the fourth embodiment, the contents thereof will be described.
図8(a)、図8(b)は、本実施形態に係る撮像装置のサブ映像から閲覧者を選択する処理を説明する図である。図8(a)は、メイン映像に対応する閲覧者(人物A)の動画データを示している。図8(b)は、メイン映像に対応する閲覧者(人物B)の動画データを示している。図8(a)、図8(b)において、t1〜t5は表情別評価値を取得するある時刻を示しており、予め全ての設定された時刻における表情別評価値を取得する。そして、取得した全ての表情別評価値を比較して最大値を算出する。 FIG. 8A and FIG. 8B are diagrams illustrating processing for selecting a viewer from the sub video of the imaging apparatus according to the present embodiment. FIG. 8A shows moving image data of a viewer (person A) corresponding to the main video. FIG. 8B shows moving image data of a viewer (person B) corresponding to the main video. 8 (a) and 8 (b), t1 to t5 indicate certain times at which facial expression evaluation values are acquired, and facial expression evaluation values at all preset times are acquired in advance. And all the acquired evaluation values classified by expression are compared, and the maximum value is calculated.
図8(a)では、人物Aの動画データの1フレームを復号化した画像信号に対して取得した笑顔に対する複数の表情別評価値の最大値が、eamax(時刻t2)である。また、図8(b)では、人物Bの動画データの1フレームを復号化した画像信号に対して取得した笑顔に対する複数の表情別評価値の最大値が、ebmax(時刻t4)である。 In FIG. 8A, the maximum value of a plurality of expression-specific evaluation values for a smile acquired for an image signal obtained by decoding one frame of the moving image data of the person A is eamax (time t2). Further, in FIG. 8B, the maximum value of the plurality of facial expression evaluation values for a smile acquired for an image signal obtained by decoding one frame of the moving image data of the person B is ebmax (time t4).
複数のサブ映像に対する表情別評価値の最大値について、上記第1乃至第3実施形態に示した方法を用いて、表示部128に表示するサブ映像を選択する。即ち、記録媒体104に記録された複数のサブ映像から、表情別評価値算出部126により算出された複数の表情別評価値のうち表情別評価値が最大値となるサブ映像を選択する。
For the maximum evaluation value for each sub-image, the sub-image to be displayed on the
例えば、メイン映像に対する閲覧者において「笑顔」「泣き顔」「怒り顔」の各表情別評価値のうち「笑顔」の表情別評価値が最大値である場合は、「笑顔」をサブ映像として選択する。具体的には、図5(a)の人物Cの場合は、表情別評価値が「笑顔」100、「泣き顔」25、「怒り顔」0であるため、表情別評価値が最大値となる「笑顔」が表情判別結果となる(サブ映像として選択する)。以降は上記各実施形態と同様であるので説明を省略する。 For example, if the viewer for the main video has the highest evaluation value for each expression of “smiling”, “crying face”, and “angry face”, the “smile” is the maximum value, and “smile” is selected as the sub video To do. Specifically, in the case of the person C in FIG. 5A, the evaluation value by expression is “smile” 100, “crying face” 25, and “angry face” 0, so the evaluation value by expression becomes the maximum value. “Smile” is the facial expression discrimination result (selected as a sub video). Since the subsequent steps are the same as those in the above embodiments, description thereof is omitted.
上述したように本実施形態によれば、メイン映像に対応付けられた複数のサブ映像からユーザにとって好適なサブ映像を自動的に選択することが可能となる。 As described above, according to the present embodiment, it is possible to automatically select a sub video suitable for the user from a plurality of sub videos associated with the main video.
〔第6実施形態〕
本発明の第6実施形態は、上記第1実施形態に対して下記で説明する点において相違する。本実施形態のその他の要素は、上記第1実施形態(図1)の対応するものと同一であるため説明を省略する。
[Sixth Embodiment]
The sixth embodiment of the present invention is different from the first embodiment in the points described below. Other elements of the present embodiment are the same as the corresponding ones of the first embodiment (FIG. 1), and thus description thereof is omitted.
次に、本実施形態に係る撮像装置の再生モード時の処理について詳細に説明する。本実施形態では、閲覧者を選択する処理が上記第4及び第5実施形態とは異なるので、その内容について説明する。 Next, processing in the playback mode of the imaging apparatus according to the present embodiment will be described in detail. In the present embodiment, since the process of selecting a viewer is different from those in the fourth and fifth embodiments, the contents thereof will be described.
上記第4及び第5実施形態では、複数のサブ映像に対する表情別評価値を設定された時刻毎に取得する必要があるため、処理が複雑であり、動画データの復号化など実際の処理負荷が大きい。本実施形態では、処理負荷を低減しつつ、メイン映像に応じてより好ましい閲覧者を選択し表示する内容について説明する。具体的には、記録媒体104に記録されたメイン映像の1フレームに対応する時刻における複数のサブ映像のそれぞれについて1フレームを選択する例を説明する。
In the fourth and fifth embodiments, since it is necessary to acquire facial expression evaluation values for a plurality of sub-videos at each set time, the processing is complicated, and the actual processing load such as decoding of moving image data is increased. large. In the present embodiment, contents to select and display a more preferable viewer according to the main video while reducing the processing load will be described. Specifically, an example in which one frame is selected for each of a plurality of sub-videos at a time corresponding to one frame of the main video recorded on the
映像コンテンツに関わる技術としては、映像コンテンツに含まれる特定画像を検出し、ハイライトシーン(重要度の高いシーン)を抽出し、映像コンテンツにハイライトシーン情報を付加する技術が提案されている(特開2006−014085号公報)。 As a technology related to video content, a technology has been proposed in which a specific image included in the video content is detected, a highlight scene (high importance scene) is extracted, and highlight scene information is added to the video content ( JP, 2006-014085, A).
本実施形態では、上記公報に記載されたような技術を用いて、メイン映像データのハイライトシーン情報よりハイライトシーンの時刻情報を取得する。この時刻をtmとする。メイン映像に対応付けられた複数のサブ映像における、上記ハイライトシーンの時刻tmに対応する時刻tmの1フレームを復号化し、表情別評価値を取得する。 In the present embodiment, the time information of the highlight scene is acquired from the highlight scene information of the main video data using a technique as described in the above publication. Let this time be tm. One frame at time tm corresponding to time tm of the highlight scene in a plurality of sub-videos associated with the main video is decoded, and an evaluation value for each expression is acquired.
取得した複数のサブ映像に関わる表情別評価値について、上記第1乃至第3実施形態に示した方法を用いて、表示部128に表示するサブ映像を選択する。以降は上記各実施形態と同様であるので説明を省略する。上述の方法でサブ映像の選択を実施することで、メイン映像及びサブ映像が特に動画データである場合でも、処理負荷を低減しつつ、メイン映像に応じてより好ましい閲覧者を選択し表示することができる。
For the facial expression evaluation values related to the acquired plurality of sub-videos, the sub-video to be displayed on the
上述したように本実施形態によれば、メイン映像に対応付けられた複数のサブ映像からユーザにとって好適なサブ映像を自動的に選択することが可能となる。 As described above, according to the present embodiment, it is possible to automatically select a sub video suitable for the user from a plurality of sub videos associated with the main video.
〔他の実施形態〕
第1乃至第6実施形態では、本発明の好ましい実施形態について説明したが、本発明はこれらの第1乃至6実施形態に限定されるものではなく、その要旨の範囲内で種々の変形及び変更が可能である。
[Other Embodiments]
In the first to sixth embodiments, preferred embodiments of the present invention have been described. However, the present invention is not limited to these first to sixth embodiments, and various modifications and changes can be made within the scope of the gist. Is possible.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワークまたは各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。本発明のプログラムは、本発明の画像処理装置の制御方法をコンピュータに実行させるためのコンピュータ可読のプログラムコードを有し、記憶媒体に格納される。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. The program of the present invention has computer-readable program code for causing a computer to execute the control method of the image processing apparatus of the present invention, and is stored in a storage medium.
100 撮像装置
104 記録媒体
125 顔検出部
126 表情別評価値算出部
128 表示部
150 システム制御部
DESCRIPTION OF
Claims (15)
前記記録手段に記録されたサブ映像から人物の顔を検出する検出手段と、
前記検出手段により検出された人物の顔の領域を基に、該人物の顔がどのような表情に相当するかを表す評価値を表情別に算出する表情別評価値算出手段と、
前記表情別評価値算出手段により算出された評価値を基に、前記記録手段に記録された前記複数のサブ映像からサブ映像を選択する選択手段と、
前記記録手段に記録された前記メイン映像と共に前記選択手段により選択されたサブ映像を表示する制御手段と、
を備えることを特徴とする画像処理装置。 Recording means for recording a main video and a plurality of sub-videos associated with the main video;
Detecting means for detecting a human face from the sub-video recorded in the recording means;
Based on the facial area of the person detected by the detection means, an evaluation value calculation means for each expression that calculates an evaluation value for each facial expression representing what expression the person's face corresponds to;
Based on the evaluation value calculated by the expression-specific evaluation value calculation means, a selection means for selecting a sub video from the plurality of sub videos recorded in the recording means;
Control means for displaying the sub video selected by the selection means together with the main video recorded in the recording means;
An image processing apparatus comprising:
前記選択手段は、前記表情別評価値算出手段により算出された評価値と、前記判別手段により判別された表情とを基に、前記記録手段に記録された前記複数のサブ映像からサブ映像を選択することを特徴とする請求項1または2に記載の画像処理装置。 Based on the result calculated by the facial expression-based evaluation value calculation means, further comprising a determination means for determining the expression of the sub-image,
The selection means selects a sub video from the plurality of sub videos recorded in the recording means based on the evaluation value calculated by the expression-specific evaluation value calculation means and the facial expression determined by the determination means. The image processing apparatus according to claim 1, wherein:
前記選択手段は、前記表情別割合算出手段により算出された結果を基に、前記記録手段に記録された前記複数のサブ映像から、判別された表情の表情別割合が高いサブ映像を優先的に選択することを特徴とする請求項1または3に記載の画像処理装置。 Further comprising a facial expression ratio calculation means for calculating a facial expression ratio indicating a ratio of all the sub videos of the sub video determined to be a specific facial expression by the determination means;
The selection means preferentially selects a sub-video with a high expression-specific ratio of the identified facial expression from the plurality of sub-videos recorded in the recording means based on the result calculated by the expression-specific ratio calculation means. The image processing apparatus according to claim 1, wherein the image processing apparatus is selected.
前記検出手段は、前記フレーム選択手段により選択されたフレームから人物の顔を検出することを特徴とする請求項1に記載の画像処理装置。 Frame selection means for selecting at least one frame from the sub-video recorded in the recording means;
The image processing apparatus according to claim 1, wherein the detection unit detects a human face from the frame selected by the frame selection unit.
メイン映像と該メイン映像に対応付けられた複数のサブ映像を記録する記録手段に記録されたサブ映像から人物の顔を検出する検出工程と、
前記検出工程により検出された人物の顔の領域を基に、該人物の顔がどのような表情に相当するかを表す評価値を表情別に算出する表情別評価値算出工程と、
前記表情別評価値算出工程により算出された評価値を基に、前記記録手段に記録された前記複数のサブ映像からサブ映像を選択する選択工程と、
前記記録手段に記録された前記メイン映像と共に前記選択工程により選択されたサブ映像を表示する制御工程と、
有することを特徴とする画像処理装置の制御方法。 A control method for an image processing apparatus, comprising:
A detection step of detecting a person's face from the sub video recorded in the recording means for recording the main video and a plurality of sub videos associated with the main video;
Based on the facial area of the person detected by the detection step, an evaluation value for each facial expression that calculates an evaluation value for each facial expression representing what facial expression the person's face corresponds to;
Based on the evaluation value calculated by the expression-specific evaluation value calculation step, a selection step of selecting a sub image from the plurality of sub images recorded in the recording unit;
A control step of displaying the sub video selected by the selection step together with the main video recorded in the recording means;
An image processing apparatus control method comprising:
メイン映像と該メイン映像に対応付けられた複数のサブ映像を記録する記録手段に記録されたサブ映像から人物の顔を検出する検出工程と、
前記検出工程により検出された人物の顔の領域を基に、該人物の顔がどのような表情に相当するかを表す評価値を表情別に算出する表情別評価値算出工程と、
前記表情別評価値算出工程により算出された評価値を基に、前記記録手段に記録された前記複数のサブ映像からサブ映像を選択する選択工程と、
前記記録手段に記録された前記メイン映像と共に前記選択工程により選択されたサブ映像を表示する制御工程と、
有することを特徴とするプログラム。 A computer-readable program having program code for causing a computer to execute the control method of the image processing apparatus according to claim 13, wherein the control method includes:
A detection step of detecting a person's face from the sub video recorded in the recording means for recording the main video and a plurality of sub videos associated with the main video;
Based on the facial area of the person detected by the detection step, an evaluation value for each facial expression that calculates an evaluation value for each facial expression representing what facial expression the person's face corresponds to;
Based on the evaluation value calculated by the expression-specific evaluation value calculation step, a selection step of selecting a sub image from the plurality of sub images recorded in the recording unit;
A control step of displaying the sub video selected by the selection step together with the main video recorded in the recording means;
A program characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014032726A JP2015159405A (en) | 2014-02-24 | 2014-02-24 | image processing apparatus, imaging device, control method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014032726A JP2015159405A (en) | 2014-02-24 | 2014-02-24 | image processing apparatus, imaging device, control method, program, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015159405A true JP2015159405A (en) | 2015-09-03 |
Family
ID=54183112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014032726A Pending JP2015159405A (en) | 2014-02-24 | 2014-02-24 | image processing apparatus, imaging device, control method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015159405A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017134765A1 (en) * | 2016-02-03 | 2017-08-10 | オリンパス株式会社 | Imaging device, image processing device, image processing method, and image processing program |
CN112215056A (en) * | 2020-08-18 | 2021-01-12 | 五八到家有限公司 | Information processing method, device, system and storage medium |
-
2014
- 2014-02-24 JP JP2014032726A patent/JP2015159405A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017134765A1 (en) * | 2016-02-03 | 2017-08-10 | オリンパス株式会社 | Imaging device, image processing device, image processing method, and image processing program |
CN112215056A (en) * | 2020-08-18 | 2021-01-12 | 五八到家有限公司 | Information processing method, device, system and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20150189221A1 (en) | Image reproducing apparatus and method for controlling same | |
US8723976B2 (en) | Imaging device and storage medium | |
US20150181135A1 (en) | Image capturing apparatus and control method thereof | |
JP5782813B2 (en) | Imaging apparatus and image display method | |
JP6574878B2 (en) | Image processing apparatus, image processing method, imaging apparatus, program, and storage medium | |
US9578233B2 (en) | Imaging apparatus and method for controlling the same | |
JP2013046259A (en) | Video apparatus, control method, and program | |
TWI508548B (en) | Image pickup device and image pickup method | |
JP6460783B2 (en) | Image processing apparatus and control method thereof | |
JP6604864B2 (en) | Electronic device and control method thereof | |
JP2015159405A (en) | image processing apparatus, imaging device, control method, program, and storage medium | |
JP2019057794A (en) | Imaging apparatus, control method of the same, program, and recording medium | |
US9392181B2 (en) | Image capture apparatus and method of controlling the same | |
JP6232750B2 (en) | Imaging device | |
JP2017041797A (en) | Imaging apparatus, control method and program | |
JP2007081732A (en) | Imaging apparatus | |
JP2011119934A (en) | Image shooting device and image shooting method | |
JP6512208B2 (en) | Image processing apparatus, image processing method and program | |
JP6039410B2 (en) | Image processing apparatus and image processing method | |
KR101436324B1 (en) | Digital image processing apparatus for detecting still image from moving image, and the controlling method of the same | |
US10194082B2 (en) | Image pickup apparatus that shoots moving image for predetermined time period at the time of shooting still image, control method for the image pickup apparatus, and storage medium | |
JP6124658B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP6632236B2 (en) | Imaging device | |
JP2025101190A (en) | Information processing device | |
JP2016058831A (en) | Imaging apparatus, control method thereof, and program |