[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5375988B2 - Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method - Google Patents

Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method Download PDF

Info

Publication number
JP5375988B2
JP5375988B2 JP2012028914A JP2012028914A JP5375988B2 JP 5375988 B2 JP5375988 B2 JP 5375988B2 JP 2012028914 A JP2012028914 A JP 2012028914A JP 2012028914 A JP2012028914 A JP 2012028914A JP 5375988 B2 JP5375988 B2 JP 5375988B2
Authority
JP
Japan
Prior art keywords
similarity
face
faces
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012028914A
Other languages
Japanese (ja)
Other versions
JP2012105358A (en
Inventor
康彦 寺西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012028914A priority Critical patent/JP5375988B2/en
Publication of JP2012105358A publication Critical patent/JP2012105358A/en
Application granted granted Critical
Publication of JP5375988B2 publication Critical patent/JP5375988B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image signal playback device and an image signal playback method, capable of easily identify a prescribed person out of a plurality of persons displayed on a monitor. <P>SOLUTION: An image signal playback device 600 comprises: a feature amount storage part 160 to memorize a feature amount of a face of a specific person; an image acquisition part 604 to acquire an image signal; a face extraction part 180 to extract one or a plurality of faces within an image frame of the image signal; a similarity calculation part 182 to calculate a feature amount of extracted one or a plurality of faces and to calculate a similarity to the feature amount of the face of the specific person; a similarity comparator 184 to compare the similarity with a prescribed threshold; an image superimposition part 190 to superimpose an index in a mode to specify a face at a face or its periphery having a similarity more than or equal to the prescribed threshold within an image frames; a monitor 622; and an image output unit 130 to output onto the monitor 622 an image signal superimposed with the index. <P>COPYRIGHT: (C)2012,JPO&amp;INPIT

Description

本発明は、人物像を含む動画像や静止画像を再生する画像信号再生装置および画像信号再生方法に関する。   The present invention relates to an image signal reproducing apparatus and an image signal reproducing method for reproducing a moving image and a still image including a human image.

ビデオカメラ等の撮像装置では、主たる被写体に焦点を合わせるオートフォーカス(A
F)機能や、シャッター速度、絞りの大きさにより露光を調整するオートエキスポージャ
(AE)機能が搭載され、撮像環境の違いをこのような撮像制御(焦点調整、露光調整等
)を用いて補正し被写体をきれいに撮像することが可能である。また、焦点調整や露光調
整は、任意の距離に位置する被写体にのみ行われるので、通常、撮影者が所望する被写体
例えば人物がその対象として選択される。このような焦点調整や露光調整の対象となる被
写体を特定する様々な技術が存在する。
In an imaging device such as a video camera, autofocus (A
F) A function, an auto exposure (AE) function that adjusts the exposure according to the shutter speed, and the size of the aperture are installed, and the difference in the imaging environment can be determined by using such imaging control (focus adjustment, exposure adjustment, etc.). It is possible to correct and image the subject beautifully. In addition, since focus adjustment and exposure adjustment are performed only on a subject located at an arbitrary distance, a subject desired by the photographer, for example, a person, is usually selected as the target. There are various techniques for specifying a subject to be subjected to such focus adjustment or exposure adjustment.

画像上の人物を特定する方法としては、撮像した画像信号から顔情報を抽出し、予め登
録された登録顔情報と比較することにより、抽出した顔が登録顔情報と一致するかどうか
を判定する技術が知られている(例えば、特許文献1)。かかる技術を利用して、施設へ
の入場認証などが実施されている。
As a method for identifying a person on an image, face information is extracted from a captured image signal and compared with registered face information registered in advance to determine whether the extracted face matches the registered face information. A technique is known (for example, Patent Document 1). Using such technology, entrance authentication to facilities has been implemented.

また、上記の顔認証の技術を電子カメラへ応用し、予め登録しておいた人物の顔情報を
元に顔認識を行い主要被写体となる人物を指定し、その主要被写体の表情などの情報を活
用して、各種の処理を行う技術も考案されている(例えば、特許文献2)。
In addition, the above face authentication technology is applied to an electronic camera, face recognition is performed based on the face information of a person registered in advance, the person who is the main subject is designated, and information such as the facial expression of the main subject is obtained. A technique for utilizing and performing various processes has also been devised (for example, Patent Document 2).

特開2007−334623号公報JP 2007-334623 A 特開2007−282119号公報JP 2007-282119 A

例えば、子供の運動会を撮像する際に、比較的離れた場所で競技をしている複数の子供
たちの中から自分の子供を探し出すことが容易ではない場合がある。特に、小型軽量化が
望まれる撮像装置においては、液晶モニターやビューファインダも小型化され、実際の撮
像画素と比較して非常に粗い画像が出力されるので、離れた場所の子供の顔は非常に小さ
く表示されてしまい、複数の子供たちから自分の子供を見つけ出すのは困難となる。
For example, when imaging a children's athletic meet, it may not be easy to find their children among a plurality of children who are competing at relatively distant places. In particular, in imaging devices that require reduction in size and weight, liquid crystal monitors and viewfinders are also downsized, and very rough images are output compared to actual imaging pixels. It is difficult to find your child from multiple children.

また、ズーム機能を利用すれば子供の顔を認識できるかもしれないが、撮像中のズーム
はある程度の技能を要し、意に反した被写体を捉えることも多く、自分の子供がフレーム
アウトしてしまいその撮像機会を逃し、再生時には無関係の人物をズームで見ることにな
るなど、わずらわしい思いを感じることもあった。
Although the zoom function may be used to recognize a child's face, zooming during imaging requires a certain level of skill and often captures unintended subjects. In some cases, I missed the imaging opportunity, and sometimes felt uncomfortable feelings such as observing an irrelevant person with zoom during playback.

本発明は、このような課題に鑑み、モニター上に表示されている複数の人物から所定の
人物を容易に特定することが可能な画像信号再生装置および画像信号再生方法を提供することを目的としている。
SUMMARY OF THE INVENTION In view of the above problems, the present invention has an object to provide an image signal reproduction device and an image signal reproduction method capable of easily specifying a predetermined person from a plurality of persons displayed on a monitor. Yes.

本発明は、上記課題を解決するために、以下1)〜4)に記載の手段よりなる。
すなわち、
1)特定の人物の顔の特徴量を記憶する特徴量記憶部と、
取得した画像信号における画面内の1または複数の顔を抽出する顔抽出部と、
抽出された1または複数の顔の特徴量を算出し、前記特定の人物の顔の特徴量との類似度をそれぞれ算出する類似度算出部と、
前記類似度と所定閾値とを比較する類似度比較部と、
画面内において、前記所定閾値以上の類似度を有する顔またはその周囲に、前記顔を特定する態様で指標を重畳する画像重畳部と、
前記指標を重畳した画像信号を出力する画像出力部と、
直前の所定数の画面における1または複数の顔と現在の画面における1または複数の顔との同一性を判断する同一性判断部とを備え、
前記類似度算出部は、同一性があると判断された、直前の所定数の画面における1または複数の顔の類似度も用いて、現在の画面の1または複数の顔の類似度を算出し、
前記指標は、前記1または複数の顔の類似度に応じて、色彩、模様または形状を変化させることを特徴とする画像信号再生装置。
2)取得した画像信号における画面内の1または複数の顔を抽出し、
抽出された1または複数の顔の特徴量を算出し、取得した特定の人物の顔の特徴量との類似度をそれぞれ算出し、
直前の所定数の画面における1または複数の顔と現在の画面における1または複数の顔との同一性を判断し、
同一性があると判断された、直前の所定数の画面における1または複数の顔の特徴量と取得した特定の人物の顔の特徴量との類似度も用いて、現在の画面の1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度を算出し、前記現在の画面の1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度と、所定閾値とを比較し、
画面内において、前記所定閾値以上の類似度を有する顔またはその周囲に、前記顔を特定する態様で前記1または複数の顔の類似度に応じて、色彩、模様または形状を変化させて指標を重畳し、前記指標を重畳した画像信号を出力することを特徴とする画像信号再生方法。
3)特定の人物の顔の特徴量を記憶する特徴量記憶部と、
被写体像を光電変換し画像信号を生成する撮像素子と、
前記画像信号における画面内の1または複数の顔を抽出する顔抽出部と、
抽出された1または複数の顔の特徴量を算出し、前記特定の人物の顔の特徴量との類似度をそれぞれ算出する類似度算出部と、
前記類似度と所定閾値とを比較する類似度比較部と、
画面内において、前記所定閾値以上の類似度を有する顔またはその周囲に、前記顔を特定する態様で指標を重畳する画像重畳部と、
モニターと、
前記指標を重畳した画像信号を前記モニターに出力する画像出力部と、
直前の所定数の画面における1または複数の顔と現在の画面における1または複数の顔との同一性を判断する同一性判断部とを備え、
前記類似度算出部は、同一性があると判断された、直前の所定数の画面における1または複数の顔の類似度も用いて、現在の画面の1または複数の顔の類似度を算出し、
前記指標は、前記1または複数の顔の類似度に応じて、色彩、模様または形状を変化させることを特徴とする撮像装置。
4)特定の人物の顔の特徴量を取得し、
被写体像を光電変換し画像信号を生成し、
前記画像信号における画面内の1または複数の顔を抽出し、
抽出された1または複数の顔の特徴量を算出し、
直前の所定数の画面における1または複数の顔と現在の画面における1または複数の顔との同一性を判断し、
同一性があると判断された、直前の所定数の画面における1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度も用いて、現在の画面の1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度を算出し、
前記現在の画面の1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度と所定閾値とを比較し、
画面内において、前記所定閾値以上の類似度を有する顔またはその周囲に、前記顔を特定する態様で前記1または複数の顔の類似度に応じて、色彩、模様または形状を変化させて指標を重畳することを特徴とする撮像方法。
In order to solve the above-mentioned problems , the present invention comprises means described in 1) to 4) below.
That is,
1) a feature amount storage unit for storing a feature amount of a face of a specific person;
A face extraction unit for extracting one or more faces in the screen in the acquired image signal;
A degree-of-similarity calculating unit that calculates one or a plurality of extracted facial feature quantities and calculates a similarity degree to the facial feature quantity of the specific person;
A similarity comparison unit for comparing the similarity with a predetermined threshold;
An image superimposing unit that superimposes an index in a manner that identifies the face on or around the face having a similarity equal to or greater than the predetermined threshold in the screen;
An image output unit that outputs an image signal on which the index is superimposed ;
An identity determination unit that determines the identity of one or more faces on a predetermined number of previous screens and one or more faces on the current screen;
The similarity calculation unit calculates the similarity of one or more faces on the current screen using also the similarity of one or more faces on a predetermined number of previous screens determined to be identical. ,
The image signal reproducing apparatus, wherein the index changes a color, a pattern, or a shape according to the similarity of the one or more faces.
2) Extract one or more faces in the screen from the acquired image signal,
Calculating the extracted feature quantity of one or more faces, calculating the degree of similarity with the acquired facial feature quantity of the specific person,
Determining the identity of one or more faces on the previous predetermined number of screens and one or more faces on the current screen,
One or more of the current screen using the similarity between the feature quantity of one or more faces on a predetermined number of previous screens determined to be identical and the acquired face feature quantity of a specific person The degree of similarity between the facial feature quantity of the particular person and the facial feature quantity of the specific person is calculated, and the similarity degree between the one or more facial feature quantities of the current screen and the facial feature quantity of the specific person And a predetermined threshold value,
In the screen, an index is displayed by changing the color, pattern, or shape in accordance with the similarity of the one or more faces in a manner that identifies the face on or around the face having the similarity equal to or greater than the predetermined threshold. An image signal reproduction method comprising: superposing and outputting an image signal on which the index is superimposed.
3) a feature amount storage unit for storing a feature amount of a face of a specific person;
An image sensor that photoelectrically converts a subject image to generate an image signal;
A face extraction unit for extracting one or more faces in the screen in the image signal;
A degree-of-similarity calculating unit that calculates one or a plurality of extracted facial feature quantities and calculates a similarity degree to the facial feature quantity of the specific person;
A similarity comparison unit for comparing the similarity with a predetermined threshold;
An image superimposing unit that superimposes an index in a manner that identifies the face on or around the face having a similarity equal to or greater than the predetermined threshold in the screen;
A monitor,
An image output unit that outputs an image signal superimposed with the index to the monitor;
An identity determination unit that determines the identity of one or more faces on a predetermined number of previous screens and one or more faces on the current screen;
The similarity calculation unit calculates the similarity of one or more faces on the current screen using also the similarity of one or more faces on a predetermined number of previous screens determined to be identical. ,
The imaging apparatus is characterized in that a color, a pattern, or a shape is changed according to the similarity of the one or more faces.
4) Acquire facial features of a specific person,
Photoelectrically convert the subject image to generate an image signal,
Extracting one or more faces in the screen in the image signal;
Calculating the extracted feature quantity of one or more faces,
Determining the identity of one or more faces on the previous predetermined number of screens and one or more faces on the current screen,
The similarity between the feature quantity of one or more faces and the feature quantity of the face of the specific person on the predetermined number of screens that have been determined to be identical is also used to determine one or more of the current screen. Calculating the degree of similarity between the feature amount of the face and the feature amount of the face of the specific person,
Comparing the similarity between the feature quantity of one or more faces of the current screen and the feature quantity of the face of the specific person and a predetermined threshold;
In the screen, an index is displayed by changing the color, pattern, or shape in accordance with the similarity of the one or more faces in a manner that identifies the face on or around the face having the similarity equal to or greater than the predetermined threshold. An imaging method characterized by superimposing.

本発明では、モニター上に表示されている複数の人物から所定の人物を容易に特定することができ、ユーザは少なくともその特定情報に基づいて真に所望する画像を撮像または再生することが可能となる。   In the present invention, a predetermined person can be easily identified from a plurality of persons displayed on the monitor, and the user can capture or reproduce a truly desired image based on at least the identification information. Become.

第1の実施形態における撮像装置の一例を示した外観図である。1 is an external view illustrating an example of an imaging apparatus according to a first embodiment. 第1の実施形態における撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device in 1st Embodiment. 第1の実施形態における指標テーブルを説明するための説明図である。It is explanatory drawing for demonstrating the parameter | index table in 1st Embodiment. 第1の実施形態における液晶モニターにおける人物判別のための指標の重畳について説明した説明図である。It is explanatory drawing explaining the superimposition of the parameter | index for person discrimination | determination in the liquid crystal monitor in 1st Embodiment. 第1の実施形態における撮像方法の処理の流れを説明したフローチャートである。It is a flowchart explaining the flow of a process of the imaging method in 1st Embodiment. 第2の実施形態における撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device in 2nd Embodiment. 第2の実施形態における指標の重畳について説明した説明図である。It is explanatory drawing explaining the superimposition of the parameter | index in 2nd Embodiment. 第2の実施形態における撮像方法の処理の流れを説明したフローチャートである。It is the flowchart explaining the flow of the process of the imaging method in 2nd Embodiment. 第2の実施形態における図8における最大類似度算ステップの具体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the specific process of the maximum similarity calculation step in FIG. 8 in 2nd Embodiment. 第3の実施形態における画像信号再生装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image signal reproducing | regenerating apparatus in 3rd Embodiment. 第3の実施形態における画像信号再生方法の流れを示したフローチャートである。12 is a flowchart illustrating a flow of an image signal reproduction method according to the third embodiment.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。か
かる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするた
めの例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細
書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を
付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

小型軽量化が望まれる近年の撮像装置においては、液晶モニターやビューファインダも
小型化され、その画像中の人物を特定するのが困難である。このようなモニターでは遠く
離れた複数の被写体から、自分の子供など撮像したい人物を特定して追跡して撮像するこ
とは難しい。また、既存の画像信号再生装置では、画面が切り換わる度に所望する人物を
見つけ出すのに時間を要したり、画面内の部分ズーム機能を利用する場合においてその対
象を特定し難かったりした場合があった。
In recent imaging apparatuses that are desired to be small and light, liquid crystal monitors and viewfinders are also miniaturized, and it is difficult to specify a person in the image. In such a monitor, it is difficult to identify and track a person to be imaged such as his child from a plurality of distant subjects. In addition, in the existing image signal reproduction device, it may take time to find a desired person each time the screen is switched, or it may be difficult to specify the target when using the partial zoom function in the screen. there were.

以下の実施形態では、上述のようにモニター上に複数の人物が小さく表示されていても
、特定の人物を容易に識別することが可能な撮像装置、撮像方法、画像信号再生装置およ
び画像信号再生方法を提供することを目的としている。以下、実施形態の撮像装置の構成
とその撮像装置を用いた撮像方法を述べ、その後で、画像信号再生装置の構成とその画像
信号再生装置を用いた画像信号再生方法を述べる。
In the following embodiments, an imaging apparatus, an imaging method, an image signal reproduction apparatus, and an image signal reproduction that can easily identify a specific person even if a plurality of persons are displayed small on the monitor as described above. It aims to provide a method. Hereinafter, the configuration of the imaging apparatus of the embodiment and the imaging method using the imaging apparatus will be described, and then the configuration of the image signal playback apparatus and the image signal playback method using the image signal playback apparatus will be described.

(第1の実施形態:撮像装置100)
図1は、第1の実施形態における撮像装置100の一例を示した外観図である。撮像装
置100は、携帯性を有し、本体102と、撮像レンズ104と、操作部106と、モニ
ターとしての液晶モニター108とを含んで構成される。
(First embodiment: imaging apparatus 100)
FIG. 1 is an external view illustrating an example of an imaging apparatus 100 according to the first embodiment. The imaging apparatus 100 has portability and includes a main body 102, an imaging lens 104, an operation unit 106, and a liquid crystal monitor 108 as a monitor.

本体102は、撮像レンズ104を通じて撮像された画像データを再視聴可能に記録す
ると共に、操作部106へのユーザ入力に応じてその記録タイミングや画角が調整される
。また、野外、屋内、夜景等の撮像モードの切り換え入力などをユーザから受け付ける。
さらに、ユーザはその液晶モニター108に表示された画像を参照し、実録される画像デ
ータを視認することができ、被写体を所望する位置および占有面積で捉えることが可能と
なる。本実施形態では、モニター(ディスプレイ)として液晶モニターを例に挙げたが、
液晶モニターに限らず、有機EL(Electro Luminescence)、LED(Light Emitting Dio
de)ディスプレイなどで構成されてもよい。
The main body 102 records the image data captured through the imaging lens 104 so that it can be viewed again, and the recording timing and angle of view are adjusted in accordance with user input to the operation unit 106. In addition, it accepts an input of switching between imaging modes such as outdoors, indoors, and night views from the user.
Further, the user can view the image data actually recorded with reference to the image displayed on the liquid crystal monitor 108, and can capture the subject at a desired position and occupied area. In the present embodiment, a liquid crystal monitor has been exemplified as a monitor (display).
Not only LCD monitors, but also organic EL (Electro Luminescence), LED (Light Emitting Dio)
de) It may be composed of a display or the like.

図2は、第1の実施形態における撮像装置100の構成を示すブロック図である。撮像
装置100は、撮像部120と、信号処理部122と、画像記憶部124と、画像処理部
126と、記録I/F部128と、画像出力部130と、メモリ装置132と、撮像制御
部134とを含んで構成される。なお、画像記憶部124、画像処理部126、記録I/
F部128、画像出力部130および撮像制御部134はシステムバス136を介して接
続されている。
FIG. 2 is a block diagram illustrating a configuration of the imaging apparatus 100 according to the first embodiment. The imaging device 100 includes an imaging unit 120, a signal processing unit 122, an image storage unit 124, an image processing unit 126, a recording I / F unit 128, an image output unit 130, a memory device 132, and an imaging control unit. 134. The image storage unit 124, the image processing unit 126, the recording I / O
The F unit 128, the image output unit 130, and the imaging control unit 134 are connected via a system bus 136.

撮像部120は、撮像レンズ104を通じて被写体を撮像し画像データを生成する。撮
像部120は、具体的に、近赤外光を遮るIRカットフィルタ140、焦点調整に用いら
れるフォーカスレンズ142、露光調整に用いられる絞り144、撮像レンズ104を通
じて入射する被写体像などの光を光電変換し画像信号を生成するCCD(Charge Coupled
Devices)等で構成される撮像素子(撮像回路)146、撮像素子146からの画像信号
を増幅する増幅器148、増幅された画像信号をデジタルの画像データに変換するA/D
変換器150、フォーカスレンズ142および絞り144の駆動を制御する駆動制御部1
52とその駆動回路154と、を含んで構成される。
The imaging unit 120 captures a subject through the imaging lens 104 and generates image data. Specifically, the imaging unit 120 photoelectrically irradiates light such as an object image incident through the IR cut filter 140 that blocks near-infrared light, a focus lens 142 used for focus adjustment, a stop 144 used for exposure adjustment, and the imaging lens 104. CCD (Charge Coupled) that converts and generates image signal
Devices) 146, an amplifier 148 that amplifies an image signal from the image sensor 146, and an A / D that converts the amplified image signal into digital image data
A drive control unit 1 that controls the drive of the converter 150, the focus lens 142, and the diaphragm 144.
52 and its drive circuit 154.

信号処理部122は、入力された信号に対して輝度信号や色信号を形成するなどの信号
処理を行ってカラー映像信号を形成し、画像記憶部124に伝達する。また、画面の平均
輝度を求めるなどして、その制御信号を駆動制御部152へ出力する。
The signal processing unit 122 performs signal processing such as forming a luminance signal and a color signal on the input signal to form a color video signal, and transmits the color video signal to the image storage unit 124. In addition, the control signal is output to the drive control unit 152 by obtaining the average luminance of the screen.

画像記憶部124は、SDRAM(Synchronous-DRAM)等のバッファメモリで構成され
、画像データを一時的に記憶し、画像処理部126等にその画像データを参照させること
ができる。
The image storage unit 124 includes a buffer memory such as an SDRAM (Synchronous-DRAM), temporarily stores image data, and allows the image processing unit 126 and the like to refer to the image data.

画像処理部126は、画像記憶部124からの画像データをMPEG−2、MPEG−
4、MPEG−4/AVC等の形式で圧縮して記録用のデータを生成する。また、画像処
理部126は、撮像制御部134の指示により画像データを縮小して表示用画像(ビュー
画像)を生成する。一方、記録用のデータを再生する際には、画像処理部126は、圧縮
された記憶用データを伸長復元する処理を実行する。
The image processing unit 126 converts the image data from the image storage unit 124 into MPEG-2, MPEG-
4. Generate data for recording by compressing in a format such as MPEG-4 / AVC. Further, the image processing unit 126 reduces the image data according to an instruction from the imaging control unit 134 and generates a display image (view image). On the other hand, when reproducing the recording data, the image processing unit 126 executes a process of decompressing and restoring the compressed storage data.

記録I/F部128は、符号化処理を通じ画像データを符号化して記録信号(データス
トリーム)を生成し、その記憶信号を任意の記録媒体156に記録する。任意の記録媒体
156としては、DVDやBDといった電源不要な媒体や、RAM、EEPROM、不揮
発性RAM、フラッシュメモリ、HDD等の電源を要する媒体を適用することができる。
また、外部から接続可能な別体の記録媒体を用いることもできる。
The recording I / F unit 128 encodes the image data through an encoding process to generate a recording signal (data stream), and records the storage signal on an arbitrary recording medium 156. As the arbitrary recording medium 156, a medium that does not require a power source such as a DVD or a BD, or a medium that requires a power source such as a RAM, an EEPROM, a nonvolatile RAM, a flash memory, or an HDD can be applied.
Also, a separate recording medium that can be connected from the outside can be used.

メモリ装置132は、撮像制御部134で処理されるプログラムなどを記憶する。また
メモリ装置132は、特徴量記憶部160としても機能し、指標テーブル162も有して
いる。かかる特徴量記憶部160は、ユーザが予め撮像した特定の人物の顔に関する特徴
量を記憶する。指標テーブル162については後ほど詳述する。以下、単に「顔」とする
ところは画像信号から切り出し可能な顔全体を指し、「顔の位置」は顔の任意の点の画面
内の相対位置を示し、「顔の占有面積」は顔が画面内を占有する面積を示す。
The memory device 132 stores a program processed by the imaging control unit 134. The memory device 132 also functions as the feature amount storage unit 160 and has an index table 162. The feature amount storage unit 160 stores a feature amount related to the face of a specific person imaged in advance by the user. The index table 162 will be described in detail later. Hereinafter, “face” simply refers to the entire face that can be cut out from the image signal, “face position” indicates the relative position of any point on the screen, and “face occupation area” indicates the face Indicates the area that occupies the screen.

撮像制御部134は、半導体集積回路により撮像装置100全体を管理および制御し、
撮像などに必要となる各種演算を実行する。また、撮像制御部134は、顔抽出部180
、類似度算出部182、類似度比較部184、座標特定部186、タイマー部188とし
ても機能する。
The imaging control unit 134 manages and controls the entire imaging apparatus 100 using a semiconductor integrated circuit,
Various calculations necessary for imaging and the like are executed. The imaging control unit 134 also includes a face extraction unit 180.
Also, it functions as a similarity calculation unit 182, a similarity comparison unit 184, a coordinate specification unit 186, and a timer unit 188.

顔抽出部180は、撮像部120が取得した撮像画像のデータから顔を抽出する。そし
て、顔抽出部180は、抽出した顔からその顔の画面内における座標および占有面積と特
徴点を導出し、顔の画面内における座標と占有面積の情報は、メモリ装置132に格納し
、特徴点は、類似度算出部182に伝達する。抽出方法は、例えば、特開2001−16
573号公報などに記載された特徴点抽出処理によって顔の占有領域を抽出する。かかる
特徴点の抽出処理は、顔抽出部180において実行する場合に限らず、後述する類似度算
出部182などで処理することとしてもよい。
The face extraction unit 180 extracts a face from the captured image data acquired by the imaging unit 120. Then, the face extraction unit 180 derives coordinates, occupied area, and feature points in the screen of the face from the extracted face, and stores information on the coordinates and occupied area in the face screen in the memory device 132, The points are transmitted to the similarity calculation unit 182. As an extraction method, for example, JP-A-2001-16.
The occupied area of the face is extracted by the feature point extraction process described in Japanese Patent No. 573. Such feature point extraction processing is not limited to being performed by the face extraction unit 180, and may be performed by a similarity calculation unit 182 described later.

類似度算出部182は、まず、顔抽出部180で抽出された顔と顔の特徴点からその顔
の特徴量を算出する。特徴量は、顔を特徴付ける情報であり、顔の特徴点(目、口、鼻、
耳等の特徴部分の相対位置)、特徴点同士の離間距離、特徴部分の大きさ、顔の輪郭、肌
の色、髪の色、髪の量等を用いて顔を特定する。次に、類似度算出部182は、ユーザに
指定された特定の人物の顔の特徴量を特徴量記憶部160から読み出し、特徴量を算出し
た1または複数の顔とそれぞれ比較して、特定の人物の顔と撮像された人物の顔との類似
度を求める。類似度は2つの顔の画像の類比を示し、例えば0〜100の値で表され、0
だと別人、100だと同一人物と判断することができる。
The similarity calculation unit 182 first calculates the face feature amount from the face and the face feature points extracted by the face extraction unit 180. The feature amount is information that characterizes the face, and features of the face (eyes, mouth, nose,
The face is identified using the relative position of the feature portion such as the ear), the distance between the feature points, the size of the feature portion, the outline of the face, the skin color, the hair color, the amount of hair, and the like. Next, the similarity calculation unit 182 reads the feature amount of the face of a specific person designated by the user from the feature amount storage unit 160 and compares it with one or more faces for which the feature amount has been calculated, The similarity between the person's face and the imaged person's face is obtained. The similarity indicates an analogy between two face images, and is represented by a value of 0 to 100, for example.
If it is, it can be judged that it is another person, and if it is 100, it is the same person.

図3は、指標テーブル162を説明するための説明図である。指標テーブル162は、
類似度と特定の人物を示す指標(ここでは矢印)の色を関連付けている。例えば、類似度
算出部182で算出された類似度が70〜80であった場合白で示し、81〜90であっ
た場合青で示し、91〜100であった場合赤で示す。ここでは、後述する所定閾値を7
0としているので、類似度が70より小さい場合は別人として何らの色とも対応させない
とする。また、本実施形態では、指標として矢印を挙げて説明するが、指差しマーク等矢
印以外のマークや顔の輪郭に沿ったライン等様々な特定表示を用いることができる。
FIG. 3 is an explanatory diagram for explaining the index table 162. The indicator table 162 is
The similarity is associated with the color of an index (here, an arrow) indicating a specific person. For example, when the similarity calculated by the similarity calculation unit 182 is 70 to 80, it is shown in white, when it is 81 to 90, it is shown in blue, and when it is 91 to 100, it is shown in red. Here, a predetermined threshold described later is set to 7
Since 0 is set, when the similarity is less than 70, it is assumed that no other color is associated with the other person. In the present embodiment, an arrow is used as an index, but various specific displays such as a mark other than an arrow such as a pointing mark and a line along the contour of the face can be used.

類似度比較部184は、類似度算出部182が算出した類似度と予め設定された所定閾
値とを比較し、所定閾値よりも類似度が大きな場合、当該顔の類似度を座標特定部186
に伝達する。本実施形態では所定閾値を70としたが、かかる値に限定されずユーザは数
値を任意に設定することができる。
The similarity comparison unit 184 compares the similarity calculated by the similarity calculation unit 182 with a predetermined threshold set in advance, and if the similarity is larger than the predetermined threshold, the similarity determination unit 186 determines the similarity of the face.
To communicate. In the present embodiment, the predetermined threshold value is set to 70, but the present invention is not limited to this value, and the user can arbitrarily set a numerical value.

座標特定部186は、類似度比較部184から受け取った所定閾値よりも大きい類似度
と指標テーブル162を参照して対応する色データを取得し、前述の顔抽出部180がメ
モリ装置132に保存した各顔の位置と占有面積のデータを参照して、その撮像人物の顔
の近傍で全ての撮像人物の顔を除いた領域の座標データを画像重畳部190に送信する。
The coordinate specifying unit 186 acquires color data corresponding to the degree of similarity larger than the predetermined threshold received from the similarity comparison unit 184 with reference to the index table 162, and the face extraction unit 180 stores the color data in the memory device 132. With reference to the data of the position and occupied area of each face, the coordinate data of the area excluding all the faces of the imaged person in the vicinity of the face of the imaged person is transmitted to the image superimposing unit 190.

画像出力部130は、画像重畳部190、D/A変換器192を含んで構成される。画
像重畳部190は、類似度算出部182から取得した色データの色に着色された例えば矢
印(指標)を、画像信号の座標特定部186から取得した座標に重畳する。かかる構成に
より、ユーザは複数の顔の候補から、直感的かつ確実に適切な被写体を選択することが可
能となる。また、特定の人物によく似た顔が複数存在し、その判別がつかない場合であっ
ても、ユーザは、その彩色が施された複数の顔を全て画面内に収める等の処理を通じて、
所望する人物を欠落させることなくより確実に撮像することができる。
The image output unit 130 includes an image superimposing unit 190 and a D / A converter 192. The image superimposing unit 190 superimposes, for example, an arrow (index) colored in the color data acquired from the similarity calculating unit 182 on the coordinates acquired from the coordinate specifying unit 186 of the image signal. With this configuration, the user can intuitively and surely select an appropriate subject from a plurality of face candidates. In addition, even if there are multiple faces that are very similar to a specific person, and the discrimination cannot be made, the user can process all of the colored faces on the screen, etc.
Imaging can be performed more reliably without missing a desired person.

本実施形態では、矢印の色で類似度の高さを示したが、矢印の模様または形状を変化さ
せるようにしてもよい。また、複数の指標を準備して類似度に対応した指標を表示しても
よいし、類似度をそのまま数字で表示するようにしてもよい。また、人物や顔自体の色や
明るさを変えるなどして、類似度の高さを示してもよい。
In the present embodiment, the color of the arrow indicates the degree of similarity, but the pattern or shape of the arrow may be changed. A plurality of indicators may be prepared and an indicator corresponding to the similarity may be displayed, or the similarity may be displayed as a number as it is. Also, the degree of similarity may be indicated by changing the color or brightness of a person or the face itself.

さらに、類似度算出部182から取得した座標データは、矢印を画面内の人物の顔と重
ならない位置になるように計算した値のため、画像重畳部190は矢印を画面内の全ての
人物の顔と重ならない位置に重畳する。かかる構成により、その矢印が他の人物の顔に重
なってしまい他の人物の顔を視認できなくなってしまう事態を回避することができ、全て
の顔を認識できる状態で安定した撮像が可能となる。
Further, since the coordinate data acquired from the similarity calculation unit 182 is a value calculated so that the arrow does not overlap the face of the person on the screen, the image superimposing unit 190 sets the arrow to all the persons on the screen. Superimpose in a position that does not overlap the face. With this configuration, it is possible to avoid a situation in which the arrow overlaps the face of another person and the face of the other person cannot be visually recognized, and stable imaging can be performed in a state where all faces can be recognized. .

D/A変換器192は、画像記憶部124から取得したデジタルの画像データを視聴可
能な画像信号に加工して、液晶モニター108に出力する。その画像データは、画像重畳
部190が重畳した矢印などの画像信号を含む。撮像者(ユーザ)は、かかる液晶モニタ
ー108の映像を視認しながら撮像対象を特定することができる。ここでは、画像信号の
出力先を液晶モニター108としたが、画像出力部130は、外部に画像出力を行うため
の映像端子を有しているため、別体のモニター等様々な画像表示装置に接続することも可
能である。
The D / A converter 192 processes the digital image data acquired from the image storage unit 124 into a viewable image signal and outputs the processed image signal to the liquid crystal monitor 108. The image data includes an image signal such as an arrow superimposed by the image superimposing unit 190. An imager (user) can identify an imaging target while visually recognizing the video on the liquid crystal monitor 108. Here, the output destination of the image signal is the liquid crystal monitor 108, but the image output unit 130 has a video terminal for outputting an image to the outside, so that it can be used in various image display devices such as a separate monitor. It is also possible to connect.

以下、撮像装置100の具体的な処理動作を説明する。   Hereinafter, a specific processing operation of the imaging apparatus 100 will be described.

図4は、液晶モニター108における人物判別のための指標の重畳について説明した説
明図である。ここでは、撮像対象としてサッカーの試合が想定され、撮像した画像を映し
出す液晶モニター108には4人のサッカー選手である人物202A、202B、202
C、202Dが映し出されている。実際に撮像された画像信号は解像度が高いが、ここで
は、液晶モニター108が小さいため、かかる人物202A、202B、202C、20
2Dの識別が困難であったとする。
FIG. 4 is an explanatory diagram for explaining superimposition of indices for person discrimination in the liquid crystal monitor 108. Here, a soccer game is assumed as an imaging target, and four soccer players 202A, 202B, and 202 are displayed on the liquid crystal monitor 108 that displays the captured image.
C and 202D are projected. Although the actually captured image signal has a high resolution, since the liquid crystal monitor 108 is small here, the person 202A, 202B, 202C, 20
Assume that 2D identification is difficult.

ユーザは、予め撮像したい特定の人物202Cの画像を撮像装置100に登録しておき
、撮像する前に操作部106を通じてその人物202Cを探し出すように撮像装置100
に指示を与える。撮像装置100は、撮像部120で撮像した画像を、信号処理部122
を通して画像記憶部124のバッファメモリに記憶すると共に、画像出力部130および
顔抽出部180に伝達する。
The user registers in advance an image of a specific person 202C to be imaged in the imaging apparatus 100, and searches for the person 202C through the operation unit 106 before imaging.
Give instructions to. The imaging apparatus 100 converts an image captured by the imaging unit 120 into a signal processing unit 122.
Is stored in the buffer memory of the image storage unit 124 and transmitted to the image output unit 130 and the face extraction unit 180.

顔抽出部180は、特徴点抽出処理により人物202A、202B、202C、202
Dの4つの顔を抽出し、その顔の位置、占有面積および特徴点を導出して、顔の位置と占
有面積の情報をメモリ装置132に格納し、顔と特徴点を類似度算出部182に伝達する
The face extraction unit 180 performs the person 202A, 202B, 202C, 202 by the feature point extraction process.
The four faces of D are extracted, the face position, occupied area, and feature point are derived, information on the face position and occupied area is stored in the memory device 132, and the similarity calculation unit 182 calculates the face and feature point. To communicate.

類似度算出部182は、ユーザに指定された特定の人物の特徴量を特徴量記憶部160
から読み出し、さらに、顔抽出部180から伝達された顔と特徴点に基づいて特徴量を算
出し、算出結果の各人の特徴量と特定の人物の特徴量とを比較して、特定の人物の顔の画
像との類比を示した類似度を算出し、顔毎にメモリ装置132に格納する。ここで、各人
の類似度は、人物202Aが85、人物202Bが65、人物202Cが95、人物20
2Dが45であったとする。
The similarity calculation unit 182 displays the feature amount of a specific person designated by the user as the feature amount storage unit 160.
And the feature amount is calculated based on the face and feature points transmitted from the face extraction unit 180, and the feature amount of each person in the calculation result is compared with the feature amount of the specific person, so that the specific person The similarity indicating the analogy with the face image is calculated and stored in the memory device 132 for each face. Here, the similarity of each person is 85 for the person 202A, 65 for the person 202B, 95 for the person 202C, and 20 for the person 20
Suppose 2D is 45.

次に、類似度比較部184は、予め設定された所定閾値と顔毎の類似度を比較する。こ
の所定閾値は、ユーザ入力に応じて値を変更できるようにしても良いし、固定の値として
も良い。ここでは、所定閾値が70であるとする。
Next, the similarity comparison unit 184 compares the predetermined threshold value set in advance with the similarity for each face. The predetermined threshold value may be changed according to a user input, or may be a fixed value. Here, it is assumed that the predetermined threshold is 70.

まず、人物202Aの顔について、算出された類似度85と所定閾値70を比較し、類
似度の方が大きいと判断する。そして座標特定部186は、指標テーブル162を参照し
この類似度85に応じた青の色データと、人物202Aの顔の近傍で人物202A、20
2B、202C、202Dの顔の占有領域を除いた領域の座標データを画像重畳部190
に送信する。画像重畳部190では、送信された色データと座標データから、青色の矢印
図形を画像データに重畳して液晶モニター108に表示する(矢印300A)。
First, for the face of the person 202A, the calculated similarity 85 is compared with the predetermined threshold 70, and it is determined that the similarity is higher. Then, the coordinate specifying unit 186 refers to the index table 162, the blue color data corresponding to the similarity 85, and the person 202A, 20 near the face of the person 202A.
2B, 202C, and 202D, the coordinate data of the area excluding the occupied area of the face is used as the image superimposing unit 190.
Send to. In the image superimposing unit 190, a blue arrow graphic is superimposed on the image data from the transmitted color data and coordinate data and displayed on the liquid crystal monitor 108 (arrow 300A).

同様に、類似度比較部184は、人物202Bの顔の類似度65を所定閾値70と比較
し類似度の方が小さいと判断し、人物202Bに関しては処理を行わず次の顔の処理に移
行する。
Similarly, the similarity comparison unit 184 compares the face similarity 65 of the person 202B with the predetermined threshold 70 and determines that the similarity is smaller, and does not process the person 202B and proceeds to the next face processing. To do.

同様に、人物202Cの顔の類似度95を所定閾値70と比較し、類似度の方が大きい
と判断し、指標テーブル162を参照しこの類似度95に応じた赤の色データとCの顔の
近傍で人物202A、202B、202C、202Dの顔の占有領域を除いた領域の座標
データを画像重畳部190に送信する。画像重畳部190では、送信された色データと座
標データから、赤色の矢印図形を画像データに重畳して液晶モニター108に表示する(
矢印300B)。
Similarly, the similarity degree 95 of the face of the person 202C is compared with the predetermined threshold 70, and it is determined that the similarity degree is larger. The index table 162 is referred to, and the red color data corresponding to the similarity degree 95 and the C face The coordinate data of the area excluding the occupied areas of the faces of the persons 202A, 202B, 202C, and 202D in the vicinity of is transmitted to the image superimposing unit 190. The image superimposing unit 190 superimposes a red arrow graphic on the image data from the transmitted color data and coordinate data and displays the image on the liquid crystal monitor 108 (
Arrow 300B).

同様に、人物202Dの顔の類似度45を所定閾値70と比較し、類似度の方が小さい
と判断して人物202Dに関しては特別な処理を行わない。
Similarly, the similarity 45 of the face of the person 202D is compared with a predetermined threshold 70, and it is determined that the similarity is smaller, and no special processing is performed on the person 202D.

以上の処理は、撮像中の毎フレームで行われるとしてもよい。撮像制御部134は、フ
レームに同期したパルス信号をトリガに処理を遂行してもよいし、フレーム周期をカウン
トするタイマー部188(図2参照)のカウント値に基づいて処理を遂行してもよい。
The above processing may be performed every frame during imaging. The imaging control unit 134 may perform processing using a pulse signal synchronized with a frame as a trigger, or may perform processing based on a count value of a timer unit 188 (see FIG. 2) that counts the frame period. .

(撮像方法)
図5は、第1の実施形態における撮像方法の処理の流れを説明したフローチャートであ
る。
(Imaging method)
FIG. 5 is a flowchart illustrating the processing flow of the imaging method according to the first embodiment.

ユーザが予め登録しておいた人物202の画像から1または複数の特定の人物202を
指定し(S300)、撮像を開始すると(S302)、撮像部120で取得した画像信号
は信号処理部122、画像記憶部124を経て撮像制御部134の顔抽出部180に伝達
され、顔抽出部180は画像データから顔を抽出する(S304)。
When one or more specific persons 202 are designated from images of the person 202 registered in advance by the user (S300) and imaging is started (S302), the image signal acquired by the imaging unit 120 is the signal processing unit 122, The information is transmitted to the face extraction unit 180 of the imaging control unit 134 via the image storage unit 124, and the face extraction unit 180 extracts a face from the image data (S304).

顔が1つも抽出されない場合(S306NO)処理を終了する。顔が少なくとも1つ以
上抽出されると(S306YES)、抽出された各顔全てについて、以下の処理を繰り返
し実行する。
If no face is extracted (NO in S306), the process ends. When at least one face is extracted (YES in S306), the following processing is repeatedly executed for all the extracted faces.

まず、類似度算出部182は、抽出した顔から特徴量を算出する(S308)。以下、
ユーザが指定した特定の人物202が複数ある場合はそのうちの1人について、1人しか
指定されていなければその1人の特定の人物202について、特徴量を特徴量記憶部16
0から取得し、両者の特徴量から類似度を算出する(S310)。
First, the similarity calculation unit 182 calculates a feature amount from the extracted face (S308). Less than,
In the case where there are a plurality of specific persons 202 designated by the user, if only one person is designated, the feature quantity is stored in the feature quantity storage unit 16 for that particular person 202.
The similarity is obtained from 0, and the similarity is calculated from the feature amounts of both (S310).

類似度が予め設定された所定閾値より大きければ(S312YES)、指標テーブル1
62を参照して類似度に対応する色データを取得し(S314)、当該顔の座標近傍で他
の顔の重ならない座標を算出する(S316)。画像重畳部190は、液晶モニター10
8に表示する画面内の、算出された座標位置に色データで指定された色の矢印を重畳する
(S318)。
If the similarity is larger than a predetermined threshold value set in advance (YES in S312), the index table 1
62, the color data corresponding to the similarity is acquired (S314), and the coordinates where the other faces do not overlap are calculated in the vicinity of the coordinates of the face (S316). The image superimposing unit 190 is connected to the liquid crystal monitor 10.
The arrow of the color designated by the color data is superimposed on the calculated coordinate position in the screen displayed in 8 (S318).

算出した類似度が所定閾値以下であれば(S312NO)、当該顔について特別な処理
は行わない。
If the calculated similarity is equal to or less than the predetermined threshold (NO in S312), no special process is performed on the face.

ユーザが指定した特定の人物202が複数であり、まだ上述の類似度算出(S310)
から矢印描画(S318)までの処理を行っていない特定の人物202が残っている場合
(S320YES)、当該残っている特定の人物202のうちの1人について、類似度算
出(S310)以下のステップを実行する。この処理はユーザが指定した特定の人物20
2が全員終わるまで繰り返される。
There are a plurality of specific persons 202 designated by the user, and the above-described similarity calculation is still performed (S310).
If the specific person 202 that has not performed the process from the drawing to the arrow drawing (S318) remains (YES in S320), the steps after the similarity calculation (S310) for one of the remaining specific persons 202 are performed. Execute. This process is performed by a specific person 20 specified by the user.
Repeat until 2 is over.

未処理の特定の人物が0人の場合(S320NO)、特徴量算出(S308)以下の処
理を行っていない顔が残っているかどうか判断され(S322)、残っていれば、各顔に
ついて上述の処理を繰り返す。未処理の顔が無くなると(S322NO)、当該撮像方法
を終了する。以上の処理を、フレーム毎に実行する。
When the number of unprocessed specific persons is zero (NO in S320), it is determined whether or not there is a face that has not been subjected to the processing below the feature amount calculation (S308) (S322). Repeat the process. When there is no unprocessed face (NO in S322), the imaging method ends. The above processing is executed for each frame.

本実施形態によれば、ユーザは撮像する際に所定の人物を撮像装置の液晶モニター10
8で容易に探し出して確認することができ、誤って想定していない人物をズームして撮像
してしまうなどわずらわしい思いを感じることなく適切な被写体を撮像できる。また、液
晶モニター108上に似通った顔の人物が複数表示されていても、それぞれの類似度の高
さを色で判別できるため、特定の人物の判別をより確実に実行できる。
According to the present embodiment, when the user takes an image, the liquid crystal monitor 10 of the image pickup apparatus displays a predetermined person.
8 can be easily found and confirmed, and an appropriate subject can be imaged without feeling uncomfortable, such as zooming and imaging a person who is not supposed to be mistaken. Further, even if a plurality of persons with similar faces are displayed on the liquid crystal monitor 108, the degree of similarity can be determined by color, so that a specific person can be determined more reliably.

(第2の実施形態:撮像装置400)
第1の実施形態では、フレーム毎に類似度を算出して、その結果に基づいて液晶モニタ
ー108の画像に指標を重畳していた。この方法では、顔の向きや表情の変化に応じてフ
レーム毎に類似度が変化する場合があり、その変化とともに類似度に応じた指標(矢印や
色、数字など)が変化し、ユーザがわずらわしい思いをする可能性がある。
(Second Embodiment: Imaging Device 400)
In the first embodiment, the similarity is calculated for each frame, and the index is superimposed on the image of the liquid crystal monitor 108 based on the result. In this method, the degree of similarity may change from frame to frame according to changes in face orientation and facial expression, and the index (arrow, color, number, etc.) corresponding to the degree of change changes with the change, and the user is troublesome. There is a possibility of thinking.

第2の実施形態では、現在のフレームのみならず、直前の所定数前からの複数のフレー
ムを参照して安定した類似度を算出し、表示させる指標の変化を抑え、ユーザに与えるわ
ずらわしさを軽減することができる。
In the second embodiment, not only the current frame but also a plurality of immediately preceding predetermined frames are referred to calculate a stable similarity, suppress changes in the index to be displayed, and annoying the user. Can be reduced.

図6は、第2の実施形態における撮像装置400の構成を示すブロック図である。撮像
装置100は、撮像部120と、信号処理部122と、画像記憶部124と、画像処理部
126と、記録I/F部128と、画像出力部130と、メモリ装置132と、撮像制御
部402とを含んで構成される。なお、画像記憶部124、画像処理部126、記録I/
F部128、画像出力部130および撮像制御部402はシステムバス136を介して接
続されている。
FIG. 6 is a block diagram illustrating a configuration of the imaging apparatus 400 according to the second embodiment. The imaging device 100 includes an imaging unit 120, a signal processing unit 122, an image storage unit 124, an image processing unit 126, a recording I / F unit 128, an image output unit 130, a memory device 132, and an imaging control unit. 402. The image storage unit 124, the image processing unit 126, the recording I / O
The F unit 128, the image output unit 130, and the imaging control unit 402 are connected via a system bus 136.

上記撮像部120、信号処理部122、画像記憶部124、画像処理部126、記録I
/F部128、画像出力部130、メモリ装置132は、第1の実施形態において述べた
構成要素と実質的に機能が同一なので、重複説明を省略し、ここでは、構成が相異する撮
像制御部402を主に説明する。
The imaging unit 120, signal processing unit 122, image storage unit 124, image processing unit 126, recording I
The / F unit 128, the image output unit 130, and the memory device 132 have substantially the same functions as the constituent elements described in the first embodiment, and thus redundant description is omitted. Here, imaging control with different configurations is performed. The unit 402 will be mainly described.

撮像装置400は、撮像装置100と異なり撮像制御部402に距離算出部404と同
一性判断部406とが設けられている。距離算出部404は、メモリ装置132から前フ
レームと現フレームの顔の画面内における位置(具体的には座標で表される)と占有面積
の情報を読み出し、現フレームの顔の位置と前フレームの全ての顔の位置との距離を算出
する。例えば、液晶モニター108の左下隅を原点として、原点から水平方向にX1画素
、垂直方向にY1画素の座標にある顔と、同じく原点から水平方向にX2画素、垂直方向
にY2画素の座標にある顔の距離Dは、D=√((X1−X2)+(Y1−Y2)
で算出される。
Unlike the imaging apparatus 100, the imaging apparatus 400 is provided with a distance calculation unit 404 and an identity determination unit 406 in the imaging control unit 402. The distance calculation unit 404 reads information on the positions (specifically expressed in coordinates) of the faces of the previous frame and the current frame in the screen and the occupied area information from the memory device 132, and the face position and the previous frame of the current frame. The distances from all face positions are calculated. For example, with the lower left corner of the liquid crystal monitor 108 as the origin, the face is at the coordinates of X1 pixels in the horizontal direction from the origin, and the coordinates of Y1 pixels in the vertical direction, and is also at the coordinates of X2 pixels in the horizontal direction and Y2 pixels from the origin The face distance D is D = √ ((X1−X2) 2 + (Y1−Y2) 2 ).
Is calculated by

同一性判断部406は、撮像した時刻が前後する例えばフレームA、フレームB(撮像
時刻順)について、フレームAに含まれる全ての顔と、フレームBに含まれる全ての顔に
ついて同一性を判断する。同一性は、撮像した時間の異なる2つのフレームに含まれる顔
がそれぞれ同一人物であると見なせるかどうかを示す。
The identity determination unit 406 determines the identity of all faces included in the frame A and all faces included in the frame B with respect to, for example, the frame A and the frame B (in order of the imaging time) in which the imaging time changes. . The identity indicates whether the faces included in the two frames with different imaging times can be regarded as the same person.

また、本実施形態において同一性は、フレーム間の1または複数の顔と顔の画面内にお
ける距離、および1または複数の顔のフレーム間の画面内における占有面積に基づいても
判断される。ここでは、前者を距離の同一性、後者を面積の同一性とする。
In the present embodiment, the identity is also determined based on the distance between one or more faces between faces in the screen and the occupied area in the screen between the frames of one or more faces. Here, the former is the identity of the distance, and the latter is the identity of the area.

距離の同一性は、距離算出部404が算出したフレーム間における顔の画面内における
距離から判断され、フレームBに含まれるある顔と、フレームAの全ての顔との距離が、
予め設定された第1所定値より大きい場合、距離の同一性がないと判断され、その顔は同
一ではない、またはフレームAには存在しなかった顔とする。かかる顔に関する既存の類
似度はそのフレームBの人物の類似度算出の際には参照されない。
The identity of the distance is determined from the distance in the screen of the face between the frames calculated by the distance calculation unit 404, and the distance between a certain face included in the frame B and all the faces in the frame A is
When it is larger than the first predetermined value set in advance, it is determined that the distances are not identical, and the faces are not the same or do not exist in the frame A. The existing similarity regarding the face is not referred to when calculating the similarity of the person in the frame B.

フレーム間における顔の画面内における距離が第1所定値以下であった場合、同一性判
断部406は、2つの顔の面積の同一性を判断する。面積の同一性は、顔抽出部180が
導出したフレームA、フレームBそれぞれの画面内における各人物の顔の占有面積の差分
の絶対値から判断される。顔の占有面積の差分の絶対値が予め設定された第2所定値より
も大きい場合、面積の同一性がないと判断され、その顔に関する既存の類似度はフレーム
Bの人物の類似度算出の際には参照されない。顔の占有面積の差分の絶対値が予め設定さ
れた第2所定値よりも小さい場合、面積の同一性があると判断され、2つの顔は同一人物
の顔とされ、その顔に関する既存の類似度はフレームBの人物の類似度算出の際に参照さ
れる。
When the distance in the screen of the face between the frames is equal to or less than the first predetermined value, the identity determination unit 406 determines the identity of the areas of the two faces. The identity of the area is determined from the absolute value of the difference in the occupied area of each person's face in the frame A and frame B screens derived by the face extraction unit 180. If the absolute value of the difference in the area occupied by the face is greater than a preset second predetermined value, it is determined that there is no area identity, and the existing similarity for that face is calculated by calculating the similarity of the person in frame B. It is not referred to when. If the absolute value of the difference in the occupied area of the face is smaller than a second predetermined value set in advance, it is determined that there is an area identity, the two faces are the faces of the same person, and the existing similarities related to that face The degree is referred to when the similarity of the person in frame B is calculated.

面積の同一性を使用することで、例えば、フレームAにおいて被写体が撮像装置400
から遠くに離れて位置しており、フレームBにおいて同じ位置であるが、撮像装置400
に近い位置に別の被写体が現れた場合でも、遠近法に従い画面内における顔の占有面積が
異なるため、同一性判断部406は同一性がないと判断し、正しく別人と判断できる。
By using the same area, for example, the subject in the frame A can be captured by the imaging device 400.
The image pickup device 400 is located far away from the camera and is the same position in the frame B.
Even when another subject appears at a position close to, since the occupied area of the face in the screen differs according to the perspective method, the identity determination unit 406 determines that there is no identity and can correctly determine that the person is another person.

このように、フレーム間の画面内における1または複数の顔と顔の距離が所定値より小
さく、かつ画面内における占有面積の差分の絶対値が所定値よりも小さい場合、フレーム
間の顔同士を同一人物と判断することができる。かかる構成により、フレーム間で同一と
見なすことができる顔を確実に抽出することができ、結果、安定した撮像を遂行すること
が可能となる。
Thus, when the distance between one or more faces in the screen between frames is smaller than a predetermined value and the absolute value of the difference in occupied area in the screen is smaller than a predetermined value, the faces between frames are It can be determined that they are the same person. With this configuration, faces that can be regarded as the same between frames can be reliably extracted, and as a result, stable imaging can be performed.

また、同一性判断部406は、画面内における顔の距離や占有面積に限らず、フレーム
間の顔の光量や特徴量等も考慮に入れて同一性を判断してもよい。かかる構成により、人
物の追跡性能を向上させることが可能となる。
Further, the identity determination unit 406 may determine the identity taking into consideration not only the distance and the occupied area of the face in the screen but also the amount of face light and the feature amount between frames. With this configuration, it is possible to improve the performance of tracking a person.

図7は、第2の実施形態における指標の重畳について説明した説明図である。図7(a
)は、ある時間に撮像された画像である。図7(b)は、図7(a)から1フレーム後の時
間に撮像された画像である。ここでは、図7(a)の画像をフレームAとし、図7(b)の
画像をフレームBとし、フレームBに撮像されている人物202それぞれについての類似
度を算出する際の手順を説明する。ただし、距離を明確に示すため1フレームの時間を長
くとっている。
FIG. 7 is an explanatory diagram for explaining the superimposition of indices in the second embodiment. Fig. 7 (a
) Is an image taken at a certain time. FIG. 7B is an image captured at a time one frame after FIG. 7A. Here, the procedure when calculating the similarity for each person 202 imaged in the frame B with the image in FIG. 7A as the frame A and the image in FIG. 7B as the frame B will be described. . However, in order to clearly indicate the distance, the time of one frame is long.

距離算出部404は、フレームBに含まれる人物202E、202F、202G、20
2H、202Iそれぞれについて、フレームAに含まれる人物202A、202B、20
2C、202Dそれぞれとの画面内における距離を算出する。
The distance calculation unit 404 includes the persons 202E, 202F, 202G, and 20 included in the frame B.
For each of 2H and 202I, the persons 202A, 202B, and 20 included in the frame A
The distance in the screen with each of 2C and 202D is calculated.

続いて同一性判断部406は、距離算出部404が算出した画面内における各距離と第
1所定値とを比較して距離の同一度を判断する。人物202Eの顔の場合、人物202A
、202B、202C、202Dのどの顔の位置とも離れており、距離が第1所定値より
大きいため、距離の同一性はないと判断される。そのためフレームAには人物202Eと
同一人物はいないと判断し、人物202Eの類似度を算出する際、フレームAの類似度は
参照しない。
Subsequently, the identity determination unit 406 compares each distance in the screen calculated by the distance calculation unit 404 with the first predetermined value to determine the degree of distance identity. In the case of the face of the person 202E, the person 202A
, 202B, 202C, and 202D, and the distance is greater than the first predetermined value, so it is determined that the distances are not identical. Therefore, it is determined that there is no person who is the same as the person 202E in the frame A, and the similarity of the frame A is not referred to when calculating the similarity of the person 202E.

同様にフレームBの人物202Fの顔の位置とフレームAの人物202A、202B、
202C、202Dの顔の位置との画面内の距離を算出して、それぞれ所定距離と比較す
る。人物202Fの顔の位置とフレームAの人物202Aの顔の位置との画面内における
距離が第1所定値よりも小さくなる。従って、フレームA、B間で顔がほとんど移動して
いないこととなり、距離の同一性があると判断される。
Similarly, the position of the face of the person 202F in frame B and the persons 202A, 202B in frame A,
The distances in the screen with the face positions of 202C and 202D are calculated, and each is compared with a predetermined distance. The distance in the screen between the position of the face of the person 202F and the position of the face of the person 202A in frame A is smaller than the first predetermined value. Accordingly, the face hardly moves between the frames A and B, and it is determined that the distance is the same.

次に人物202Fの画面内における顔の占有面積と人物202Aの画面内における顔の
占有面積の差の絶対値を計算し、面積の同一性を判断する。面積の差分の絶対値が第2所
定値よりも小さいため面積の同一性があると判断され、人物202Fの顔と人物202A
の顔は同一人物の顔であると判断することができる。
Next, the absolute value of the difference between the occupied area of the face in the screen of the person 202F and the occupied area of the face in the screen of the person 202A is calculated, and the identity of the area is determined. Since the absolute value of the area difference is smaller than the second predetermined value, it is determined that there is an area identity, and the face of the person 202F and the person 202A
Can be determined to be the faces of the same person.

ここでは、距離の同一性と面積の同一性との条件を両方満たしているため、同一性判断
部406は、フレームBの人物202FとフレームAの人物202Aは同一人物であると
判断し、人物202Fに関連付けて人物202Aの類似度をメモリ装置132に記憶する
Here, since both the conditions of the identity of the distance and the identity of the area are satisfied, the identity determination unit 406 determines that the person 202F of the frame B and the person 202A of the frame A are the same person, The degree of similarity of the person 202A is stored in the memory device 132 in association with 202F.

同様に、同一性判断部406は、人物202Gの顔と人物202Bの顔、人物202H
の顔と人物202Cの顔、人物202Iの顔と人物202Dの顔がそれぞれ同一人物の顔
であると判断し、それぞれの類似度を関連付けてメモリ装置132に記憶する。
Similarly, the identity determination unit 406 includes the face of the person 202G, the face of the person 202B, and the person 202H.
And the face of the person 202C and the face of the person 202I and the face of the person 202D are determined to be the faces of the same person, and the respective similarities are associated and stored in the memory device 132.

同一性判断部406は、現在のフレームから例えば29フレーム前のフレームまで、連
続する2つのフレームを比較して、撮像時刻が新しいものから古いものへ順次、同様の処
理を繰り返す。ここでは説明を簡単にするため、2フレームより前の処理は省略する。
The identity determination unit 406 compares two consecutive frames from the current frame to, for example, 29 frames before, and repeats the same processing sequentially from the newest imaging time to the oldest. Here, in order to simplify the description, processing prior to two frames is omitted.

例えば、処理を進めていく中でフレームB(現在のフレーム)に含まれる人物202と
同一と判断される人物202が存在しないフレームCがあった場合、フレームC以前には
その人物202は存在しないと判断し、当該人物202についての距離算出部404によ
る距離算出処理、同一性判断部406による同一性判断処理は行わない。
For example, when there is a frame C in which there is no person 202 that is determined to be the same as the person 202 included in the frame B (current frame) during the process, the person 202 does not exist before the frame C. Therefore, the distance calculation process by the distance calculation unit 404 and the identity determination process by the identity determination unit 406 are not performed for the person 202.

従って、類似度算出部182は、フレームBの人物202Eの類似度を算出する際、2
9フレーム前までの類似度を参照するが、同一人物と判断される人物がいなかったため、
類似度は、フレームBの人物202Eのみが持つ特徴量から算出された値となる。
Accordingly, the similarity calculation unit 182 calculates the similarity of the person 202E in the frame B when 2
Refers to the similarity up to 9 frames before, but there was no person judged to be the same person,
The similarity is a value calculated from the feature amount of only the person 202E in the frame B.

一方、人物202Fの類似度は、フレームAやそれ以前のフレームで同一人物と判断さ
れる人物202Aが存在するため、メモリ装置132に登録されている人物202Aの類
似度やそれ以前のフレームで同一人物と判断された人物202の類似度を全て参照して算
出される。類似度算出部182は、参照した全ての類似度から最大値となる類似度(最大
類似度)を算出し、その最大類似度をフレームBの人物202Fの類似度とする。
On the other hand, the similarity of the person 202F is the same in the similarity of the person 202A registered in the memory device 132 and in the previous frame because there is the person 202A who is determined to be the same person in the frame A and the previous frame. It is calculated with reference to all similarities of the person 202 determined to be a person. The similarity calculation unit 182 calculates the maximum similarity (maximum similarity) from all the similarities referred to, and sets the maximum similarity as the similarity of the person 202F in frame B.

類似度比較部184は、類似度算出部182が算出した最大類似度を参照して、所定閾
値と比較する。人物202Fの顔の場合、最大類似度が所定閾値よりも大きいので、座標
特定部186は、この最大類似度に応じた色データ(青色)と、人物202Fの顔の近傍
で人物202E、202F、202G、202H、202Iの顔の占有領域を除いた領域
の座標データを画像重畳部190に送信する。画像重畳部190は、送られてきた色デー
タと座標データから、青色の矢印図形を画像データに重畳して液晶モニターに表示する(
矢印300A)。
The similarity comparison unit 184 refers to the maximum similarity calculated by the similarity calculation unit 182 and compares it with a predetermined threshold. In the case of the face of the person 202F, the maximum similarity is larger than a predetermined threshold value, so the coordinate specifying unit 186 uses the color data (blue) corresponding to the maximum similarity and the persons 202E, 202F, 202F near the face of the person 202F. The coordinate data of the areas excluding the occupied areas of the faces 202G, 202H, and 202I are transmitted to the image superimposing unit 190. The image superimposing unit 190 superimposes a blue arrow figure on the image data from the received color data and coordinate data and displays the image on the liquid crystal monitor (
Arrow 300A).

同様に、人物202GはフレームAの人物202Bやそれ以前のフレームで同一人物と
判断された人物202の顔の類似度を参照し、その最大値をフレームBの類似度とするが
、人物202Gの顔の場合、最大類似度が所定閾値よりも小さいため、特別な処理は行わ
れない。人物202Hの顔については最大類似度が95となるので、赤色の矢印図形を画
像データに重畳して液晶モニターに表示する(矢印300B)。人物202Iは、人物2
02Gと同様に、過去のフレームを参照しても類似度が低いため、人物202Iの顔の場
合には特別な処理を行わない。
Similarly, the person 202G refers to the similarity of the face of the person 202B of the frame A and the person 202 determined to be the same person in the previous frame, and uses the maximum value as the similarity of the frame B. In the case of a face, since the maximum similarity is smaller than a predetermined threshold value, no special processing is performed. Since the maximum similarity is 95 for the face of the person 202H, a red arrow graphic is superimposed on the image data and displayed on the liquid crystal monitor (arrow 300B). Person 202I is person 2
Similar to 02G, since the degree of similarity is low even when referring to a past frame, no special processing is performed for the face of the person 202I.

このように、現在のフレームのみならず、直前の29フレーム前からの複数のフレーム
を参照して画面内の顔の類似度を算出し、被写体の類似度の算出精度を向上させる。かか
る構成により、例えば被写体が顔の向きを変えた場合などの細かな動作によって、本来の
類似度が不意に落ち込んでしまい指標が煩雑に変化する現象を回避することができ、安定
した類似度を通じた安定した指標によって適切かつ確実に所望する被写体を撮像すること
が可能となる。
In this way, not only the current frame but also a plurality of frames from the previous 29 frames are referred to calculate the similarity of the face in the screen, and the accuracy of calculating the similarity of the subject is improved. With such a configuration, it is possible to avoid a phenomenon in which the original similarity suddenly falls down due to a fine operation such as when the subject changes the direction of the face, and the index changes complicatedly. It is possible to capture an image of a desired subject appropriately and reliably with a stable index.

さらに、類似度算出の際、距離の同一性と面積の同一性があると判断された、直前の2
9のフレームにおける1または複数の顔の類似度と現在のフレームにおける顔の類似度と
の最大値を類似度として算出することで、被写体の動作や外的要因で瞬時的に類似度が落
ち込むような場合においても、所定数前からのフレーム内で最大となる類似度を維持する
ことができ、その類似度変動の影響を排除することができる。
Further, when calculating the similarity, it is determined that there is the sameness of the distance and the sameness of the area.
By calculating the maximum value of the similarity of one or a plurality of faces in the nine frames and the similarity of the face in the current frame as the similarity, the similarity may be instantaneously reduced due to the movement of the subject or external factors. Even in such a case, it is possible to maintain the maximum similarity within a frame from a predetermined number before, and to eliminate the influence of the similarity variation.

なお、本実施例ではフレーム間での人物の同一性の判断に、距離の同一性および面積の
同一性を用いた。人物の同一性の判断には、これ以外にも、非特許文献「映像情報メディ
ア学会誌Vol.62,No.6,pp849〜855」に解説されている物体追跡法(例えば、Particl Filt
erによる物体追跡)を用いて、追跡が有効にできている場合を同一人物と判断するように
しても良い。
In this embodiment, the identity of the distance and the identity of the area are used to determine the identity of the person between the frames. In addition to this, the object tracking method described in the non-patent document “Journal of the Institute of Image Information and Television Engineers Vol. 62, No. 6, pp 849-855” (for example, Particl Filt
The object tracking may be determined as the same person using tracking of the object by er).

(撮像方法)
図8は、第2の実施形態における撮像方法の処理の流れを説明したフローチャートであ
る。第1の実施形態において図5を用いて既に説明した処理に関しては、同一の符号を付
しその説明を省略する。
(Imaging method)
FIG. 8 is a flowchart for explaining the processing flow of the imaging method according to the second embodiment. The processes already described with reference to FIG. 5 in the first embodiment are denoted by the same reference numerals and the description thereof is omitted.

図5における類似度算出ステップ(S310)、類似度と所定閾値とを比較するステッ
プ(S312)は、図8では、それぞれ最大類似度算出ステップ(S500)、最大の類
似度と所定閾値とを比較するステップ(S518)に置き換えている。
In FIG. 5, the similarity calculation step (S310) and the step of comparing the similarity with a predetermined threshold (S312) are respectively compared with the maximum similarity calculation step (S500) and the maximum similarity with a predetermined threshold in FIG. This is replaced with the step (S518).

第1の実施形態における撮像方法と異なり、第2の実施形態における撮像方法では、直
前の複数フレームと現在のフレームのうち最大の類似度と所定閾値を比較して(S518
)、矢印描画の対象となる顔を判断する。こうして、本来の類似度が不意に落ち込んでし
まい指標が煩雑に変化する現象を回避することができ、安定した類似度を通じた安定した
指標によって適切かつ確実に所望する被写体を撮像することが可能となる。
Unlike the imaging method according to the first embodiment, the imaging method according to the second embodiment compares the maximum similarity between a plurality of immediately preceding frames and the current frame with a predetermined threshold (S518).
), And determines the face to be drawn by the arrow. In this way, it is possible to avoid a phenomenon in which the original similarity suddenly falls and the index changes complicatedly, and it is possible to capture a desired subject appropriately and reliably with a stable index through a stable similarity. Become.

図9は、図8における最大類似度算出ステップ(S500)の具体的な処理の流れを示
したフローチャートである。
FIG. 9 is a flowchart showing a specific processing flow of the maximum similarity calculation step (S500) in FIG.

第1の実施形態と同様に、ユーザが指定した特定の人物の特徴量を特徴量記憶部160
から取得し、現在のフレームの顔の1つから取得した特徴量との類似度を算出する(S5
02)。
Similar to the first embodiment, the feature amount storage unit 160 stores the feature amount of a specific person designated by the user.
And the similarity with the feature quantity obtained from one of the faces of the current frame is calculated (S5).
02).

さらに、メモリ装置132から1つ前のフレームの各顔の画面内における座標や占有面
積などの情報を取得する(S504)。距離算出部404は、当該顔と各顔の相対距離を
その座標から算出し(S506)、距離の同一性を判断する。距離の同一性がある顔があ
った場合(S508YES)、距離の同一性がある顔すべてについて、占有面積の差の絶
対値から面積の同一性を判断する。面積の同一性があれば(S510YES)、面積の同
一性がある顔すべてを同一人物と判断し、それぞれ対応する顔の1つ前のフレームの類似
度を最新のフレームの類似度と関連付けて保存する(S512)。
Furthermore, information such as the coordinates and occupied area in the screen of each face of the previous frame is acquired from the memory device 132 (S504). The distance calculation unit 404 calculates the relative distance between the face and each face from the coordinates (S506), and determines the identity of the distance. If there is a face having the same identity (YES in S508), the identity of the area is determined from the absolute value of the difference in occupied area for all the faces having the same identity. If there is area identity (S510 YES), all faces with area identity are determined to be the same person, and the similarity of the frame immediately before the corresponding face is stored in association with the similarity of the latest frame. (S512).

1つ前のフレームに含まれるすべての顔との距離の同一性がなかったり(S508NO
)、すべての顔との占有面積の同一性がなかったりした場合(S510NO)、その前フ
レームには当該人物は存在せず、最新のフレームから当該人物が現れたと判断しそれ以上
過去のフレームは参照しない。
There is no identity of the distance with all faces included in the previous frame (S508 NO)
), If the area occupied by all faces is not identical (NO in S510), the person does not exist in the previous frame, and it is determined that the person has appeared from the latest frame. Do not refer.

前のフレームの類似度を保存した(S512)後、その時点で現在のフレームから29
フレーム前のフレームまで処理を行ったかどうか判定され(S514)、29フレームに
至っていない場合(S514YES)、さらに1つ前のフレームの情報を取得し(S50
4)、直前まで処理していた2フレームのうち古いフレームと比較して、最大29フレー
ム分の類似度を導出する。
After storing the similarity of the previous frame (S512), 29
It is determined whether or not processing has been performed up to the previous frame (S514). If 29 frames have not been reached (YES in S514), information on the previous frame is acquired (S50).
4) Compared with the oldest frame out of the two frames processed up to immediately before, the degree of similarity for a maximum of 29 frames is derived.

現在のフレームから29フレーム前のフレームまで処理を完了した場合(S514NO
)、または同一人物がフレームに存在せず29より少ないフレームまでで処理を終えた場
合は、S514でメモリ装置132に登録した類似度を全て参照し、類似度の最大値を算
出する。
(第3の実施形態:画像信号再生装置600)
図10は、本実施形態にかかる画像信号再生装置600の構成を示すブロック図である
。画像信号再生装置600は、操作部602と、メモリ装置132と、画像記憶部124
と、画像出力部130と、画像取得部604と、画像処理部606と、再生制御部608
とを含んで構成される。なお、画像記憶部124、画像取得部604、画像処理部606
、再生制御部608、画像出力部130は、システムバス136を介して接続されている
。上記画像記憶部124、画像出力部130、メモリ装置132は、第1の実施形態にお
いて既に述べたメモリ装置132と実質的に機能が同一なので重複説明を省略し、ここで
は画像信号再生装置600で構成が相違する点を主に説明する。
When processing has been completed from the current frame to 29 frames before (NO in S514)
), Or when the same person does not exist in the frame and the processing is completed up to 29 frames, all the similarities registered in the memory device 132 are referred to in S514, and the maximum value of the similarities is calculated.
(Third Embodiment: Image Signal Reproducing Device 600)
FIG. 10 is a block diagram showing a configuration of an image signal reproduction device 600 according to the present embodiment. The image signal reproduction device 600 includes an operation unit 602, a memory device 132, and an image storage unit 124.
An image output unit 130, an image acquisition unit 604, an image processing unit 606, and a reproduction control unit 608.
It is comprised including. The image storage unit 124, the image acquisition unit 604, and the image processing unit 606
The reproduction control unit 608 and the image output unit 130 are connected via a system bus 136. The image storage unit 124, the image output unit 130, and the memory device 132 have substantially the same functions as those of the memory device 132 already described in the first embodiment, and thus redundant description is omitted. Here, the image signal reproduction device 600 is used. The difference in configuration will be mainly described.

上述した撮像装置100および400は、自機と一体に構成された液晶モニタ108を通じて画像を表示したが、画像信号再生装置600は、別体としての構成される外部のモニタ622を通じて、画像を表示する。また、操作部602は、ユーザ入力に応じて再生、停止、早送り、巻き戻しなどの操作を受け付ける。また、本実施形態では、撮像装置100と同様に、ユーザが画面内で探し出したい特定の人物を指定する際にも用いられる。   The above-described imaging apparatuses 100 and 400 display images through the liquid crystal monitor 108 that is configured integrally with the image capturing apparatus 100 and 400. However, the image signal reproduction apparatus 600 displays images through an external monitor 622 that is configured separately. To do. The operation unit 602 accepts operations such as playback, stop, fast forward, and rewind according to user input. Further, in the present embodiment, as with the imaging apparatus 100, it is also used when the user designates a specific person that the user wants to find on the screen.

画像取得部604は、DVDやHDなどの記録媒体156からMPEG−2、MPEG
−4、MPEG−4/AVC等の形式で圧縮された画像データを取得する。画像処理部6
06は、画像取得部604から圧縮された画像データを取得し、伸長復元する処理を実行
する。
The image acquisition unit 604 receives MPEG-2, MPEG from a recording medium 156 such as DVD or HD.
-4, and image data compressed in a format such as MPEG-4 / AVC. Image processing unit 6
In step 06, compressed image data is acquired from the image acquisition unit 604 and decompressed / restored.

再生制御部608は、半導体集積回路により画像信号再生装置600全体を管理および
制御し、再生などに必要となる各種演算を実行する。また、第2の実施形態における撮像
装置400の撮像制御部402と同様に、顔抽出部180、類似度算出部182、類似度
比較部184、座標特定部186、タイマー部188、距離算出部402、同一性判断部
404として機能する。
(画像信号再生方法)
図11は、本実施形態における画像信号再生方法の流れを示したフローチャートである
。ユーザが予め登録しておいた人物202の画像から1または複数の特定の人物202を
指定し(S300)画像信号の再生を開始する(S700)。以降の処理の流れは、図8
で示した第2の実施形態における撮像方法の流れを示したフローチャートと実質的に同様
であり、説明は省略する。
The reproduction control unit 608 manages and controls the entire image signal reproduction apparatus 600 using a semiconductor integrated circuit, and executes various operations necessary for reproduction and the like. Further, similarly to the imaging control unit 402 of the imaging apparatus 400 in the second embodiment, the face extraction unit 180, the similarity calculation unit 182, the similarity comparison unit 184, the coordinate specification unit 186, the timer unit 188, and the distance calculation unit 402 , Functions as the identity determination unit 404.
(Image signal playback method)
FIG. 11 is a flowchart showing the flow of the image signal reproducing method in the present embodiment. One or more specific persons 202 are designated from images of the person 202 registered in advance by the user (S300), and reproduction of the image signal is started (S700). The subsequent processing flow is shown in FIG.
Is substantially the same as the flowchart showing the flow of the imaging method in the second embodiment shown in FIG.

また、本実施形態において、第1の実施形態や第2の実施形態と同様、直前の複数のフ
レーム間の同一性をフレーム内の距離や占有面積などから判断し、同一性があると判断さ
れた場合、直前の複数のフレームにおける類似度を用いて、例えば最大値となる類似度を
現在のフレームの類似度とする。さらに、指標を、1または複数の顔の類似度に応じて、
色彩、模様または形状を変化させ、画面内の人物の1または複数の顔と重ならない位置に
重畳する。
Further, in this embodiment, as in the first and second embodiments, the identity between a plurality of immediately preceding frames is determined from the distance in the frame, the occupied area, etc., and it is determined that there is identity. In this case, using the similarities in a plurality of immediately preceding frames, for example, the similarity having the maximum value is set as the similarity of the current frame. Furthermore, according to the similarity of one or more faces,
The color, pattern, or shape is changed and superimposed on a position that does not overlap one or more faces of the person on the screen.

既存の画像信号再生装置では、画面が切り換わる度に所望する人物を見つけ出すのに時
間を要したり、人物像が小さい場合など画面内の部分ズーム機能を使う場所を特定できな
かったりした場合があった。しかし、本実施形態において画像信号再生装置600は、画
面内の顔の特徴量と予め記憶された特定人物の顔の特徴量との類似度を算出し、所定閾値
よりも高い場合に指標を用いてその顔を指し示す。
With existing image signal playback devices, it may take time to find the desired person each time the screen is switched, or the location where the partial zoom function in the screen is used cannot be specified, such as when the person image is small. there were. However, in the present embodiment, the image signal reproduction device 600 calculates the similarity between the facial feature quantity in the screen and the facial feature quantity of the specific person stored in advance, and uses the index when it is higher than a predetermined threshold value. Point to the face.

かかる構成により、例えば、ドラマ映像などの再生時において、予め所望する俳優の画
像などを登録しておけば、場面転換で急に暗い場所の映像に切り替わった場合においても
、目や口の相対位置などの顔の特徴点を元に顔を認識するため、人間の目では確認できな
いような視認性の悪い映像でも、ユーザは、指標に基づいて迅速にその俳優を見つけ出す
ことができる。
With such a configuration, for example, when a drama video or the like is reproduced, if the desired actor's image is registered in advance, the relative position of the eyes and mouth even when the scene is suddenly switched to a video in a dark place. Since the face is recognized based on the facial feature points such as, even in a video with poor visibility that cannot be confirmed by human eyes, the user can quickly find the actor based on the index.

特に、著名な監督や俳優が意外なエキストラとして出演している場合に、確実にその監
督や俳優を捕捉することができる。
In particular, when a famous director or actor appears as an unexpected extra, the director or actor can be reliably captured.

また、画面内の部分ズーム機能を利用する場合においても、特に見たい対象の人物の候
補を1つに絞らずに画面内の複数の人物の顔に指標を表示させ、実際にどの人物像を再生
対象とするかの判断をユーザに委ねる。ここでは、その判断をユーザに敢えて委ねること
で、機械が万が一誤った人物像を最も確からしい人物と判断したとしても、最終的な人物
の選択をユーザに実行させるので、ユーザの意志を確実に反映することが可能となる。
Also, even when using the partial zoom function in the screen, an index is displayed on the faces of a plurality of people in the screen without narrowing down the candidate for the target person to be seen, and which person image is actually It is left to the user to decide whether or not to reproduce. Here, by delegating the decision to the user, even if the machine determines that the wrong person image is the most probable person, the final selection of the person is executed by the user, so that the user's will is surely confirmed. It can be reflected.

さらに、予め再生して類似度が最も高い顔の人物像が、特に見たい対象の人物であるこ
とを確認した上で、ズーム機能と本実施形態の機能を併用し、最も類似度の高い人物像を
継続してズーム表示することも可能である。
Furthermore, after confirming that the face image with the highest degree of similarity reproduced in advance is the person to be specifically viewed, the person with the highest degree of similarity is used by combining the zoom function and the function of this embodiment. It is also possible to continuously zoom the image.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は
かかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲
に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであ
り、それらについても当然に本発明の技術的範囲に属するものと了解される。
As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

なお、本明細書の撮像方法や画像信号再生方法における各工程は、必ずしもフローチャ
ートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブル
ーチンによる処理を含んでもよい。
Note that each step in the imaging method and the image signal reproduction method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.

本発明は、動画像の撮像装置および撮像方法に利用することができる。   The present invention can be used in a moving image imaging apparatus and an imaging method.

100 …撮像装置
108 …液晶モニター(モニター)
130 …画像出力部
132 …メモリ装置
146 …撮像素子
160 …特徴量記憶部
162 …指標テーブル
180 …顔抽出部
182 …類似度算出部
184 …類似度比較部
190 …画像重畳部
400 …撮像装置
406 …同一性判断部
600 …画像信号再生装置
604 …画像取得部
100: Imaging device 108 ... Liquid crystal monitor (monitor)
DESCRIPTION OF SYMBOLS 130 ... Image output part 132 ... Memory device 146 ... Image sensor 160 ... Feature-value memory | storage part 162 ... Index table 180 ... Face extraction part 182 ... Similarity calculation part 184 ... Similarity comparison part 190 ... Image superimposition part 400 ... Imaging device 406 ... Identity determination unit 600 ... Image signal reproduction device 604 ... Image acquisition unit

Claims (4)

特定の人物の顔の特徴量を記憶する特徴量記憶部と、
取得した画像信号における画面内の1または複数の顔を抽出する顔抽出部と、
抽出された1または複数の顔の特徴量を算出し、前記特定の人物の顔の特徴量との類似度をそれぞれ算出する類似度算出部と、
前記類似度と所定閾値とを比較する類似度比較部と、
画面内において、前記所定閾値以上の類似度を有する顔またはその周囲に、前記顔を特定する態様で指標を重畳する画像重畳部と、
前記指標を重畳した画像信号を出力する画像出力部と、
直前の所定数の画面における1または複数の顔と現在の画面における1または複数の顔との同一性を判断する同一性判断部とを備え、
前記類似度算出部は、同一性があると判断された、直前の所定数の画面における1または複数の顔の類似度も用いて、現在の画面の1または複数の顔の類似度を算出し、
前記指標は、前記1または複数の顔の類似度に応じて、色彩、模様または形状を変化させることを特徴とする画像信号再生装置。
A feature amount storage unit for storing a feature amount of a face of a specific person;
A face extraction unit for extracting one or more faces in the screen in the acquired image signal;
A degree-of-similarity calculating unit that calculates one or a plurality of extracted facial feature quantities and calculates a similarity degree to the facial feature quantity of the specific person;
A similarity comparison unit for comparing the similarity with a predetermined threshold;
An image superimposing unit that superimposes an index in a manner that identifies the face on or around the face having a similarity equal to or greater than the predetermined threshold in the screen;
An image output unit that outputs an image signal on which the index is superimposed ;
An identity determination unit that determines the identity of one or more faces on a predetermined number of previous screens and one or more faces on the current screen;
The similarity calculation unit calculates the similarity of one or more faces on the current screen using also the similarity of one or more faces on a predetermined number of previous screens determined to be identical. ,
The image signal reproducing apparatus, wherein the index changes a color, a pattern, or a shape according to the similarity of the one or more faces.
取得した画像信号における画面内の1または複数の顔を抽出し、
抽出された1または複数の顔の特徴量を算出し、取得した特定の人物の顔の特徴量との類似度をそれぞれ算出し、
直前の所定数の画面における1または複数の顔と現在の画面における1または複数の顔との同一性を判断し、
同一性があると判断された、直前の所定数の画面における1または複数の顔の特徴量と取得した特定の人物の顔の特徴量との類似度も用いて、現在の画面の1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度を算出し、前記現在の画面の1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度と、所定閾値とを比較し、
画面内において、前記所定閾値以上の類似度を有する顔またはその周囲に、前記顔を特定する態様で前記1または複数の顔の類似度に応じて、色彩、模様または形状を変化させて指標を重畳し、前記指標を重畳した画像信号を出力することを特徴とする画像信号再生方法。
Extract one or more faces in the screen from the acquired image signal,
Calculating the extracted feature quantity of one or more faces, calculating the degree of similarity with the acquired facial feature quantity of the specific person,
Determining the identity of one or more faces on the previous predetermined number of screens and one or more faces on the current screen,
One or more of the current screen using the similarity between the feature quantity of one or more faces on a predetermined number of previous screens determined to be identical and the acquired face feature quantity of a specific person The degree of similarity between the facial feature quantity of the particular person and the facial feature quantity of the specific person is calculated, and the similarity degree between the one or more facial feature quantities of the current screen and the facial feature quantity of the specific person And a predetermined threshold value,
In the screen, an index is displayed by changing the color, pattern, or shape in accordance with the similarity of the one or more faces in a manner that identifies the face on or around the face having the similarity equal to or greater than the predetermined threshold. An image signal reproduction method comprising: superposing and outputting an image signal on which the index is superimposed.
特定の人物の顔の特徴量を記憶する特徴量記憶部と、
被写体像を光電変換し画像信号を生成する撮像素子と、
前記画像信号における画面内の1または複数の顔を抽出する顔抽出部と、
抽出された1または複数の顔の特徴量を算出し、前記特定の人物の顔の特徴量との類似度をそれぞれ算出する類似度算出部と、
前記類似度と所定閾値とを比較する類似度比較部と、
画面内において、前記所定閾値以上の類似度を有する顔またはその周囲に、前記顔を特定する態様で指標を重畳する画像重畳部と、
モニターと、
前記指標を重畳した画像信号を前記モニターに出力する画像出力部と、
直前の所定数の画面における1または複数の顔と現在の画面における1または複数の顔との同一性を判断する同一性判断部とを備え、
前記類似度算出部は、同一性があると判断された、直前の所定数の画面における1または複数の顔の類似度も用いて、現在の画面の1または複数の顔の類似度を算出し、
前記指標は、前記1または複数の顔の類似度に応じて、色彩、模様または形状を変化させることを特徴とする撮像装置。
A feature amount storage unit for storing a feature amount of a face of a specific person;
An image sensor that photoelectrically converts a subject image to generate an image signal;
A face extraction unit for extracting one or more faces in the screen in the image signal;
A degree-of-similarity calculating unit that calculates one or a plurality of extracted facial feature quantities and calculates a similarity degree to the facial feature quantity of the specific person;
A similarity comparison unit for comparing the similarity with a predetermined threshold;
An image superimposing unit that superimposes an index in a manner that identifies the face on or around the face having a similarity equal to or greater than the predetermined threshold in the screen;
A monitor,
An image output unit that outputs an image signal superimposed with the index to the monitor;
An identity determination unit that determines the identity of one or more faces on a predetermined number of previous screens and one or more faces on the current screen;
The similarity calculation unit calculates the similarity of one or more faces on the current screen using also the similarity of one or more faces on a predetermined number of previous screens determined to be identical. ,
The imaging apparatus is characterized in that a color, a pattern, or a shape is changed according to the similarity of the one or more faces.
特定の人物の顔の特徴量を取得し、
被写体像を光電変換し画像信号を生成し、
前記画像信号における画面内の1または複数の顔を抽出し、
抽出された1または複数の顔の特徴量を算出し、
直前の所定数の画面における1または複数の顔と現在の画面における1または複数の顔との同一性を判断し、
同一性があると判断された、直前の所定数の画面における1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度も用いて、 現在の画面の1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度を算出し、
前記現在の画面の1または複数の顔の特徴量と前記特定の人物の顔の特徴量との類似度と所定閾値とを比較し、
画面内において、前記所定閾値以上の類似度を有する顔またはその周囲に、前記顔を特定する態様で前記1または複数の顔の類似度に応じて、色彩、模様または形状を変化させて指標を重畳することを特徴とする撮像方法。
Get the facial features of a specific person ,
Photoelectrically convert the subject image to generate an image signal,
Extracting one or more faces in the screen in the image signal;
Calculating the extracted feature quantity of one or more faces,
Determining the identity of one or more faces on the previous predetermined number of screens and one or more faces on the current screen,
Using the degree of similarity between the feature quantity of one or more faces on the predetermined number of previous screens determined to be identical and the feature quantity of the face of the specific person, one or more of the current screen calculating a similarity between the feature quantity and the feature quantity of the face of a specific person's face,
Comparing the similarity between the feature quantity of one or more faces of the current screen and the feature quantity of the face of the specific person and a predetermined threshold;
In the screen, an index is displayed by changing the color, pattern, or shape in accordance with the similarity of the one or more faces in a manner that identifies the face on or around the face having the similarity equal to or greater than the predetermined threshold. An imaging method characterized by superimposing.
JP2012028914A 2012-02-13 2012-02-13 Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method Expired - Fee Related JP5375988B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012028914A JP5375988B2 (en) 2012-02-13 2012-02-13 Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012028914A JP5375988B2 (en) 2012-02-13 2012-02-13 Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008202457A Division JP5029529B2 (en) 2008-08-05 2008-08-05 Imaging apparatus, imaging method, image signal reproducing apparatus, and image signal reproducing method

Publications (2)

Publication Number Publication Date
JP2012105358A JP2012105358A (en) 2012-05-31
JP5375988B2 true JP5375988B2 (en) 2013-12-25

Family

ID=46395105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012028914A Expired - Fee Related JP5375988B2 (en) 2012-02-13 2012-02-13 Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method

Country Status (1)

Country Link
JP (1) JP5375988B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6334767B1 (en) 2017-03-21 2018-05-30 株式会社東芝 Information processing apparatus, program, and information processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281157A (en) * 2002-03-19 2003-10-03 Toshiba Corp Person retrieval system, person tracing system, person retrieval method and person tracing method
JP2005341449A (en) * 2004-05-31 2005-12-08 Toshiba Corp Digital still camera
JP4877762B2 (en) * 2006-07-19 2012-02-15 株式会社ソニー・コンピュータエンタテインメント Facial expression guidance device, facial expression guidance method, and facial expression guidance system

Also Published As

Publication number Publication date
JP2012105358A (en) 2012-05-31

Similar Documents

Publication Publication Date Title
CN106575027B (en) Image pickup apparatus and subject tracking method thereof
JP5592006B2 (en) 3D image processing
JP5251215B2 (en) Digital camera
US9367746B2 (en) Image processing apparatus for specifying an image relating to a predetermined moment from among a plurality of images
KR101913837B1 (en) Method for providing Panoramic image and imaging device thereof
US9025044B2 (en) Imaging device, display method, and computer-readable recording medium
US9712750B2 (en) Display control device and associated methodology of identifying a subject in an image
JP5612774B2 (en) Tracking frame initial position setting device and operation control method thereof
JP2011527841A (en) Image processing apparatus and imaging apparatus using the same
JPWO2014046184A1 (en) Apparatus and method for measuring distance of multiple subjects
JP2010239447A (en) Image capturing apparatus, image processing method, and program
JP2009213114A (en) Imaging device and program
JP5003666B2 (en) Imaging apparatus, imaging method, image signal reproducing apparatus, and image signal reproducing method
JP2013098746A (en) Imaging apparatus, imaging method, and program
JP5375988B2 (en) Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method
JP2015019397A (en) Imaging synthesizing apparatus, image synthesizing method and program
JP5029529B2 (en) Imaging apparatus, imaging method, image signal reproducing apparatus, and image signal reproducing method
JP5246358B2 (en) Image signal reproducing apparatus and image signal reproducing method
JP5533241B2 (en) Movie playback device, movie playback method and program
JP7353821B2 (en) Image processing device, its control method, program
JP2015041865A (en) Image processing apparatus and image processing method
JP2012157010A (en) Imaging apparatus and imaging method
JP2011119934A (en) Image shooting device and image shooting method
JP2011101161A (en) Imaging device, control method of the same, reproducing device, and program
KR20160078878A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130909

R150 Certificate of patent or registration of utility model

Ref document number: 5375988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

LAPS Cancellation because of no payment of annual fees