JP2011053951A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2011053951A JP2011053951A JP2009202799A JP2009202799A JP2011053951A JP 2011053951 A JP2011053951 A JP 2011053951A JP 2009202799 A JP2009202799 A JP 2009202799A JP 2009202799 A JP2009202799 A JP 2009202799A JP 2011053951 A JP2011053951 A JP 2011053951A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- area
- subject
- face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、動画像に係る画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for moving images.
従来、静止画像から特定の被写体パターンを自動的に検出する画像処理方法は、非常に有用であり、例えば人間の顔の判定に利用されている。このような画像処理方法は、通信会議、マン・マシン・インタフェース、セキュリティ、人間の顔を追跡するためのモニタ・システム、画像圧縮等の多くの分野で使用することができる。 2. Description of the Related Art Conventionally, an image processing method for automatically detecting a specific subject pattern from a still image is very useful, and is used for, for example, determination of a human face. Such an image processing method can be used in many fields such as a teleconference, a man-machine interface, security, a monitor system for tracking a human face, and image compression.
近年、動画像からの被写体の検出が行われており、動画像に対して顔の検出を実時間に行うために、時間的に変化していない領域の判定を行い、その領域を顔の検出処理から除外する方法が開示されている(例えば、特許文献1参照)。 In recent years, detection of a subject from a moving image has been performed. In order to detect a face in a moving image in real time, an area that has not changed in time is determined, and the area is detected. A method of excluding from processing is disclosed (for example, see Patent Document 1).
しかしながら、上述した方法では、動画像における被写体の認識に係る画像処理時間の短縮には効果があるが、動画像における被写体の認識の精度を向上させることが困難である。 However, the above-described method is effective in shortening the image processing time related to the recognition of the subject in the moving image, but it is difficult to improve the accuracy of the recognition of the subject in the moving image.
本発明はこのような問題点に鑑みなされたもので、動画像における被写体の認識の精度を向上させることを目的とする。 The present invention has been made in view of such problems, and an object thereof is to improve the accuracy of recognition of a subject in a moving image.
そこで、本発明は、動画像に係る第1のフレームと該第1のフレームに後続する第2のフレームとの間で、画像情報が変化している領域を抽出する抽出手段と、前記第1のフレームでの被写体の検出に関する被写体領域と前記抽出手段で抽出された領域とに基づいて、前記第2のフレームの探索領域を設定する設定手段と、前記設定手段で設定された前記第2のフレームの探索領域内で被写体を判別する判別手段と、を有することを特徴とする。 Therefore, the present invention provides an extraction unit that extracts an area in which image information changes between a first frame relating to a moving image and a second frame following the first frame, and the first unit Setting means for setting the search area of the second frame based on the subject area relating to the detection of the subject in the frame and the area extracted by the extracting means, and the second set by the setting means Discriminating means for discriminating a subject within a frame search area.
本発明によれば、動画像における被写体の認識の精度を向上させることができる。 According to the present invention, it is possible to improve the accuracy of recognition of a subject in a moving image.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1の(a)は、本実施形態に係る画像処理装置のハードウェア構成を示す図である。画像処理装置は、CPU(Central Processing Unit)1、記憶装置2、入力装置3、出力装置4、及び撮像装置5を含んで構成される。なお、各装置は、互いに通信可能に構成され、バス等により接続されている。
FIG. 1A is a diagram illustrating a hardware configuration of the image processing apparatus according to the present embodiment. The image processing apparatus includes a CPU (Central Processing Unit) 1, a
CPU1は、画像処理装置の動作をコントロールし、記憶装置2に格納されたプログラムの実行等を行う。
記憶装置2は、磁気記憶装置、半導体メモリ等のストレージデバイスであり、CPU1の動作に基づき読み込まれたプログラム、長時間記憶しなくてはならないデータ等を記憶する。
本実施形態では、CPU1が、記憶装置2に格納されたプログラムの手順に従って処理を行うことによって、画像処理装置における機能及び後述するフローチャートに係る処理が実現される。
The CPU 1 controls the operation of the image processing apparatus and executes a program stored in the
The
In the present embodiment, the CPU 1 performs processing according to the procedure of the program stored in the
入力装置3は、マウス、キーボード、タッチパネルデバイス、ボタン等であり、各種の指示を入力する。
出力装置4は、液晶パネル、外部モニタ、スピーカ等であり、各種の情報を出力する。
撮像装置5は、カムコーダ等であり、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備える。なお、撮像装置5で撮像された動画像データは、記憶装置2等に記憶される。また、動画像は、一連の複数のフレームを含んで構成され、各フレームに対応する静止画像を有している。
The
The output device 4 is a liquid crystal panel, an external monitor, a speaker, or the like, and outputs various types of information.
The
なお、画像処理装置のハードウェア構成は、これに限られるものではない。例えば、画像処理装置は、各種の装置間で通信を行うためのI/O装置を備えてもよい。なお、I/O装置は、メモリーカード、USBケーブル等の入出力部、有線又は無線による送受信部等である。 Note that the hardware configuration of the image processing apparatus is not limited to this. For example, the image processing device may include an I / O device for performing communication between various devices. The I / O device is an input / output unit such as a memory card or a USB cable, a wired or wireless transmission / reception unit, and the like.
図1の(b)は、本実施形態に係る画像処理装置の機能構成を示す図である。画像処理装置の処理及び機能は、画像入力部10、画像メモリ部20、画像縮小部30、照合パターン抽出部40、輝度補正部50、顔判別部60、顔確率分布統合部70、顔領域出力部80、変化領域抽出部90、及び探索領域設定部100により実現される。
FIG. 1B is a diagram illustrating a functional configuration of the image processing apparatus according to the present embodiment. The processing and functions of the image processing apparatus are as follows:
画像入力部10は、撮像装置5により撮像された動画像データを読込み、動画像データからフレームごとに画像データを抽出し、抽出した画像データを画像メモリ部20に入力する。なお、画像入力部10は、動画像データを記憶する記憶媒体から動画像データを読み込む構成でもよい。また、画像入力部10は、インターネット等を介してサーバ等に記憶された動画像データを読み込む構成でもよい。
画像メモリ部20は、記憶装置2に設けられる記憶領域である。画像メモリ部20は、画像入力部10から出力された画像データを一時的に記憶する。なお、画像メモリ部20が動画像データを一時的に記憶する構成を採用してもよい。
The
The
画像縮小部30は、画像メモリ部20に記憶されている動画像データの各フレームに対応する画像データを所定の倍率に従って縮小し、大きさの異なる複数の縮小画像を出力する。
照合パターン抽出部40は、画像縮小部30で縮小された画像データから所定の部分領域を照合対象のパターン(いわゆる照合パターン)として抽出する。
輝度補正部50は、照合パターン抽出部40で抽出された照合パターンの輝度分布を補正する。
顔判別部60は、照合パターン抽出部40で抽出され、輝度補正部50で補正された照合パターンが顔パターンであるか非顔パターンであるかを判別するための顔確率を出力する。
The
The collation
The
The face
顔確率分布統合部70は、複数の縮小画像から抽出された各部分領域に対応した顔確率の分布を保持し、複数のフレーム間の顔確率の分布を統合する。
顔領域出力部80は、顔確率分布統合部70による統合の結果に基づいて顔と判別される照合パターンに対応する部分領域を出力装置4等に出力する。
The face probability
The face
変化領域抽出部90は、被写体の動きにより、フレーム間での画像データ(画像情報)が変化する領域(変化領域)を出力する。
探索領域設定部100は、前フレームにおける顔確率分布統合部70の結果及び変化領域抽出部90で抽出されたフレーム間の変化領域から後フレームにおける探索領域を設定する。
The change
The search
図2は、画像処理装置の処理に係るフローチャートを示す図である。図2を参照して、初期フレームにおける画像処理装置の動作について説明する。 FIG. 2 is a flowchart illustrating processing performed by the image processing apparatus. The operation of the image processing apparatus in the initial frame will be described with reference to FIG.
まず、画像入力部10は、処理の対象とする画像データを画像メモリ部20に入力する(ステップS101)。
ここで、入力される画像データは、例えば8ビットの画素により構成される2次元配列のデータであり、R、G、B、3つの面により構成される。このとき、画像データがJPEG(Joint Photographic Experts Group)等の方式により圧縮されている場合は、圧縮に対応する解凍方式に従って画像データを解凍し、RGB各画素により構成される画像データとする。
さらに、本実施形態では、画像入力部10は、RGB各画素により構成される画像データに含まれる輝度データより、輝度成分からなる輝度画像データ(例えば、色差成分を排した画像データ)を生成し、以後の処理に適用する。なお、輝度画像データは、画像メモリ部20に記憶される。また、画像データとしてYCrCbのデータを入力する場合は、Y成分をそのまま輝度データとして採用し、輝度画像データが生成されてもよい。
First, the
Here, the input image data is, for example, two-dimensional array data composed of 8-bit pixels, and is composed of R, G, B, and three surfaces. At this time, when the image data is compressed by a method such as JPEG (Joint Photographic Experts Group), the image data is decompressed in accordance with a decompression method corresponding to the compression, and the image data is configured by RGB pixels.
Further, in the present embodiment, the
次に、画像縮小部30は、輝度画像データを画像メモリ部20から読み込み、所定の倍率に縮小した輝度画像データ(いわゆる縮小輝度画像データ)を生成する(ステップS102)。本実施形態では、所定の倍率に縮小した輝度画像データを生成して、複数のサイズの輝度画像データに対して順次検出を行う構成(例えば、参考文献1を参照のこと。)を採用しているので、様々な大きさの顔を検出できる。例えば、画像縮小部30は、倍率が1.2倍程度異なる画像への縮小処理を複数回行う。
参考文献1:Rowley et al, "Neural network-based face detection", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998
Next, the
Reference 1: Rowley et al, "Neural network-based face detection", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20, NO.1, JANUARY 1998
ここで、参考文献1では、ニューラルネットワークにより画像中の顔パターンを検出する方法が提案されている。以下、参考文献1による顔検出の方法について簡単に説明する。
まず、顔の検出を対象とする画像データがメモリに読み込まれ、顔と照合する所定の領域が読み込まれた画像から切り出される。そして、切り出された領域の画素値の分布を入力としてニューラルネットワークによる演算で一つの出力が得られる。このとき、ニューラルネットワークの重み及び閾値が、膨大な顔画像パターンと非顔画像パターンとにより予め学習されている。例えば、ニューラルネットワークの出力が0以上なら顔、それ以外は非顔であると判別される。そして、ニューラルネットワークの入力である顔と照合する画像パターンの切り出し位置が、例えば、画像全域から縦横順次に走査されていくことにより、画像中から顔が検出される。また、様々な大きさの顔の検出に対応するため、読み込んだ画像が所定の割合で順次縮小され、それに対して前述した顔検出の走査が行われるようにしている。
Here, Reference 1 proposes a method of detecting a face pattern in an image using a neural network. Hereinafter, a face detection method according to Reference 1 will be briefly described.
First, image data targeted for face detection is read into the memory, and a predetermined area to be matched with the face is cut out from the read image. Then, one output can be obtained by calculation using a neural network with the distribution of pixel values in the cut out region as an input. At this time, the weights and threshold values of the neural network are learned in advance using a huge number of face image patterns and non-face image patterns. For example, if the output of the neural network is 0 or more, it is determined that the face is non-face. Then, the face is detected from the image by, for example, scanning the cutout position of the image pattern to be collated with the face which is an input of the neural network in the vertical and horizontal directions from the entire image. Further, in order to cope with detection of faces of various sizes, the read images are sequentially reduced at a predetermined rate, and the above-described face detection scanning is performed on the images.
次に、照合パターン抽出部40は、縮小された輝度画像データから所定の大きさの部分領域を照合パターンとして抽出し、設定する(ステップS103)。
ここで、図3を参照して、照合パターンについて説明する。
図3に示すAの列は、画像縮小部30で縮小された夫々の縮小輝度画像を示し、ステップS103では、夫々の縮小輝度画像に対して所定の大きさの部分領域(例えば、矩形領域)が切り出される。すなわち、各縮小輝度画像には、同じ大きさの矩形領域が設定され、矩形領域が照合パターンとして順次抽出される。
また、図3に示すBの列は、夫々の縮小輝度画像から縦横順次に走査を繰り返していく途中の切り出しの様子を示している。図示するように、縮小率の大きな画像から照合パターンを切り出して顔の判別を行う場合には、画像に対して大きな領域において顔の検出を行うことになる。
Next, the collation
Here, the collation pattern will be described with reference to FIG.
The column A shown in FIG. 3 shows each reduced luminance image reduced by the
In addition, the column B shown in FIG. 3 shows a state of clipping in the middle of repeating scanning in the vertical and horizontal directions from each reduced luminance image. As shown in the drawing, when a face is discriminated by extracting a collation pattern from an image with a large reduction ratio, the face is detected in a large region with respect to the image.
次に、輝度補正部50は、照合パターン抽出部40で切り出された部分領域の輝度をその分布をもとに正規化する(ステップS104)。例えば、輝度補正部50は、ヒストグラム平滑化等の輝度補正を行う。撮像される被写体パターンがその照明条件によって輝度分布が変わるとしても、輝度を補正することにより、被写体における照合の精度が劣化するのを極力低減できる。
Next, the
次に、顔判別部60は、照合パターン抽出部40で抽出され、輝度補正部50で補正された照合パターンが顔パターンであるか非顔パターンであるかを判別すると共に、顔パターンであるか否か示す指標として顔確率を算出する(ステップS105)。
ここで、顔判別の方法は、公知の方法(例えば、参考文献1、2、3を参照のこと。)を用いてもよい。
参考文献2:Schneiderman and Kanade, "A statistical method for 3D object detection applied to faces and cars", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2000)
参考文献3:Viola and Jones, "Rapid Object Detection using Boosted Cascade of Simple Features", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01)
Next, the
Here, a known method (for example, refer to
Reference 2: Schneiderman and Kanade, "A statistical method for 3D object detection applied to faces and cars", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2000)
Reference 3: Viola and Jones, "Rapid Object Detection using Boosted Cascade of Simple Features", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01)
ここで、参考文献2では、照合パターンの顔確率を複数の見え方に関する統計的分布の統合モデルとして捉えて判別に係る処理を行っている。
また、参考文献3では、処理の高速化に着目し、AdaBoostを使って多くの弱判別器を有効に組合せて顔判別の精度を向上させる一方、夫々の弱判別器をHaarタイプの矩形特徴量で構成し、矩形特徴量の算出を、積分画像を利用して高速に行っている。また、AdaBoost学習によって得た判別器を直列に繋ぎ、カスケード型の顔検出器を構成するようにしている。このカスケード型の顔検出器は、まず前段の単純な判別器(すなわち計算量のより少ない判別器)を使って明らかに顔でないパターンの候補をその場で除去する。そして、それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な判別器(すなわち計算量のより多い判別器)を使って顔であるか否かの判定を行なう。このように、すべての候補に対して複雑な判定を行う必要がないので処理が高速となる。
Here, in
例えば、本実施形態では、ニューラルネットワークの出力値を顔確率の値として出力するようにする。ただし、顔確率として出力する値の精度を上げるために、ニューラルネットワークの出力値そのものでなく、ニューラルネットワークの出力値と顔確率の値との関係をテーブルに予め記憶しておき、テーブルを参照して顔確率の値を出力するようにしてもよい。なお、テーブルは、十分な数の顔画像パターンを予め用意し、用意したパターンのニューラルネットワークの出力値の統計的分布に基づいて作成することができる。
また、顔判別部として複数の判別器によって顔の判別を行う場合には、複数の判別器の出力値の加重平均等を算出して顔確率の値を出力するようにしてもよい。
For example, in this embodiment, the output value of the neural network is output as the face probability value. However, in order to increase the accuracy of the value output as the face probability, the relationship between the output value of the neural network and the value of the face probability is stored in advance in a table instead of the output value itself of the neural network, and the table is referred to. Then, the face probability value may be output. The table can be prepared based on the statistical distribution of the output values of the prepared neural network with a sufficient number of face image patterns prepared in advance.
When a face is discriminated by a plurality of discriminators as the face discriminating unit, a weighted average or the like of output values of the plurality of discriminators may be calculated to output a face probability value.
そして、顔確率分布統合部70は、顔判別部60で得た部分領域の顔確率を、予め記憶されている顔確率分布における対応する部分領域の値と統合して、顔確率分布を更新する(ステップS106)。
例えば、縮小倍率s、切り出し位置x、yにおける顔判別部60で得た顔確率をP(s,x,y)とする。ここで、顔確率分布における、縮小倍率s、切り出し位置x、yに対応する値(この場合、初期値で所定の値が設定されている)をPOLD(s,x,y)とすると、統合後の顔確率分布における値PNEW(s,x,y)は、以下の式(1)により算出される。ただし、αは、所定の統合パラメータであり、0<α<1を満たす。
Then, the face probability
For example, let P (s, x, y) be the face probability obtained by the
PNEW(s,x,y)=α・P(s,x,y)+(1−α)・POLD(s,x,y)・・・(1) P NEW (s, x, y) = α • P (s, x, y) + (1−α) • P OLD (s, x, y) (1)
ここで、ステップS103からステップS106までの処理が、画像縮小部30の出力である各縮小輝度画像に対して図3に示すように縦横順次に走査が繰り返される。また、倍率が異なる縮小処理が順次適用され、ステップS102からステップS106までの処理が繰り返される。
Here, in the processing from step S103 to step S106, scanning is repeated in the vertical and horizontal order as shown in FIG. 3 for each reduced luminance image output from the
そして、顔領域出力部80は、予め定められた複数種類の倍率での全ての縮小輝度画像において探索が終了した後、顔確率分布統合部70によって更新された顔確率分布における値が所定の値以上で、かつ、顔確率分布内で極大値(局所的な極大値であってもよい。)をとる領域を顔領域(被写体領域)として出力装置4等に出力する(ステップS107)。換言するならば、顔確率分布が縮小輝度画像ごとに設けられているので、顔領域出力部80は、縮小輝度画像ごとに顔領域を出力装置4等に出力し得る。
Then, the face
次に、図4を参照して、初期フレームの検出結果を用いて行う後続フレームにおける画像処理装置の動作について説明する。 Next, with reference to FIG. 4, the operation of the image processing apparatus in the subsequent frame performed using the detection result of the initial frame will be described.
まず、画像入力部10は、初期フレーム(例えば、第1のフレーム)に後続する後続フレーム(例えば、第2のフレーム)に対応する輝度画像データを画像メモリ部20に入力する(ステップS201)。
First, the
次に、抽出手段の一例である変化領域抽出部90は、被写体の動きによってフレーム間で輝度データが変化する領域(変化領域)を出力する(ステップS202)。
例えば、変化領域抽出部90は、各フレームの輝度画像の輝度値の差分演算を行い、輝度値の差が所定の閾値を超える画素が含まれる領域を変化領域とする。
より詳細には、変化領域抽出部90は、変化領域の画素と変化領域以外の領域の画素とを識別するために2値化処理を行う。さらに、画像ノイズの影響を低減するために、変化領域抽出部90は、2値化処理後の輝度画像データを所定の近傍領域の輝度画像データをもとに平滑化処理を繰り返し、所定面積以上の変化領域に統合していく。なお、変化領域抽出部90は、例えば、2値化処理後の輝度画像データに対してモルフォロジー的オープニング処理を行って変化領域を算出するようにしてもよい。
また、変化領域抽出部90は、各フレームの輝度画像の輝度値の差分をもとに変化領域を算出する構成に加えて又は代えて、各フレームのカラー画像から肌色確率の分布を抽出し、各フレームにおける肌色確率の差分をもとに変化領域を算出するようにしてもよい。なお、肌色確率は、肌色の確率分布を表した混合ガウスモデルにより行う方法(例えば、参考文献4を参照のこと。)等を適用して算出する。
参考文献4:Jones and Rehg, "Statistical color models with application to skin detection", International Journal of Computer Vision, VOL.46, NO.1, JANUARY 2002
Next, the change
For example, the change
More specifically, the change
Further, the change
Reference 4: Jones and Rehg, "Statistical color models with application to skin detection", International Journal of Computer Vision, VOL.46, NO.1, JANUARY 2002
また、固定カメラによって撮影された動画像の場合は、以上の簡単な処理により変化領域の抽出が可能であるが、カメラが固定されていない場合には、変化領域が必ずしも動被写体領域に対応しないので、以下の処理によって領域を抽出するようにしてもよい。この場合、まず、変化領域抽出部90は、複数フレームの輝度画像データから画像全域で動きベクトルの抽出を行う。そして、変化領域抽出部90は、動きベクトルの分布をもとにカメラの運動パラメータを算出する。さらに、変化領域抽出部90は、動きベクトルの分布から算出したカメラの運動パラメータに相当する移動量の補正を行い、カメラの動きと分離した被写体の動きによる動き成分を抽出する。そして、変化領域抽出部90は、この被写体の動きによる動き成分が所定の値以上の領域を変化領域とする。さらに、変化領域抽出部90は、抽出された変化領域に対して、前述したような画像ノイズの影響を考慮した平滑化の処理を行う。
なお、複数フレームの輝度画像データから動きベクトルを抽出して、カメラの運動パラメータを算出する方法については、公知の方法(例えば、参考文献5を参照のこと。)を用いることができる。
参考文献5:武川、宮島,「時系列画像からの3次元運動と形状解析」,コンピュータビジョン技術評論と将来展望,新技術コミュニケーションズ(1998)
In the case of a moving image shot by a fixed camera, the change area can be extracted by the above simple process. However, if the camera is not fixed, the change area does not necessarily correspond to the moving subject area. Therefore, you may make it extract an area | region by the following processes. In this case, first, the change
As a method for extracting motion vectors from luminance image data of a plurality of frames and calculating camera motion parameters, a known method (for example, see Reference 5) can be used.
Reference 5: Takekawa, Miyajima, “Three-dimensional motion and shape analysis from time-series images”, Computer vision technology review and future prospects, New Technology Communications (1998)
次に、設定手段の一例である探索領域設定部100は、前フレームにおける顔領域出力部80の結果(例えば顔領域)及び変化領域抽出部90で抽出されたフレーム間の変化領域から後フレームにおける探索領域を設定する(ステップS203)。
より具体的に説明すると、まず、探索領域設定部100は、顔領域出力部80で出力された領域を第1の探索領域として抽出する。そして、探索領域設定部100は、変化領域抽出部90で抽出されたフレーム間の変化領域を第2の探索領域として抽出する。ここで、縮小処理が行われている場合には、探索領域設定部100は、縮小処理により得られた輝度画像における領域に同様の縮小処理により変化領域を縮小した領域を設定し、第2の探索領域として抽出する。そして、探索領域設定部100は、第1の探索領域と第2の探索領域との論理和を探索領域として設定する。
なお、第1の探索領域として用いる領域(例えば顔領域)は、顔確率分布統合部70の出力である顔確率分布における値が所定の値以上の領域を全て用いるようにしてもよい。また、第1の探索領域は、顔領域に対する所定の近傍領域を含めた領域を出力するようにしてもよい。例えば、近傍領域は、顔領域に接する部分領域である。
Next, the search
More specifically, the search
It should be noted that as the region used as the first search region (for example, the face region), all regions in which the value in the face probability distribution that is the output of the face probability
次に、画像縮小部30は、輝度画像データを画像メモリ部20から読み込み、所定の倍率に縮小した輝度画像データを生成する(ステップS204)。
Next, the
次に、照合パターン抽出部40は、縮小された輝度画像データから抽出する所定の大きさの部分領域を設定し(ステップS205)、探索領域設定部100で設定された探索領域に属する領域であるか否かを判定する(ステップS206)。ここで、探索領域に属する領域とは、探索領域の一部又は全部を含む部分領域をいう。
Next, the collation
そして、ステップS205で設定した部分領域が探索領域に属する場合には、照合パターン抽出部40は、探索領域に属する部分領域を照合パターンとして抽出し、設定する(ステップS207)。ステップS205で設定した部分領域が探索領域に属さない場合には、ステップS205に処理が戻り、縦横順次に走査が繰り返される。なお、一の輝度画像又は一の縮小輝度画像について走査が終了した場合には、ステップS204に処理が戻る。
If the partial area set in step S205 belongs to the search area, the matching
次に、輝度補正部50は、ステップS104の処理と同様に、照合パターン抽出部40で切り出された部分領域の輝度をその分布をもとに正規化する(ステップS208)。
Next, the
次に、判別手段の一例である顔判別部60は、ステップS105の処理と同様に処理を行う(ステップS209)。すなわち顔判別部60は、照合パターン抽出部40で抽出され、輝度補正部50で補正された照合パターン(探索領域内で判別される被写体)が顔パターンであるか非顔パターンであるかを判別すると共に、顔確率を算出する。
Next, the
そして、統合手段の一例である顔確率分布統合部70は、ステップS106の処理と同様に処理を行う(ステップS210)。すなわち顔確率分布統合部70は、顔確率(後フレームの探索領域内での被写体の判別結果)と前フレームまでで算出した顔確率分布の部分領域が対応する値(後フレームの探索領域に対応する領域での被写体の判別結果)と統合して顔確率分布を更新する。顔判別部60で得た顔確率をP(s,x,y)、顔確率分布における値(この場合、前フレームまでの顔確率分布の統合結果)をPOLD(s,x,y)とすると、統合後の顔確率分布における値PNEW(s,x,y)は、上述の式(1)により算出される。
Then, the face probability
以上、ステップS205からステップS210までの処理が、画像縮小部30の出力である各縮小輝度画像に対して縦横順次に走査が繰り返される。また、倍率が異なる縮小処理が順次適用され、ステップS204からステップS210までの処理が繰り返される。すなわち、縮小輝度画像ごとに探索領域として設定した領域内において顔パターンの探索が行われる。
As described above, the processing from step S205 to step S210 is repeated in the vertical and horizontal order for each reduced luminance image output from the
そして、出力手段の一例である顔領域出力部80は、ステップS107の処理と同様に処理を行う(ステップS211)。すなわち、顔領域出力部80は、統合された結果に基づいて被写体に関する領域を出力する。より具体的には、顔領域出力部80は、顔確率分布統合部70によって更新された顔確率分布における値が所定の値以上で、かつ、顔確率分布内で極大値をとる領域を顔領域として出力装置4等に出力する。
なお、ステップS201からステップS211までの処理は、動画像データにおける全フレームにて終了するまで順次繰り返される。
Then, the face
Note that the processing from step S201 to step S211 is sequentially repeated until the processing is completed for all frames in the moving image data.
なお、被写体の動きがフレーム間隔に比べ遅い場合には、必ずしも全フレームにおいて処理を行わなくてもよく、所定フレーム間隔で検出処理(例えば、参考文献6を参照のこと。)を行うようにしてもよい。
参考文献6:Mikolajczyk et al, "Face detection in a video sequence - a temporal approarch", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01)
Note that if the movement of the subject is slower than the frame interval, the processing does not necessarily have to be performed for all frames, and detection processing (for example, see Reference 6) is performed at a predetermined frame interval. Also good.
Reference 6: Mikolajczyk et al, "Face detection in a video sequence-a temporal approarch", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01)
ここで、参考文献6では、参考文献2に記載の手法をもとに、所定フレームの顔検出結果から次フレームの顔の状態を予測し、それに顔の判別処理を適用して顔検出結果を更新する方法を提案している。また、5フレームごとに全探索を行う方法等を提案している。
Here, in Reference Document 6, based on the method described in
また、本実施形態では、被写体パターンとして人物の顔を検出するようにしたが、人物とは異なるその他の被写体のパターンを採用してもよい。 In the present embodiment, the face of a person is detected as the subject pattern, but other subject patterns different from the person may be adopted.
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
以上、上述した各実施形態によれば、動画像における被写体の認識の精度を向上させることができるようになる。
つまり、各実施形態の構成によれば、高速、高精度に動画像から所定の被写体を検出する装置を提供することができる。すなわち、被写体領域とフレーム間変化領域とに探索領域を絞ることにより高速化が実現できる。さらに、探索領域として被写体領域を含むため、フレーム間の時間的変化が小さい場合にも対応できる。また、探索領域としてフレーム間の変化領域も含むため、新しい被写体の出現にも対応できる。さらに、複数フレームでの検出結果を統合するので、フレームごとに被写体検出を行う場合に比べて安定して高精度の検出が行える。
As described above, according to each of the embodiments described above, it is possible to improve the accuracy of subject recognition in a moving image.
That is, according to the configuration of each embodiment, it is possible to provide an apparatus that detects a predetermined subject from a moving image with high speed and high accuracy. That is, speeding up can be realized by narrowing the search area to the subject area and the inter-frame change area. Further, since the subject area is included as the search area, it is possible to cope with a case where a temporal change between frames is small. Further, since the search area includes a change area between frames, it is possible to cope with the appearance of a new subject. Furthermore, since the detection results in a plurality of frames are integrated, the detection can be performed stably and with high accuracy compared to the case of subject detection for each frame.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
10 画像入力部、20 画像メモリ部、30 画像縮小部、40 照合パターン抽出部、50 輝度補正部、60 顔判別部、70 顔確率分布統合部、80 顔領域出力部、90 変化領域抽出部、100 探索領域設定部 10 image input unit, 20 image memory unit, 30 image reduction unit, 40 collation pattern extraction unit, 50 brightness correction unit, 60 face discrimination unit, 70 face probability distribution integration unit, 80 face region output unit, 90 change region extraction unit, 100 Search area setting section
Claims (4)
前記第1のフレームでの被写体の検出に関する被写体領域と前記抽出手段で抽出された領域とに基づいて、前記第2のフレームの探索領域を設定する設定手段と、
前記設定手段で設定された前記第2のフレームの探索領域内で被写体を判別する判別手段と、
を有する、画像処理装置。 Extraction means for extracting a region in which image information changes between a first frame relating to a moving image and a second frame subsequent to the first frame;
Setting means for setting a search area for the second frame based on a subject area relating to detection of a subject in the first frame and an area extracted by the extracting means;
Discriminating means for discriminating a subject within the search area of the second frame set by the setting means;
An image processing apparatus.
前記統合手段で統合された結果に基づいて、前記第2のフレームでの被写体の検出に関する被写体領域を出力する出力手段と、
を更に有する、請求項1記載の画像処理装置。 A result of the determination of the subject in the search region of the second frame by the determination means, and a result of determination of the subject in the region of the first frame corresponding to the search region of the second frame. Integration means to integrate;
Output means for outputting a subject area related to detection of a subject in the second frame based on the result of integration by the integration means;
The image processing apparatus according to claim 1, further comprising:
前記第1のフレームでの被写体の検出に関する被写体領域と前記抽出ステップで抽出された領域とに基づいて、前記第2のフレームの探索領域を設定する設定ステップと、
前記設定ステップで設定された前記第2のフレームの探索領域内で被写体を判別する判別ステップと、
を有する、画像処理方法。 An extraction step of extracting an area in which image information changes between a first frame relating to a moving image and a second frame subsequent to the first frame;
A setting step for setting a search region for the second frame based on a subject region related to detection of a subject in the first frame and the region extracted in the extraction step;
A discriminating step for discriminating a subject within the search area of the second frame set in the setting step;
An image processing method.
前記第1のフレームでの被写体の検出に関する被写体領域と前記抽出ステップで抽出された領域とに基づいて、前記第2のフレームの探索領域を設定する設定ステップと、
前記設定ステップで設定された前記第2のフレームの探索領域内で被写体を判別する判別ステップと、
をコンピュータに実行させることを特徴とするプログラム。 An extraction step of extracting an area in which image information changes between a first frame relating to a moving image and a second frame subsequent to the first frame;
A setting step for setting a search region for the second frame based on a subject region related to detection of a subject in the first frame and the region extracted in the extraction step;
A discriminating step for discriminating a subject within the search area of the second frame set in the setting step;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009202799A JP5578816B2 (en) | 2009-09-02 | 2009-09-02 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009202799A JP5578816B2 (en) | 2009-09-02 | 2009-09-02 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011053951A true JP2011053951A (en) | 2011-03-17 |
JP5578816B2 JP5578816B2 (en) | 2014-08-27 |
Family
ID=43942881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009202799A Active JP5578816B2 (en) | 2009-09-02 | 2009-09-02 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5578816B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5292505B1 (en) * | 2012-11-20 | 2013-09-18 | 株式会社東芝 | Behavior estimation device, threshold calculation device, behavior estimation method, behavior estimation program |
JP2014137629A (en) * | 2013-01-15 | 2014-07-28 | Mega Chips Corp | Image detection device, control program and image detection method |
JP2014142760A (en) * | 2013-01-23 | 2014-08-07 | Mega Chips Corp | Image detection device, control program and image detection method |
JP2014191471A (en) * | 2013-03-26 | 2014-10-06 | Mega Chips Corp | Object detection device |
US9536137B2 (en) | 2013-03-26 | 2017-01-03 | Megachips Corporation | Object detection apparatus |
JP2018195190A (en) * | 2017-05-19 | 2018-12-06 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2020005111A (en) * | 2018-06-27 | 2020-01-09 | キヤノン株式会社 | Information processing apparatus, control method, and program |
JP2022087701A (en) * | 2020-12-01 | 2022-06-13 | オムロン株式会社 | Information processing device and information processing method |
WO2024161616A1 (en) * | 2023-02-02 | 2024-08-08 | 日本電信電話株式会社 | Inference device, inference method, and inference program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0312788A (en) * | 1989-06-12 | 1991-01-21 | Oki Electric Ind Co Ltd | Traveling object detecting device |
JPH0922466A (en) * | 1995-07-05 | 1997-01-21 | Hitachi Ltd | Method for preparing background image and image processor |
JPH0991439A (en) * | 1995-09-26 | 1997-04-04 | Fuji Electric Co Ltd | Object monitoring device |
JP2004157879A (en) * | 2002-11-07 | 2004-06-03 | Matsushita Electric Works Ltd | Object detection method |
JP2004213648A (en) * | 2002-12-19 | 2004-07-29 | Hitachi Kokusai Electric Inc | Method and device for tracking object |
JP2004295416A (en) * | 2003-03-26 | 2004-10-21 | Matsushita Electric Works Ltd | Image processing apparatus |
JP2005354578A (en) * | 2004-06-14 | 2005-12-22 | Denso Corp | Object detection/tracking device |
JP2006113738A (en) * | 2004-10-13 | 2006-04-27 | Matsushita Electric Ind Co Ltd | Device and method for detecting object |
JP2007156771A (en) * | 2005-12-05 | 2007-06-21 | Sony Corp | Image detection tracing device, image detection tracing method and image detection tracing program |
-
2009
- 2009-09-02 JP JP2009202799A patent/JP5578816B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0312788A (en) * | 1989-06-12 | 1991-01-21 | Oki Electric Ind Co Ltd | Traveling object detecting device |
JPH0922466A (en) * | 1995-07-05 | 1997-01-21 | Hitachi Ltd | Method for preparing background image and image processor |
JPH0991439A (en) * | 1995-09-26 | 1997-04-04 | Fuji Electric Co Ltd | Object monitoring device |
JP2004157879A (en) * | 2002-11-07 | 2004-06-03 | Matsushita Electric Works Ltd | Object detection method |
JP2004213648A (en) * | 2002-12-19 | 2004-07-29 | Hitachi Kokusai Electric Inc | Method and device for tracking object |
JP2004295416A (en) * | 2003-03-26 | 2004-10-21 | Matsushita Electric Works Ltd | Image processing apparatus |
JP2005354578A (en) * | 2004-06-14 | 2005-12-22 | Denso Corp | Object detection/tracking device |
JP2006113738A (en) * | 2004-10-13 | 2006-04-27 | Matsushita Electric Ind Co Ltd | Device and method for detecting object |
JP2007156771A (en) * | 2005-12-05 | 2007-06-21 | Sony Corp | Image detection tracing device, image detection tracing method and image detection tracing program |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8924324B2 (en) | 2012-11-20 | 2014-12-30 | Kabushiki Kaisha Toshiba | Behavior estimation apparatus, threshold calculation apparatus, behavior estimation method and non-transitory computer readable medium thereof |
JP5292505B1 (en) * | 2012-11-20 | 2013-09-18 | 株式会社東芝 | Behavior estimation device, threshold calculation device, behavior estimation method, behavior estimation program |
JP2014137629A (en) * | 2013-01-15 | 2014-07-28 | Mega Chips Corp | Image detection device, control program and image detection method |
JP2014142760A (en) * | 2013-01-23 | 2014-08-07 | Mega Chips Corp | Image detection device, control program and image detection method |
US10223583B2 (en) | 2013-03-26 | 2019-03-05 | Megachips Corporation | Object detection apparatus |
JP2014191471A (en) * | 2013-03-26 | 2014-10-06 | Mega Chips Corp | Object detection device |
US9536137B2 (en) | 2013-03-26 | 2017-01-03 | Megachips Corporation | Object detection apparatus |
JP2018195190A (en) * | 2017-05-19 | 2018-12-06 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP7012457B2 (en) | 2017-05-19 | 2022-01-28 | キヤノン株式会社 | Image processing device, image processing method |
JP2020005111A (en) * | 2018-06-27 | 2020-01-09 | キヤノン株式会社 | Information processing apparatus, control method, and program |
JP2022087701A (en) * | 2020-12-01 | 2022-06-13 | オムロン株式会社 | Information processing device and information processing method |
JP7424280B2 (en) | 2020-12-01 | 2024-01-30 | オムロン株式会社 | Information processing device and information processing method |
WO2024161616A1 (en) * | 2023-02-02 | 2024-08-08 | 日本電信電話株式会社 | Inference device, inference method, and inference program |
Also Published As
Publication number | Publication date |
---|---|
JP5578816B2 (en) | 2014-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5578816B2 (en) | Image processing device | |
Kumar et al. | Face detection techniques: a review | |
US9020195B2 (en) | Object tracking device, object tracking method, and control program | |
JP5385752B2 (en) | Image recognition apparatus, processing method thereof, and program | |
US9036917B2 (en) | Image recognition based on patterns of local regions | |
US8213690B2 (en) | Image processing apparatus including similarity calculating unit, image pickup apparatus, and processing method for the apparatuses | |
CN111160202B (en) | Identity verification method, device, equipment and storage medium based on AR equipment | |
US20110211233A1 (en) | Image processing device, image processing method and computer program | |
US20050129276A1 (en) | Object detection | |
US20050129275A1 (en) | Object detection | |
JP5489340B2 (en) | Face masking apparatus and method | |
Amjad et al. | Multiple face detection algorithm using colour skin modelling | |
US20050128306A1 (en) | Object detection | |
JP5523053B2 (en) | Object identification device and object identification method | |
US20110182497A1 (en) | Cascade structure for classifying objects in an image | |
KR20070016849A (en) | Method and apparatus for performing preferred color conversion of skin by applying face detection and skin area detection | |
Liu et al. | Scene background estimation based on temporal median filter with Gaussian filtering | |
CN107423709A (en) | A kind of object detection method for merging visible ray and far infrared | |
CN117561540A (en) | System and method for performing computer vision tasks using a sequence of frames | |
KR101360063B1 (en) | Method and system for recognizing gesture | |
CN111160240B (en) | Image object recognition processing method and device, intelligent device and storage medium | |
CN111179301B (en) | Motion trend analysis method based on computer video | |
Chen et al. | Head-shoulder detection using joint HOG features for people counting and video surveillance in library | |
CN118609061A (en) | Security inspection equipment control method, device, equipment and storage medium based on AI recognition | |
CN104243776A (en) | Image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131001 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131224 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140324 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140708 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5578816 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |