JP6953184B2 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP6953184B2 JP6953184B2 JP2017103760A JP2017103760A JP6953184B2 JP 6953184 B2 JP6953184 B2 JP 6953184B2 JP 2017103760 A JP2017103760 A JP 2017103760A JP 2017103760 A JP2017103760 A JP 2017103760A JP 6953184 B2 JP6953184 B2 JP 6953184B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- pixel
- interest
- image processing
- average
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims 3
- 239000006185 dispersion Substances 0.000 claims description 10
- 210000000746 body region Anatomy 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 40
- 230000008569 process Effects 0.000 description 31
- 230000015572 biosynthetic process Effects 0.000 description 11
- 238000003786 synthesis reaction Methods 0.000 description 11
- 239000002131 composite material Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、連続撮影して得られた複数の画像データにおいて動体領域を検出するための画像処理技術に関するものである。 The present invention relates to an image processing technique for detecting a moving object region in a plurality of image data obtained by continuous shooting.
連続撮影により取得した複数の画像データにおいて同座標の画素の輝度の差分を用いて、撮影シーンに含まれる動く被写体(動体)を検出する技術が知られている。具体的には、画像データ間の同座標における輝度の差分を閾値と比較し、差分が閾値よりも大きければ動体を含む画素として検出する。ただし、蛍光灯のフリッカ、照明装置の明滅、太陽光や雲の移動等により明るさが変動する場合、同座標の差分値を用いるだけでは照明による輝度変動も誤って動体領域として検出してしまう。そこで特許文献1では、画像を複数画素から成るブロック単位に分割し、ブロック毎に直交変換を行い、AC成分の水平方向の総和と垂直方向の総和の比率に基づいて動体領域を検出する手法が開示されている。照明による輝度変動は、主にDC成分が変動し、AC成分はあまり変動しない。特許文献1に示される手法によれば、照明の変動による動体領域の誤検出を低減している。 There is known a technique for detecting a moving subject (moving object) included in a shooting scene by using the difference in the brightness of pixels having the same coordinates in a plurality of image data acquired by continuous shooting. Specifically, the difference in brightness between the image data at the same coordinates is compared with the threshold value, and if the difference is larger than the threshold value, it is detected as a pixel containing a moving object. However, if the brightness fluctuates due to flicker of fluorescent lamps, blinking of the lighting device, movement of sunlight or clouds, etc., the brightness fluctuation due to lighting will be mistakenly detected as a moving object region just by using the difference value of the same coordinates. .. Therefore, in Patent Document 1, a method is used in which an image is divided into blocks composed of a plurality of pixels, orthogonal transformation is performed for each block, and a moving body region is detected based on the ratio of the total sum of the AC components in the horizontal direction and the total sum in the vertical direction. It is disclosed. In the brightness fluctuation due to illumination, the DC component mainly fluctuates, and the AC component does not fluctuate much. According to the method shown in Patent Document 1, erroneous detection of a moving body region due to fluctuations in lighting is reduced.
しかしながら、画像データにおけるノイズが多い場合、照明の輝度変動もAC成分の変動が大きくなってしまう。その結果特許文献1に開示された方法では、ノイズが多い画像データは動体領域の誤検出が増えてしまう場合がある。また、動体領域が水平もしくは垂直に移動する場合、AC成分の水平方向の総和と垂直方向の総和の比率は変わらないため、動体として検出できない。そこで本発明は、照明変動による輝度変化であるのか動体領域であるのかを高精度に判別する。 However, when there is a lot of noise in the image data, the change in the brightness of the illumination also causes a large change in the AC component. As a result, in the method disclosed in Patent Document 1, erroneous detection of a moving body region may increase in image data having a lot of noise. Further, when the moving body region moves horizontally or vertically, the ratio of the total sum of the AC components in the horizontal direction and the total sum in the vertical direction does not change, so that the moving body cannot be detected as a moving body. Therefore, the present invention accurately discriminates whether it is a change in brightness due to illumination fluctuation or a moving object region.
上記課題を解決するために本発明は、N枚(N>3を満たす自然数)の画像データを用いて、前記N枚の画像データのうちの1つである基準画像データにおける動体領域を検出する画像処理装置であって、前記N枚の画像データを取得する取得手段と、前記N枚の画像データそれぞれについて、着目画素を含む複数の画素からなる局所領域における平均輝度を、前記着目画素の平均輝度として算出する第1の算出手段と、前記基準画像データにおける前記着目画素の平均輝度と、前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに、第1の閾値以上の輝度差があるか否かを判定する輝度差判定手段と、前記N枚の画像データそれぞれにおける前記着目画素に対応する平均輝度の標準偏差を算出する第2の算出手段と、前記着目画素の平均輝度の標準偏差と第2の閾値と比較する比較手段と、前記輝度差判定手段による判定結果と前記比較手段による比較の結果とに基づいて、前記着目画素が動体領域に含まれる画素か否かを判定する動体判定手段とを有し、前記動体判定手段は、前記着目画素について前記輝度差判定手段により輝度差ありと判定され、かつ前記標準偏差が前記第2の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする。 In order to solve the above problem, the present invention uses N image data (natural numbers satisfying N> 3) to detect a moving object region in the reference image data, which is one of the N image data. In the image processing device, the acquisition means for acquiring the N image data and the average brightness in the local region composed of a plurality of pixels including the pixel of interest for each of the N image data are averaged by the pixels of interest. The first calculation means for calculating the brightness, the average brightness of the pixel of interest in the reference image data, and the average brightness of the pixel of interest in each of the image data other than the reference image data are the brightness equal to or higher than the first threshold value. A brightness difference determining means for determining whether or not there is a difference, a second calculating means for calculating the standard deviation of the average brightness corresponding to the pixel of interest in each of the N image data, and an average brightness of the pixel of interest. Based on the comparison means for comparing the standard deviation of the above and the second threshold value, the determination result by the brightness difference determination means, and the comparison result by the comparison means, whether or not the pixel of interest is a pixel included in the moving object region is determined. The moving body determining means has a moving body determining means for determining, and the moving body determining means determines that there is a brightness difference for the pixel of interest by the brightness difference determining means, and the standard deviation is equal to or greater than the second threshold value. The pixel of interest is determined to be a pixel included in the moving object region.
本発明によれば、複数の画像データにおいて、照明による輝度変動の影響を抑制しつつ動体領域を検出することができる。 According to the present invention, it is possible to detect a moving object region in a plurality of image data while suppressing the influence of brightness fluctuation due to illumination.
以下、添付の図面を参照して、本発明を好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail with reference to the accompanying drawings, based on preferred embodiments. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.
<第1実施形態>
本実施形態では、連続撮影して取得したN枚(NはN>3を満たす自然数)の画像データを用いて基準画像データにおける動体領域を検出し、検出した結果に応じて基準画像データにおけるノイズ低減処理を施す画像処理装置について説明する。具体的には、動体領域には、NonLocalMeansによるノイズ低減処理を、非動体領域には基準画像データと連続する画像データ(参照画像データ)とで対応する画素の輝度の加算平均を用いたノイズ低減処理を施す。なお、連続撮影したN枚の画像データのうち、先頭の画像データを基準画像データとし、基準画像データ以外の画像データを参照画像データとする。本実施形態では、説明を簡略化するために画像データ数NをN=4、扱う全ての画像データを8bit、三脚を用いて撮影したものとする。なお、画像データ数を表す単位として、枚を用いる。また、動体とは、4枚の画像データを取得した瞬間に動きのあった被写体を意味するものとする。
<First Embodiment>
In the present embodiment, a moving object region in the reference image data is detected using N image data (N is a natural number satisfying N> 3) acquired by continuous shooting, and noise in the reference image data is detected according to the detected result. An image processing apparatus that performs reduction processing will be described. Specifically, noise reduction processing by NonLocalMean is performed in the moving body region, and noise reduction is performed in the non-moving body region by using the summing average of the brightness of the corresponding pixels in the reference image data and the continuous image data (reference image data). Apply processing. Of the N image data taken continuously, the first image data is used as the reference image data, and the image data other than the reference image data is used as the reference image data. In the present embodiment, in order to simplify the explanation, it is assumed that the number of image data N is N = 4, all the image data to be handled are 8 bits, and the image data is photographed using a tripod. A sheet is used as a unit for expressing the number of image data. Further, the moving object means a subject that has moved at the moment when the four image data are acquired.
まず第1実施形態における画像処理装置のハードウェア構成について、図1を用いて説明する。図1は本実施形態における画像処理装置のハードウェア構成を示す図である。画像処理装置は、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108を備え、各構成部はメインバス109によって相互に接続されている。
First, the hardware configuration of the image processing apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a hardware configuration of an image processing device according to the present embodiment. The image processing device includes a
CPU101は、画像処理装置内の各部を統括的に制御するプロセッサである。RAM102は、CPU101の主メモリ、ワークエリア等として機能するメモリである。また、HDD103は、CPU101によって実行されるプログラム群を格納しているメモリである。なお、HDD103は、フラッシュメモリなどの他の記憶媒体に置き換えてもよい。
The
汎用インターフェース(I/F)104はUSBコネクタを備えるインターフェースであり、撮像装置105や入力装置106、外部メモリ107が汎用I/F104を介してメインバス109に接続されている。撮像装置105は画像撮影機能を備えたカメラであり、撮影した画像データを画像処理装置に対して出力する。1回の撮影で4回連続して撮影する連写モードを有する。入力装置106は、マウス、キーボードなどの入力装置であり、ユーザは入力装置106を介して画像処理装置に対して指示を入力することができる。外部メモリ107は、HDDやメモリーカードなどの記録媒体であり、画像処理装置から出力されたデータを保存することができる。モニタ108は画像処理装置に備えつけられた液晶ディスプレイであり、画像データやユーザインタフェースなどを表示することができる。メインバス109は、画像処理装置内の各構成部を相互に接続するシステムバスである。
The general-purpose interface (I / F) 104 is an interface including a USB connector, and the
以下、本実施形態における画像処理について図2を用いて説明する。図2は本実施形態の画像処理装置の論理構成を示すブロック図である。なお、本実施形態ではソフトウェアにより実行される論理構成を例に説明するが、各構成の一部またはそのすべてを、専用の回路によって実現することもできる。 Hereinafter, the image processing in the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a logical configuration of the image processing apparatus of the present embodiment. In this embodiment, a logical configuration executed by software will be described as an example, but a part or all of each configuration can be realized by a dedicated circuit.
図2において、画像データ入力部201は、連続して撮影された4つの画像データを画像処理装置に入力する。画像データはCPU101からの指示に基づき、撮像装置105あるいはHDD103や外部メモリ107から入力される。勿論、撮像装置105で撮影した画像をHDD103などの記憶装置に一旦記憶した後で入力しても構わない。パラメータ入力部202は、画像処理に用いる複数のパラメータを画像処理装置に入力する。パラメータはCPU101からの指示に基づき、HDD103や外部メモリ107から入力される。また、ユーザインタフェース(UI)を介し、キーボードやマウスなどの入力装置106で直接指定しても構わない。パラメータは、平均輝度算出部203が用いる局所領域のサイズと、判定処理部204が用いる閾値とがある。パラメータの詳細な説明については後述する。
In FIG. 2, the image
平均輝度算出部203は、CPU101からの指示を受け、複数の画像データとパラメータを取得し、画像データにおいてパラメータが示す局所領域のサイズに従って局所領域に含まれる各画素の輝度を平均する。平均輝度算出部203は、画像データにおける平均輝度を示した平均輝度マップを生成する。本実施形態では、4つの画像データが入力されているため、4つの平均輝度マップが生成される。生成した平均輝度マップはRAM102に記憶される。なお、平均輝度マップの詳細は後述する。
The average
判定処理部204は、CPU101からの指示を受け、画像データ、平均輝度マップおよびパラメータを取得し、基準画像データにおける動体を含む領域(動体領域)を検出する。検出した動体領域は動体領域マップとして、RAM102に記憶される。合成処理部205は、CPU101からの指示を受け、画像データ、動体領域マップおよびパラメータを取得し、合成画像データを生成する。基準画像データにおける各画素について、動体であるか否かに応じて異なる処理によりノイズ低減処理された輝度を算出する。生成した合成画像データはRAM102に記憶される。
The
画像データ出力部206は、合成処理部205が生成した合成画像データをモニタ108やHDD103になどに出力する。なお、出力先はこれらに限られるものではなく、例えば、汎用I/F104に接続した外部メモリに出力してもよい。
The image
以下、図2を用いて説明した画像処理装置の論理構成における各処理の詳細について、図3に示すフローチャートを用いて説明する。なお、図3に示す処理は、CPU101がRAM102に格納されたプログラムを実行することによって実現される。また、図2に示す各構成部の一部または全部を、その機能を有する専用の処理回路などとして実現してもよい。
Hereinafter, details of each process in the logical configuration of the image processing apparatus described with reference to FIG. 2 will be described with reference to the flowchart shown in FIG. The process shown in FIG. 3 is realized by the
ステップS301において画像データ入力部201は、撮像装置105が連写モードで連続撮影して取得した複数の画像データを画像処理装置に入力する。本実施形態では、4つの画像データのうち最初に撮影された画像データを基準画像データとし、後続の3つの画像データを参照画像データとする。
In step S301, the image
ステップS302においてパラメータ入力部202が、後に続く処理に必要なパラメータを画像処理装置に入力する。本実施形態において入力するパラメータは、平均輝度マップを生成する際に必要な局所領域のサイズ、輝度差判定用のパラメータ閾値th、ばらつき判定用のパラメータ閾値th2を含む。
In step S302, the
ステップS303において平均輝度算出部203は、基準画像データと各参照画像データそれぞれについて平均輝度マップを生成する。平均輝度算出部203は、処理対象画像データにおける着目画素について、パラメータが示すサイズの局所領域を、着目画素を含むように設定し、局所領域に含まれる各画素の輝度の平均値を注目画素の平均輝度として算出する。従って平均輝度マップは、画像データの局所領域における平均値を画素毎に持つマップである。これを4つの全の画像データについて生成する。具体的には、各画像データにおいて着目画素と周辺画素から成る局所領域における平均値をRGB毎に算出する。局所領域のサイズS1はパラメータに基づいて決定され、ここではS1=5とし、5画素×5画素の場合を例に図4を用いて説明する。図4(a)において黒色のブロックで示される画素401は着目画素、灰色のブロックで示される画素群402は周辺画素、太線で囲われた領域403は着目画素401に対して設定された局所領域を表している。局所領域の形状は、矩形領域に限らず、任意の形状でもよく、例えば図4(b)に示すような形状でもよい。局所領域のサイズが大きすぎると、局所領域内に異なる被写体を含みやすくなるため、動体判定精度がさがってしまうため、大きくても15画素×15画素くらいの大きさが望ましい。
In step S303, the average
ステップS304において判定処理部204は、ステップS303で生成した平均輝度マップに基づいて、基準画像データにおける画素毎に動体を表す画素か否かを判定する。判定処理部204は、判定結果に応じて動体領域を検出し、動体領域マップを生成する。判定処理の詳細については後述する。
In step S304, the
ステップS305において合成処理部205は、ステップS304で生成した動体領域マップに基づいて基準画像データと各参照画像データを合成し、合成画像データを生成する。合成処理の詳細については後述する。ステップS306において画像データ出力部206が、ステップS305において生成された合成画像データをモニタ108などに出力する。以上が本実施形態の画像処理装置で行われる処理フローである。
In step S305, the
以下、ステップS304で行われる判定処理と、ステップS305で行われる合成処理の詳細を説明する。本実施形態において判定処理部204がステップS304において実行する判定処理について図5用いて説明する。図5は、判定処理の流れを示すフローチャートである。
Hereinafter, the details of the determination process performed in step S304 and the synthesis process performed in step S305 will be described. The determination process executed by the
ステップS501において判定処理部204は、ステップS301で入力した基準画像データにおいて、処理対象とする着目画素を選択する。ステップS502において判定処理部204は、平均輝度マップを参照し着目画素の平均輝度と、各参照画像データにおいて着目画素と同座標にある画素(参照画素)との平均輝度とに差分があるか否かを判定する。具体的にはまず、着目画素と参照画素それぞれの画素位置に対応するRGBごとの平均輝度を平均輝度マップから取得する。そして着目画素の平均輝度から各参照画素の平均輝度を減算し、RGBごとの差分値を算出する。次に、3つの差分値と、ステップS302で入力した輝度差判定用のパラメータ閾値thとを比較して差分値が1つでも閾値以上である場合、判定処理部204は輝度差ありの候補とする。閾値thは、撮影時のISO感度に応じたノイズ分散値σ2から算出した標準偏差σよりも大きいことが望ましく、例えばth=ασ(α=1.5)のように設定する。そして、着目画素において、参照画像データにおける対応画素と輝度差ありの候補とされた数が参照画像データ数の半数以上である場合、最終的に着目画素を輝度差ありの画素として判定する。着目画素が輝度差ありである場合はステップS503へ進み、そうでない場合はステップS504へ進む。なお、参照画像データ数の半数以上としたが、これに限らず参照画像データ数のx%以上(ただし、x≧50)であれば輝度差ありとして判定するなど、閾値は任意に決めてよい。
In step S501, the
ステップS503において判定処理部205は、ステップS502において輝度差ありと判定された画素に対し、平均輝度のばらつきに基づいて、動体による輝度変動であるのか、照明による輝度変動であるのかを判定する。図5(b)は、ばらつき判定処理の詳細なフローチャートである。ステップS601において判定処理部204は、ステップS302において入力したばらつき判定用のパラメータ閾値th2を取得する。閾値th2は、撮影時のISO感度に応じたノイズ分散値σ2と、局所領域内のRGBごとの総画素数に基づいて算出することが望ましく、例えばRの場合はβ√σ 2 /Nr(β=3.0)のように設定する。ステップS602において判定処理部204は、参照画像データから、ステップS501において選択した基準画像データの着目画素と同座標にある画素を参照画素として選択する。本実施形態では、3つの参照画素が選択される。ステップS603において判定処理部204は、着目画素と全参照画素それぞれの画素位置に対応する平均輝度を平均輝度マップから取得し、RGB毎に標準偏差σR、σG、σB、を式(1)から算出する。
In step S503, the
はNフレーム分のr、g、bの平均値を示している。
Indicates the average value of r, g, and b for N frames.
ステップS604において判定処理部204は、ステップS603において算出した3つの標準偏差σR、σG、σBと閾値th2とを比較する。3つの標準偏差σR、σG、σBのうち1つでも閾値以上である場合はステップS605へ進み、そうでない場合はステップS606へ進む。ステップS605において判定処理部204は、着目画素は動体領域であると判定し、動体領域マップの着目画素と同座標の画素に1を出力する。ステップS606におい判定処理部204は、着目画素は静止領域であると判定し、動体領域マップの着目画素と同座標の画素に0を出力する。以上でステップS503のばらつき判定処理を完了する。
In step S604, the
ステップS504において判定処理部204は、基準画像データの全画素についてS502、S503の処理が完了したのかを判定し、完了していれば判定処理を終了し、そうでなければステップS501へ進む。以上がステップS304の判定処理の詳細である。
In step S504, the
以下、本実施形態において合成処理部205がステップS305において実行する合成処理について図6を用いて説明する。図6は、合成処理の詳細な流れを示すフローチャートである。ステップS701において合成処理部205は、基準画像データにおいて処理対象とする画素を着目画素として選択する。
Hereinafter, the synthesis process executed by the
ステップS702において、動体領域マップを参照し、着目画素が動体領域であるか否かを判定する。着目画素が動体領域である場合はステップS704へ進み、そうでない場合はステップS703へ進む。 In step S702, the moving body area map is referred to, and it is determined whether or not the pixel of interest is the moving body area. If the pixel of interest is a moving object region, the process proceeds to step S704, and if not, the process proceeds to step S703.
ステップS703において、着目画素と3つの参照画素それの輝度を加算平均し、計算結果を着目画素のノイズ低減処理後の輝度として出力画像データに出力する。ステップS704において、基準画像データに対してNonLocalMeansを適用し、計算結果を着目画素のノイズ低減処理後の輝度として出力画像データに出力する。ステップS705において、全画素がステップS702からS704の処理を終了したか否かを判定し、完了している場合は合成処理を終了し、そうでない場合はステップS701へ進む。以上がステップS306の合成処理の詳細である。 In step S703, the brightness of the pixel of interest and the brightness of the three reference pixels are added and averaged, and the calculation result is output to the output image data as the brightness of the pixel of interest after the noise reduction processing. In step S704, NonLocalMeans is applied to the reference image data, and the calculation result is output to the output image data as the brightness after the noise reduction processing of the pixel of interest. In step S705, it is determined whether or not all the pixels have completed the processing of steps S702 to S704, and if it is completed, the composition processing is ended, and if not, the process proceeds to step S701. The above is the details of the synthesis process in step S306.
以上本実施形態によれば、連続撮影して取得した複数の画像データ間で着目画素を含む局所領域の平均輝度差があり、かつ各画像データにおける平均輝度がばらついている場合にのみ、動体領域の画素として判定される。連続撮影して取得した複数の画像データ間で着目画素を含む局所領域の平均輝度差がない場合、または平均輝度差があってもRGBごとの平均輝度にばらつきがない場合は、動体領域として判定されない。本実施形態では、着目画素を含む局所領域の平均輝度を用いて着目画素が動体か否かを判定している。これにより、ノイズを多く含む画像データであっても、ノイズから受ける影響を低減し、動体判定の精度を高めることができる。さらに、動体の方が、蛍光灯のフリッカや照明装置の明滅になどの照明変動よりも、平均輝度差が大きくなる傾向になる。そこで、基準画像データと参照画像データ間における対応する局所領域における平均輝度差のばらつきがあるか否かを判定することにより、高精度に動体を判定することができる。 As described above, according to the present embodiment, only when there is an average luminance difference in the local region including the pixel of interest between a plurality of image data acquired by continuous shooting and the average luminance in each image data varies, the moving object region It is determined as a pixel of. If there is no difference in the average brightness of the local region including the pixel of interest between multiple image data acquired by continuous shooting, or if there is no variation in the average brightness for each RGB even if there is a difference in average brightness, it is judged as a moving object region. Not done. In the present embodiment, it is determined whether or not the pixel of interest is a moving object by using the average brightness of the local region including the pixel of interest. As a result, even if the image data contains a lot of noise, the influence of the noise can be reduced and the accuracy of the moving object determination can be improved. Furthermore, moving objects tend to have a larger average luminance difference than lighting fluctuations such as flicker of fluorescent lamps and blinking of lighting devices. Therefore, the moving object can be determined with high accuracy by determining whether or not there is a variation in the average luminance difference in the corresponding local region between the reference image data and the reference image data.
なお本実施形態では、動体として検出された領域については、NonLocalMeans法を適用する形態について説明したが、NonLocalMeansに限るものではない。動体として検出された領域については、エッジが含まれる可能性が高いため、NonLocalMeansのようにエッジ保存型ノイズ低減処理を適用することが望ましい。エッジ保存型ノイズ低減処理としては、NonLocalMeans以外にも、バイラテラレルフィルタを用いた処理などがある。 In the present embodiment, the region to which the NonLocalMeans method is applied has been described for the region detected as a moving body, but the region is not limited to NonLocalMeans. Since there is a high possibility that an edge is included in the region detected as a moving object, it is desirable to apply an edge-preserving noise reduction process such as NonLocalMeans. In addition to NonLocalMeans, the edge-preserving noise reduction process includes a process using a bilateral filter.
<第2実施形態>
第1実施形態では、着目画素を含む局所領域における平均輝度を用いて動体判定することにより、ノイズによる影響を低減していることを説明した。一般に画像データにおいて、平坦部ではより大きい局所領域に含まれる画素を平均するほど、ノイズの影響を低減できる。一方、局所領域を大きくしすぎると、エッジ部を含む場合異なる被写体の画素の輝度を混在して平均することになってしまうため、動体判定の精度が落ちてしまう。そこで本実施形態では、平均輝度を算出する際、平坦部では局所領域のサイズS1をエッジ部と比べて大きくする方法について説明する。なお、第2実施形態については、第1実施形態と同じ構成、処理については説明を省略する。
<Second Embodiment>
In the first embodiment, it has been explained that the influence of noise is reduced by determining the moving object using the average brightness in the local region including the pixel of interest. Generally, in image data, the influence of noise can be reduced by averaging the pixels included in a larger local region in a flat portion. On the other hand, if the local region is made too large, the brightness of the pixels of different subjects will be mixed and averaged when the edge portion is included, so that the accuracy of the moving object determination will be lowered. Therefore, in the present embodiment, when calculating the average brightness, a method of increasing the size S1 of the local region in the flat portion as compared with the edge portion will be described. The second embodiment has the same configuration and processing as the first embodiment, and the description thereof will be omitted.
図7は、本実施形態における画像処理装置の論理構成を示すブロック図である。図7の画像データ入力部801、パラメータ入力部802、判定処理部805、合成処理部806、画像データ出力部807は、画像データ入力部201、パラメータ入力部202、判定処理部204、合成処理部205、画像データ出力部206と同様である。
FIG. 7 is a block diagram showing a logical configuration of the image processing apparatus according to the present embodiment. The image
エッジ強度算出部803は、CPU101からの指示を受け、画像データとパラメータを取得し、パラメータに基づいて画像データごとに各画素のエッジ強度を示したエッジ強度マップを生成する。生成したエッジ強度マップはRAM102に記憶される。なお、エッジ強度マップの詳細は後述する。平均輝度算出部804は、CPU101からの指示を受け、画像データ、パラメータ、エッジ強度マップを取得し、パラメータとエッジ強度に基づいて画像データごとに各画素の平均輝度を示した平均輝度マップを生成する。生成した平均輝度マップはRAM102に記憶される。なお、平均輝度マップの詳細は後述する。以下、図7で説明した画像処理装置の論理構成における各処理の詳細について、図8に示すフローチャートを用いて説明する。なお、図8に示す処理は、CPU101がRAM102に格納されたプログラムを実行することによって実現される。なお、図8に示す各構成部の一部または全部の役割を果たす専用の処理回路などを設けてもよい。
The edge
図8(a)に示すフローチャートにおいて、ステップS901、S902、S905〜S907は、それぞれステップS301、S302、S304〜S306と同様である。ステップS903においてエッジ強度算出部803は、基準画像データからエッジ強度マップを生成する。エッジ強度マップは、基準画像データの局所領域における分散値と、予め算出した感度毎のノイズ分散値との比率を画素ごとに持つマップである。以下、エッジ強度マップの生成方法について具体的に説明する。まず、基準画像データにおいて着目画素と近傍の画素からなる局所領域を設定する。局所領域のサイズS1は、第1実施形態のステップS303で説明したようにパラメータに従って決定される。次に、局所領域におけるRGBごとの分散値VR、VG、VB、を、式(2)を用いて算出する。
In the flowchart shown in FIG. 8A, steps S901, S902, and S905 to S907 are the same as steps S301, S302, and S304 to S306, respectively. In step S903, the edge
ここで、Mは局所領域に含まれる画素数、r、g、bは局所領域内の画素iのRGB値であり、
Here, M is the number of pixels included in the local region, and r, g, and b are the RGB values of the pixels i in the local region.
は局所領域に含まれる画素のRGB毎の平均値を示している。そして、これら分散値Vを、撮影時のISO感度に応じたノイズ分散値σ2で割ることで分散値の比率を算出し、これを着目画素のエッジ強度Eとする。具体的には、式(3)により算出する。エッジ強度は値が大きいほど、鮮鋭度が高く、逆に小さいほど鮮鋭度が低いことを示す指標である。
Indicates the average value of the pixels included in the local region for each RGB. Then, the ratio of the dispersion values is calculated by dividing these dispersion values V by the noise dispersion value σ2 according to the ISO sensitivity at the time of shooting, and this is used as the edge strength E of the pixel of interest. Specifically, it is calculated by the formula (3). The larger the value of the edge strength, the higher the sharpness, and conversely, the smaller the value, the lower the sharpness.
この処理を基準画像データの全画素について行うことでエッジ強度マップを生成する。なお、エッジ強度の算出方法はこれに限らず、ソーベルフィルタやラプラシアンフィルタなどを使用して算出するなど、エッジ強度に相当する値が算出できれば何でもよい。また、本実施形態では画素毎にRGBそれぞれのエッジ強度を持つが、3つのエッジ強度のうち、最大値や最小値のみを代表のエッジ強度として1つだけエッジ強度を持たせてもよい。
An edge strength map is generated by performing this process for all pixels of the reference image data. The method for calculating the edge strength is not limited to this, and any value can be used as long as a value corresponding to the edge strength can be calculated, such as using a Sobel filter or a Laplacian filter. Further, in the present embodiment, each pixel has an edge strength of each of RGB, but of the three edge strengths, only one edge strength may be provided with only the maximum value or the minimum value as a representative edge strength.
ステップS904において平均輝度算出部804は、基準画像データと各参照画像データそれぞれについて平均輝度マップを生成する。図8(b)は、平均輝度マップ生成処理の詳細な流れを示すフローチャートである。ステップS1001において平均輝度算出部804が、ステップS302で入力された平均輝度マップ生成用のパラメータth3を取得する。ステップS1002において平均輝度算出部804が、ステップS901で入力した基準画像データから処理対象とする着目画素を選択する。
In step S904, the average
ステップS1003において平均輝度算出部804が、エッジ強度マップに基づいて平均輝度を算出する局所領域のサイズを決定する。エッジ強度が小さい場合、エッジ強度マップを生成したときのサイズS1よりも大きいサイズS2で平均輝度を算出する。具体的にはまず、エッジ強度マップの各画素とその周辺領域を含む局所領域(ここでは9×9画素のブロックとする)についてエッジ強度がパラメータth3以下である画素数をカウントする。次に、局所領域内の総画素数のy%(ここではy=80)以上である場合、着目画素は平坦部であると判断し、サイズS2>サイズS1となるようにサイズS2を決定する。
In step S1003, the average
ステップS1004において平均輝度算出部804が、ステップS1002で決定した局所領域のサイズSに基づいて平均輝度を算出する。ステップS1005は、全画素がステップS1002〜S1004の処理を終了したか否かを判定し、完了している場合は合成処理を終了し、そうでない場合はステップS1001へ進む。なお、本実施形態では、サイズS1、S2の2種類のサイズを用いて局所領域の平均輝度を算出したが、より細かく閾値を設定して複数のサイズを使用して各サイズに応じて平均輝度を算出して平均輝度マップを生成してもよい。
In step S1004, the average
<その他の実施形態>
本実施形態では、連続撮影して得た画像データの先頭画像データを基準画像データとしたが、これに限定されない。例えば、各画像データのエッジ強度の総和が最も大きい画像データを基準画像データとしてもよい。
<Other Embodiments>
In the present embodiment, the head image data of the image data obtained by continuous shooting is used as the reference image data, but the present invention is not limited to this. For example, the image data having the largest total edge strength of each image data may be used as the reference image data.
また本実施形態では、1回の撮影で4回連続して撮影する連写モードにより複数の画像データを取得する例を説明した。しかしながら例えば、動画を撮影し複数のフレームを画像データとして取得してもよい。この場合は、時系列的に連続していることが望ましい。あるいは、連写モードではなく、1回の撮影で画像処理のために複数枚画像を取得するような構成であってもよい。 Further, in the present embodiment, an example of acquiring a plurality of image data in a continuous shooting mode in which one shot is taken four times in a row has been described. However, for example, a moving image may be taken and a plurality of frames may be acquired as image data. In this case, it is desirable that they are continuous in chronological order. Alternatively, the configuration may be such that a plurality of images are acquired for image processing in one shooting instead of the continuous shooting mode.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (7)
前記N枚の画像データを取得する取得手段と、
前記N枚の画像データそれぞれについて、着目画素を含む複数の画素からなる局所領域における平均輝度を、前記着目画素の平均輝度として算出する第1の算出手段と、
前記基準画像データにおける前記着目画素の平均輝度と、前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに、第1の閾値以上の輝度差があるか否かを判定する輝度差判定手段と、
前記N枚の画像データそれぞれにおける前記着目画素に対応する平均輝度の標準偏差を算出する第2の算出手段と、
前記着目画素の平均輝度の標準偏差と第2の閾値と比較する比較手段と、
前記輝度差判定手段による判定結果と前記比較手段による比較の結果とに基づいて、前記着目画素が動体領域に含まれる画素か否かを判定する動体判定手段とを有し、
前記動体判定手段は、前記着目画素について前記輝度差判定手段により輝度差ありと判定され、かつ前記標準偏差が前記第2の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする画像処理装置。 An image processing device that detects a moving object region in reference image data, which is one of the N image data, using N image data (natural numbers satisfying N> 3).
An acquisition means for acquiring the N image data and
For each of the N image data, a first calculation means for calculating the average luminance in a local region composed of a plurality of pixels including the pixel of interest as the average luminance of the pixel of interest.
Luminance difference for determining whether or not there is a luminance difference between the average luminance of the pixel of interest in the reference image data and the average luminance of the pixel of interest in each of the image data other than the reference image data, which is equal to or greater than the first threshold value. Judgment means and
A second calculation means for calculating the standard deviation of the average luminance corresponding to the pixel of interest in each of the N image data, and
A comparison means for comparing the standard deviation of the average brightness of the pixel of interest with the second threshold value, and
It has a moving object determining means for determining whether or not the pixel of interest is a pixel included in the moving object region based on the determination result by the luminance difference determining means and the comparison result by the comparing means.
When the moving object determination means determines that the pixel of interest has a luminance difference by the luminance difference determining means and the standard deviation is equal to or greater than the second threshold value, the pixel of interest is a pixel included in the moving object region. An image processing device characterized in that it is determined to exist.
前記第1の算出手段は、前記着目画素の局所領域のサイズを、前記第3の算出手段によって算出された前記着目画素のエッジ強度に応じて設定することを特徴とする請求項1または2に記載の画像処理装置。 Further, the reference image data has a third calculation means for calculating the edge strength for each pixel.
The first calculation means according to claim 1 or 2, wherein the size of the local region of the pixel of interest is set according to the edge strength of the pixel of interest calculated by the third calculation means. The image processing apparatus described.
前記N枚の画像データを取得し、
前記N枚の画像データそれぞれについて、着目画素を含む複数の画素からなる局所領域における平均輝度を、前記着目画素の平均輝度として算出し、
前記基準画像データにおける前記着目画素の平均輝度と、前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに、第1の閾値以上の輝度差があるか否かを判定するし、
前記N枚の画像データそれぞれにおける前記着目画素に対応する平均輝度の標準偏差を算出し、
前記着目画素の平均輝度の標準偏差と第2の閾値と比較し、
前記着目画素について前記輝度差判定手段により輝度差ありと判定され、かつ前記標準偏差が前記第2の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする画像処理方法。 An image processing method for detecting a moving object region in reference image data, which is one of the N image data, using N image data (natural numbers satisfying N> 3).
The N image data are acquired, and the image data is acquired.
For each of the N image data, the average brightness in the local region composed of a plurality of pixels including the pixel of interest is calculated as the average brightness of the pixel of interest.
It is determined whether or not there is a luminance difference of the first threshold value or more between the average luminance of the pixel of interest in the reference image data and the average luminance of the pixel of interest in each of the image data other than the reference image data.
The standard deviation of the average brightness corresponding to the pixel of interest in each of the N image data was calculated.
Comparing the standard deviation of the average brightness of the pixel of interest with the second threshold value,
When the luminance difference determining means determines that the pixel of interest has a luminance difference and the standard deviation is equal to or greater than the second threshold value, it is determined that the pixel of interest is a pixel included in the moving body region. Characteristic image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017103760A JP6953184B2 (en) | 2017-05-25 | 2017-05-25 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017103760A JP6953184B2 (en) | 2017-05-25 | 2017-05-25 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018200506A JP2018200506A (en) | 2018-12-20 |
JP6953184B2 true JP6953184B2 (en) | 2021-10-27 |
Family
ID=64668127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017103760A Active JP6953184B2 (en) | 2017-05-25 | 2017-05-25 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6953184B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113055580B (en) * | 2019-12-26 | 2023-10-03 | 中兴通讯股份有限公司 | Environment recognition method, shooting mode switching method, terminal and storage medium |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050078747A1 (en) * | 2003-10-14 | 2005-04-14 | Honeywell International Inc. | Multi-stage moving object segmentation |
JP2009044526A (en) * | 2007-08-09 | 2009-02-26 | Toshiba Corp | Photographing device, photographing method, and apparatus and method for recognizing person |
JP2012186593A (en) * | 2011-03-04 | 2012-09-27 | Sony Corp | Image processing system, image processing method, and program |
JP5715863B2 (en) * | 2011-03-25 | 2015-05-13 | セコム株式会社 | Image processing device |
JP5873415B2 (en) * | 2012-10-12 | 2016-03-01 | 日本電信電話株式会社 | Foreground detection device, foreground detection method, and computer program |
US9363438B2 (en) * | 2013-07-23 | 2016-06-07 | Michael BEN ISRAEL | Digital image processing |
JP6240116B2 (en) * | 2015-03-31 | 2017-11-29 | セコム株式会社 | Object detection device |
JP6584173B2 (en) * | 2015-07-06 | 2019-10-02 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
2017
- 2017-05-25 JP JP2017103760A patent/JP6953184B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018200506A (en) | 2018-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102428127B1 (en) | Apparatus and method detecting motion mask | |
US20180158199A1 (en) | Image alignment for burst mode images | |
JPWO2015190183A1 (en) | Image processing system and computer-readable recording medium | |
JP2011521521A (en) | Optimal video selection | |
WO2014128688A1 (en) | Method, system and software module for foreground extraction | |
US10455163B2 (en) | Image processing apparatus that generates a combined image, control method, and storage medium | |
JP2015211471A (en) | Image processing apparatus and method | |
CN110572636B (en) | Camera contamination detection method and device, storage medium and electronic equipment | |
JP2018195084A (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP2007272532A (en) | Fire detection apparatus | |
JP2014102619A (en) | Image processing apparatus, image processing method, and computer program | |
CN112001853A (en) | Image processing apparatus, image processing method, image capturing apparatus, and storage medium | |
JP6365355B2 (en) | Image generating apparatus and image generating method | |
JP2011002882A (en) | Imaging apparatus, image processing program, and imaging method | |
JP2020077165A (en) | Image processing device, image processing method, and program | |
JP2015138399A (en) | image processing apparatus, image processing method, and computer program | |
JP6953184B2 (en) | Image processing device and image processing method | |
JPWO2018179119A1 (en) | Video analysis device, video analysis method, and program | |
JP2021111228A (en) | Learning device, learning method, and program | |
KR100828194B1 (en) | Apparatus and method for deciding a blurriness of digital pictures, and system for image processing using the same | |
CN103841312B (en) | Object detecting apparatus and method | |
JP6584173B2 (en) | Image processing apparatus and image processing method | |
JP2020181399A (en) | Image processor and control method thereof and program | |
JP2006031171A (en) | Pseudo three-dimensional data generation method, apparatus, program and recording medium | |
JP2017034608A (en) | Image processing system, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210929 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6953184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |