JP2013012089A - Image processing device, camera and image processing program - Google Patents
Image processing device, camera and image processing program Download PDFInfo
- Publication number
- JP2013012089A JP2013012089A JP2011144991A JP2011144991A JP2013012089A JP 2013012089 A JP2013012089 A JP 2013012089A JP 2011144991 A JP2011144991 A JP 2011144991A JP 2011144991 A JP2011144991 A JP 2011144991A JP 2013012089 A JP2013012089 A JP 2013012089A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- luminance
- straight line
- foreign object
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 77
- 238000012937 correction Methods 0.000 claims abstract description 112
- 230000007423 decrease Effects 0.000 claims abstract description 5
- 230000000295 complement effect Effects 0.000 claims description 47
- 238000001514 detection method Methods 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 9
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims 2
- 206010070245 Foreign body Diseases 0.000 abstract 4
- 235000019557 luminance Nutrition 0.000 description 115
- 230000003287 optical effect Effects 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 14
- 238000000605 extraction Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000007547 defect Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 239000000428 dust Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、カメラ、および画像処理プログラムに関する。 The present invention relates to an image processing device, a camera, and an image processing program.
デジタルカメラなどの撮像装置では撮像光路上にあり撮像素子の近傍に配置された光学フィルタ等の光学部材に異物が付着すると、付着した異物により生じた異物影が撮像画像に現れ、その部分が画像欠陥となる。特にレンズ交換式の撮像装置では、レンズ交換時に塵や埃などの異物が内部に侵入しやすく、画像欠陥を生じやすい。このような問題を解決するため、光学部材に付着した異物影情報としての基準画像を撮影し、基準画像から異物影位置等の情報を得て通常撮影された撮像画像に写り込んだ異物影を検出し、画像欠陥を補正する画像処理装置が知られている。また、1枚の画像から異物影を検出し、その画像欠陥部を補正する方法も提案されている(特許文献1参照)。 In an imaging device such as a digital camera, if a foreign object adheres to an optical member such as an optical filter that is on the imaging optical path and is disposed in the vicinity of the image sensor, a foreign object shadow caused by the adhered foreign material appears in the captured image, and that portion is an image. It becomes a defect. In particular, in an interchangeable lens type imaging apparatus, foreign matter such as dust or dust is likely to enter the interior during lens replacement, and image defects are likely to occur. In order to solve such a problem, a reference image as foreign object shadow information attached to the optical member is photographed, and information such as the position of the foreign object shadow is obtained from the reference image, and the foreign object shadow reflected in the normally captured image is captured. Image processing apparatuses that detect and correct image defects are known. There has also been proposed a method of detecting a foreign object shadow from one image and correcting the image defect portion (see Patent Document 1).
しかしながら、影部分の光の透過率からの検出では、誤検出した場合に異物影かどうかの判別ができない。また、異物影の補正をするために、多くの画素情報を必要とするため、演算に時間がかかる。さらに、補正部分の画像によって補正痕が残る場合がある。
本発明の課題は、良好に異物影を検出できる画像処理装置、カメラ及び画像処理プログラムを提供することである。
However, in the detection from the light transmittance of the shadow portion, it is not possible to determine whether or not it is a foreign object shadow if it is erroneously detected. Further, since a large amount of pixel information is required to correct the foreign object shadow, the calculation takes time. Furthermore, correction marks may remain depending on the image of the correction portion.
An object of the present invention is to provide an image processing apparatus, a camera, and an image processing program that can detect a foreign object shadow satisfactorily.
本発明は、以下のような解決手段により前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。
請求項1に記載の発明は、処理対象画像における異物影(100)を検出する異物影検出部(60)と、前記異物影検出部(60)により検出された異物影(100)を補正する補正部(70)と、を備え、前記補正部(70)は、前記異物影(100)の周りを、互いに平行な第一直線(101)及び第二直線(102)と、第一直線(101)及び第二直線(102)と直交する、互いに平行な第三直線(103)及び第四直線(104)とで形成された枠(120)で囲む枠形成部(71)と、前記異物影(100)の内部に位置する補正対象画素(100A)を選択し、前記補正対象画素(100A)を通り且つ前記第三直線(103)及び前記第四直線(104)と平行な第五直線(x)上であって、前記第一直線(101)と交差する位置にある第一画素(111)と、前記第二直線(102)と交差する位置にある第二画素(112)と、を選択し、前記補正対象画素(100A)を通り且つ前記第一直線(101)及び前記第二直線(102)と平行な第六直線(y)上であって、前記第三直線(103)と交差する位置にある第三画素(113)と、第四直線(104)と交差する位置にある第四画素(114)と、を選択する画素選択部(72)と、前記第一画素(111)と前記第二画素(112)の輝度を用いた線形補完により、前記補正対象画素(100A)の位置における第一補完輝度(Y_x)を求め、前記第三画素(113)と前記第四画素(114)の輝度を用いた線形補完により、前記補正対象画素(100A)の位置における第二補完輝度(Y_y)を求め、前記第一補完輝度(Y_x)について、前記補正対象画素(100A)が、前記第三直線(103)と前記第四直線(104)との間の中央部にあるとき重みが強く、どちらかの直線に近づくにつれて重みが小さくなり、前記第二補完輝度(Y_y)について、前記補正対象画素(100A)が、前記第一直線(101)と前記第二直線(102)との間において中央部にあるとき重みが強く、どちらかの直線に近づくにつれて重みが小さくなる加重平均により、前記第一補完輝度(Y_x)と前記第二補完輝度(Y_y)との平均補完輝度(Y_ave)を求める補完輝度算出部(73)と、を備え、前記補正部(70)は、求めた前記平均補完輝度(Y_ave)を用いて、前記補正対象画素(100A)の輝度を補正する補正処理を、前記異物影(100)の画素全体について行うこと、を特徴とする画像処理装置(50)である。
請求項2に記載の発明は、請求項1に記載の画像処理装置(50)であって、前記平均補完輝度(Y_ave)算出部(73)は、前記加重平均を、補正対象画素(100A)から、第一画素(111)と第二画素(112)とのうちの近い方までの第一距離(x)を、第一画素(111)と第二画素(112)との距離に対する割合で示し、第三画素(113)と第四画素(114)とのうちの近い方までの第二距離(y)を、第三画素(113)と第四画素(114)との距離に対する割合で示したときに、平均補完輝度(Y_ave)は、第一補完輝度(Y_x)に第二距離(y)を乗じたものと、第二補完輝度(Y_y)(Y_y)に第一距離(x)を乗じて求めること、を特徴とする画像処理装置(50)である。
請求項3に記載の発明は、請求項1または2に記載の画像処理装置(50)であって、
前記補完輝度算出部(73)は、前記第一補完輝度(Y_x)、及び前記第二補完輝度(Y_y)を求める際に用いる、前記第一画素(111)、前記第二画素(112)、前記第三画素(113)及び前記第四画素(114)の輝度として、それぞれが位置する前記枠(120)上における両隣の画素を含む複数の画素の平均輝度を用いること、を特徴とする画像処理装置(50)である。
請求項4に記載の発明は、請求項3に記載の画像処理装置(50)であって、前記補正部(70)は、前記補正対象画素(100A)を囲む複数の画素の輝度を平均して求めた二次的輝度と前記平均補完輝度(Y_ave)との比を計算し、該比に応じて、補正対象画素(100A)の輝度を補正すること、を特徴とする画像処理装置(50)である。
請求項5に記載の発明は、請求項1から4のいずれか1項に記載の画像処理装置(50)であって、前記処理対象画像が、赤、緑及び青のカラーフィルタ(13a)を通して撮像素子(16)により撮影され、非線形補正された画像の場合、前記補正処理を、赤、緑及び青のそれぞれの画像についてについて行うこと、を特徴とする画像処理装置(50)である。
請求項6に記載の発明は、請求項1から5のいずれか1項に記載の画像処理装置(50)を備えるカメラ(1)である。
請求項7に記載の発明は、請求項1から6のいずれか1項に記載の画像処理装置(50)の機能をコンピュータに実行させるための画像処理プログラムである。
The present invention solves the above problems by the following means. In addition, in order to make an understanding easy, although the code | symbol corresponding to embodiment of this invention is attached | subjected and demonstrated, it is not limited to this.
The invention according to claim 1 corrects the foreign object shadow (100) detected by the foreign object shadow (100) in the processing target image and the foreign object shadow (100) detected by the foreign object shadow detector (60). A correction unit (70), and the correction unit (70) includes a first straight line (101) and a second straight line (102) parallel to each other around the foreign object shadow (100), and a first straight line (101). And a frame forming part (71) surrounded by a frame (120) formed by a third straight line (103) and a fourth straight line (104) perpendicular to the second straight line (102) and parallel to each other, and the foreign object shadow ( 100) is selected as a correction target pixel (100A) and passes through the correction target pixel (100A) and is parallel to the third straight line (103) and the fourth straight line (104) (x ) And intersect with the first straight line (101) A first pixel (111) at a position where the second pixel (112) intersects the second straight line (102), and passes through the correction target pixel (100A) and the first straight line. A third pixel (113) on a sixth line (y) parallel to (101) and the second line (102) and intersecting the third line (103); and a fourth line ( 104) and a fourth pixel (114) at a position intersecting with the pixel selection unit (72) for selecting, and linear interpolation using the luminance of the first pixel (111) and the second pixel (112). The first complementary luminance (Y_x) at the position of the correction target pixel (100A) is obtained, and the correction target pixel ((X_x)) is obtained by linear interpolation using the luminance of the third pixel (113) and the fourth pixel (114). 100A) at the second complementary luminance ( _y), and for the first complementary luminance (Y_x), when the correction target pixel (100A) is in the center between the third straight line (103) and the fourth straight line (104), the weight is Strongly, the weight decreases as one of the straight lines is approached, and the correction target pixel (100A) is between the first straight line (101) and the second straight line (102) for the second complementary luminance (Y_y). The weight of the first complementary luminance (Y_x) and the second complementary luminance (Y_y) is the average complementary luminance (Y_ave) by a weighted average that has a strong weight when it is in the center and decreases as one of the straight lines is approached. And a correction processing for correcting the luminance of the correction target pixel (100A) using the calculated average complementary luminance (Y_ave). And it is performed for all the pixels of the foreign substance shadow (100), an image processing apparatus according to claim (50).
The invention according to
The invention described in claim 3 is the image processing apparatus (50) according to
The complementary luminance calculation unit (73) uses the first pixel (111), the second pixel (112), and the second pixel (112), which are used when obtaining the first complementary luminance (Y_x) and the second complementary luminance (Y_y). An image characterized in that, as the luminance of the third pixel (113) and the fourth pixel (114), an average luminance of a plurality of pixels including both adjacent pixels on the frame (120) where each pixel is located is used. A processing device (50).
The invention described in claim 4 is the image processing device (50) according to claim 3, wherein the correction unit (70) averages the luminance of a plurality of pixels surrounding the correction target pixel (100A). An image processing apparatus (50) characterized by calculating a ratio between the secondary luminance obtained in this way and the average complementary luminance (Y_ave) and correcting the luminance of the correction target pixel (100A) according to the ratio. ).
A fifth aspect of the present invention is the image processing apparatus (50) according to any one of the first to fourth aspects, wherein the processing target image passes through red, green and blue color filters (13a). In the case of an image captured by an imaging device (16) and nonlinearly corrected, the image processing apparatus (50) is characterized in that the correction processing is performed for each of red, green, and blue images.
The invention described in claim 6 is a camera (1) including the image processing device (50) according to any one of claims 1 to 5.
The invention according to claim 7 is an image processing program for causing a computer to execute the function of the image processing apparatus (50) according to any one of claims 1 to 6.
本発明によれば、良好に異物影を検出できる画像処理装置、カメラおよび画像処理プログラムを提供できる。 According to the present invention, it is possible to provide an image processing apparatus, a camera, and an image processing program that can detect a foreign object shadow satisfactorily.
以下、図面等を参照して、本発明の第1実施形態について説明する。
図1は、レンズ交換式のカメラ1の構成を示す図である。図2は、カメラ1と画像処理装置を構成するパーソナルコンピュータ(PC)30および周辺装置を示すブロック図である。
カメラ1は、被写体像を電気信号に変換した画像データとして出力する電子スチルカメラである。
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings and the like.
FIG. 1 is a diagram illustrating a configuration of a lens-interchangeable camera 1. FIG. 2 is a block diagram showing a personal computer (PC) 30 and peripheral devices constituting the camera 1 and the image processing apparatus.
The camera 1 is an electronic still camera that outputs image data obtained by converting a subject image into an electrical signal.
カメラ1は、カメラ本体2と、カメラ本体2に対して着脱可能な撮像レンズ3とにより構成されている。撮像レンズ3は、複数の光学レンズ群(図1においては1枚のレンズで示す)から成る結像光学系3Lを備えている。
The camera 1 includes a
カメラ1は、結像光学系3L(撮像レンズ3)とカメラ本体2とを備える。
カメラ本体2は、シャッター11、光学フィルタ12、撮像素子13、画像処理部14、操作部15、表示部16、メモリカード用インターフェース部17、外部インターフェース部18、電源19、制御部20等を備えている。
The camera 1 includes an imaging
The
シャッター11は、結像光学系3Lから撮像素子13へ向かう撮影光を遮蔽および通過させることによって、露光時間を調整する。
光学フィルタ12は、撮像に際して偽色(色モアレ)等の発生を防止する光学ローパスフィルタ等によって構成される。なお、符号4は、この光学フィルタ12の表面に付着した塵や埃などの異物を示す。このような撮影光の光路上にあって撮影光を透過する光学フィルタ12に異物4が付着していると、撮像素子13によって取得される画像データのなかに、異物4の影響を受けた画素が含まれる場合がある。
The
The
撮像素子13は、CCDやCMOS等の光電変換素子であって、複数の画素から構成される矩形形状の撮像領域を有している。図3は撮像素子13の説明図であり、撮像素子13の受光面には、それぞれの画素に対応して赤色(R)フィルタ13R、緑色(G)のフィルタ13G、青色(B)フィルタ13Bを備えるカラーフィルタ13aが、いわゆるベイヤ(Bayer)配列に基づいて配置されている。
そして、撮像素子13は、その結像面に結像された像を電気信号に変換し、被写体像に対応する画像信号(撮像信号)を出力する。撮像素子13から出力された画像信号は、所定のアナログ信号処理の後、A/D変換されて画像処理部14に入力される。
The
The
画像処理部14は、撮像素子13から入力された画像データに対して、補完,階調変換や輪郭強調などの画像処理を行う。補完処理としては、撮像素子13から出力された未処理画像を、人の目で見た印象に近い画像に補完するガンマ処理等が含まれる。
そして、本実施形態のカメラ1では、撮像素子13において、画像処理部14に供給される画像データはRGB表色系で示される。画像データを構成する各々の画素には、RGBの何れか1つの色成分の色情報が存在する。
なお、撮像素子13を構成する1つの光電変換素子を画素と言うが、この画素に対応した画像データの1単位も画素と言う。また、画像も複数の画素から構成される概念である。画像処理が完了した画像データは、補完処理が完了し、各画素にはRGBのすべての色成分の色情報が存在するものとする。
The
In the camera 1 of the present embodiment, the image data supplied to the
In addition, although one photoelectric conversion element which comprises the image pick-up
操作部15は、撮影者が撮影タイミング等を決定する信号を入力するレリーズボタンや、モード切り換え用の選択ボタン等を備えている。そして、操作部15は、それらの操作情報を制御部に入力する。
表示部16は、LCD等によって構成され、カメラ1における各種設定メニュー、撮像素子13による撮像画像やメモリカードに格納された画像データに基づく再生画像を表示する。
The
The
メモリカード用インターフェース部17は、メモリカード(カード状のリムーバブルメモリ)40とのインターフェースをとる。
外部インターフェース部18は、所定のケーブルや無線伝送路を介してPC30等の外部装置とのインターフェースをとる。
電源19は、カメラ1の各機能部に電力を供給する。
The memory
The
The power source 19 supplies power to each functional unit of the camera 1.
制御部20は、カメラ1における各機能部を統括制御する。すなわち、制御部20は、操作部15におけるレリーズスイッチから撮影指示信号が入力されると、シャッター11を駆動制御して露光動作等の撮影動作を制御する。また、制御部20は、撮像素子13で取得されて画像処理部14で画像処理が行われて入力された画像データを、メモリカード用インターフェース部17に着脱可能に取り付けられたメモリカード40等に記憶させ、保存する。さらに、制御部20は、メモリカード40等に記憶された画像データを呼び出し、表示部16に表示させる。
The
上記のように構成されたカメラ1は、撮影時において制御部20によって制御されて、下記のように作用する。
操作者によって操作部15のレリーズボタンが押圧操作されると、シャッター11を所定時間開放する。撮像素子13は、結像光学系3Lにより撮像領域に結像された光学像に対応する画像信号を生成する。撮像素子13によって生成された画像信号は、画像データとして画像処理部14に入力され、画像処理部14によってガンマ処理等の画像処理が施される。そして、画像処理部14で画像処理された画像データに基づいて表示部16に撮影画像を表示すると共に、その画像データに必要に応じてJPEG等による圧縮処理を施してメモリカード用インターフェース部17に装着されたメモリカード40に記憶・保存する。また、外部インターフェース部18を介して接続された後述するPC30に、画像データを送出する。
The camera 1 configured as described above is controlled by the
When the release button of the
また、メモリカード40に記憶・保存され、または、外部インターフェース部18を介してPC30に送出される画像データは、たとえば、Exifファイルに記録される。Exifファイルには、絞り値、カメラ名,カメラメーカー名,シャッター速度および露光補正等の露出条件、撮影時刻などの付加情報が共に記録される。
The image data stored / saved in the
パーソナルコンピュータ(PC)30は、図示しないが、CPU、メモリ、ハードディスク、メモリカード40とのインターフェースをとるメモリカード用インターフェース部、ケーブルや無線伝送路を介してカメラ1等の外部装置とのインターフェースをとる外部インターフェース部等を備えている。また、PC30には、モニタ31やプリンタ32等が接続されており、CD−ROM33に記録された異物影検出・補正処理に係るアプリケーションプログラムが予めインストールされている。
Although not shown, the personal computer (PC) 30 has an interface with a CPU, memory, hard disk, memory card interface unit that interfaces with the
つぎに、図4〜図6を参照して、撮影された対象画像データにおける異物影を検出して補正する処理(異物影検出・補正処理)について説明する。
図4は、異物影検出・補正処理を行う画像処理装置50の機能ブロック図である。図5は、画像処理装置50における異物影検出部60の機能ブロック図である。図6は、HSV変換処理の六角錐モデルを表す概念図である。
Next, with reference to FIG. 4 to FIG. 6, a process (foreign object shadow detection / correction process) for detecting and correcting a foreign object shadow in the captured target image data will be described.
FIG. 4 is a functional block diagram of the
異物影検出・補正処理は、メモリカード30を介して提供された、または、カメラ1の外部インターフェース部18から伝送された画像処理完了後の画像データに対して、PC30によって行われる。前述したように、PC30には、異物影検出・補正処理のアプリケーションプログラムがインストールされており、PC30はこのプログラムを実行することによって、異物影検出・補正処理を行う画像処理装置として機能する。
The foreign object shadow detection / correction processing is performed by the
PC30とプログラムとによって機能する画像処理装置50は、図4に示すように、対象画像データが入力される入力部52と、異物影領域を検出する異物影検出部60と、異物影検出部60によって検出された異物影情報に基づいてその異物影を補正する補正部70と、補正画像データが出力された出力部53と、を備えている。
As shown in FIG. 4, the
1.異物影検出部
異物影検出部60は、機能ブロック図である図5に示すように、連結領域判定部61と、対象領域抽出部62と、輝度判定部63と、色相判定部64と、彩度判定部65と、顔判定部66と、落込み割合判定部67と、を備えている。
1. Foreign Object Shadow Detection Unit As shown in FIG. 5 which is a functional block diagram, the foreign object
異物影は、たとえば光学フィルタ12の前面に付着した異物4(図1参照)による異物影を撮影することで生ずるものである。以下、このような異物4(図1参照)による異物影によって生じた異物影領域を例として説明する。
The foreign object shadow is generated, for example, by photographing a foreign object shadow caused by the foreign object 4 (see FIG. 1) attached to the front surface of the
1−1 連結領域判定部
連結領域判定部61は、対象画像における各画素の明るさ(たとえば輝度)情報から、異物影の可能性のある領域を抽出する部分である。連結領域判定部61による異物影の検出は、まず、対象画像データを逆ガンマ補正して、得られたRGBによる各画素の画像データをHSV変換して色相平面、彩度平面を求め、RGBから輝度平面を求め、さらにその輝度勾配を求めて行う。
1-1 Connected Area Determining Unit The connected
(逆ガンマ補正)
連結領域判定部61は、まず、輝度情報算出に使用する画像のRGB情報を非線形な状態から線形に戻すために逆ガンマ補正を行う。RAW画像の場合は、さまざまな補正処理を加える前のdeBayer配列のカラーフィルタ13a(図3)を通過した直後の画像を用いることで線形なRGB情報を得ることができる。JPEG画像の場合は、すでにガンマ補正されているので、線形のRGB情報を得るために、次のようにして逆ガンマ補正をかける。
R’=(R)γ
G’=(G)γ
B’=(B)γ
例えば、γ=2.2という値で逆ガンマ補正を行う。γテーブルを参照してリニアに変換してもよい。
(Reverse gamma correction)
The connected
R ′ = (R) γ
G ′ = (G) γ
B ′ = (B) γ
For example, inverse gamma correction is performed with a value of γ = 2.2. You may convert into linear with reference to a gamma table.
(HSV変換)
連結領域判定部61は、逆ガンマ補正された画像を構成する各画素について、HSV変換処理を行う。
図6は、HSV変換の六角錐モデルの概念図である。明度値Vの座標軸は六角錐の中心軸で表され、彩度Sの座標軸は六角錐の中心軸に直交する軸で表され、色相Hは六角錐の中心軸を回転する回転角で表される。
明度値V(Value)、色相値H(Hue)および彩度値S(Saturation)の各画素の要素は、RGB画像データにおける各画素のRGB要素から、以下の数式(1)〜(10)を用いて変換される。
(HSV conversion)
The connected
FIG. 6 is a conceptual diagram of a hexagonal pyramid model for HSV conversion. The coordinate axis of the brightness value V is represented by the center axis of the hexagonal pyramid, the coordinate axis of the saturation S is represented by an axis orthogonal to the center axis of the hexagonal pyramid, and the hue H is represented by a rotation angle that rotates the central axis of the hexagonal pyramid. The
The elements of each pixel of the lightness value V (Value), the hue value H (Hue), and the saturation value S (Saturation) are expressed by the following mathematical formulas (1) to (10) from the RGB elements of each pixel in the RGB image data. Used to convert.
Vmax=max{R,G,B}・・・(1)
Vmin=min{R,G,B}・・・(2)
として、
V= Vmax ・・・(3)
S=(Vmax−Vmin)/Vmax ・・・(4)
H=(π/3)(b−g) (R=Vmaxのとき) ・・・(5)
H=(π/3)(2+r−b) (G=Vmaxのとき) ・・・(6)
H=(π/3)(4+g−r) (B=Vmaxのとき) ・・・(7)
Vmax = max {R, G, B} (1)
Vmin = min {R, G, B} (2)
As
V = Vmax (3)
S = (Vmax−Vmin) / Vmax (4)
H = (π / 3) (b−g) (when R = Vmax) (5)
H = (π / 3) (2 + r−b) (when G = Vmax) (6)
H = (π / 3) (4 + gr) (when B = Vmax) (7)
ただし、
r=(Vmax−R)/(Vmax−Vmin) ・・・(8)
g=(Vmax−G)/(Vmax−Vmin) ・・・(9)
b=(Vmax−B)/(Vmax−Vmin) ・・・(10)
なお、式(5)〜(7)で変換された結果、H<0の時には、Hに2πを加える。また、Vmax=0の時は、S=0,H=不定となる。
However,
r = (Vmax−R) / (Vmax−Vmin) (8)
g = (Vmax−G) / (Vmax−Vmin) (9)
b = (Vmax−B) / (Vmax−Vmin) (10)
When H <0 as a result of conversion by the equations (5) to (7), 2π is added to H. When Vmax = 0, S = 0 and H = undefined.
(輝度情報取得)
輝度情報(Y)は、逆ガンマ補正したリニアRGB値から算出され、人間の見た目と近い輝度情報を得るためには次のような算式が使用される。
Y=(0.299*R’+0.589*G’+0.114*B’)/255・・(11)
このようにして得られた輝度平面Yに対して、縦方向、横方向の微分フィルタをかけ、それぞれの差分を以下の式(12)
Luminance information (Y) is calculated from linear RGB values subjected to inverse gamma correction, and the following formula is used to obtain luminance information close to human appearance.
Y = (0.299 * R ′ + 0.589 * G ′ + 0.114 * B ′) / 255 (11)
The luminance plane Y thus obtained is subjected to vertical and horizontal differential filters, and the respective differences are expressed by the following equation (12).
輝度勾配平面では、異物影の周縁部では高い画素値を示し、空などの一様な平面では低い画素値を示す。つまり、エッジ部分では高い画素値を示し、これによって異物影のエッジ部分を検出できる。 In the luminance gradient plane, a high pixel value is shown at the peripheral part of the foreign object shadow, and a low pixel value is shown in a uniform plane such as the sky. That is, a high pixel value is shown in the edge portion, and thereby the edge portion of the foreign object shadow can be detected.
(連結画素領域抽出)
また、連結領域判定部61は、所定の閾値を設定して、輝度勾配平面を2値画像に変換する。すなわち、閾値より高い輝度勾配値を有する画素を「1」、閾値より低い輝度勾配値を有する画素を「0」と置換する。本実施形態では、閾値を0.3とする。
そして、連結領域判定部61は、このようにして得られた2値画像から、「1」の画素が連結した領域(連結画素領域)を抽出する。連結画素領域とは、たとえば、矩形の画素の4辺の内の少なくとも1辺で連続した(4近傍の)画素領域とする。この連結画素領域が、異物影による異物影の可能性のある領域である。
(Concatenated pixel area extraction)
The connected
Then, the connected
1−2 対象領域抽出部
対象領域抽出部62は、連結領域判定部61によって抽出された連結画素領域の中から、異物影のサイズ(大小)に基づいて異物影部の可能性のある領域を抽出する。
ここで、対象領域抽出部62は、連結画素領域から異物影部の可能性のある領域を抽出する際において、異物影を生じさせる異物影の大きさを基準とする。
1-2 Target Area Extraction Unit The target
Here, the target
まず、異物影の大きさ判定の基準となる方法について説明する。
ここでは、一般的な異物のサイズである最小100μm×100μm〜最大400μm×400μmの異物によって投影される異物影を検出対象とするように画素数によって規定された閾値を基準とし、連結画素領域の大きさがこの閾値内に含まれるものが補正対象となり得る異物影であるとして異物影部の可能性のある領域と判定し、選択する。
First, a method serving as a reference for determining the size of a foreign object shadow will be described.
Here, with reference to a threshold value defined by the number of pixels so that a foreign object shadow projected by a foreign object having a minimum size of 100 μm × 100 μm to a maximum of 400 μm × 400 μm, which is the size of a general foreign material, is used as a reference, A region whose size is included in this threshold is determined as a foreign object shadow that can be a correction target, and is determined as a region having a possibility of a foreign object shadow part.
1−3 輝度判定部
輝度判定部63は、先の連結領域判定部61において説明したHSV変換によって求められた輝度値Yと画像平面に対応する輝度平面とを用い、連結画素領域における内外の輝度を比較する。ここで、異物影は、内部の輝度が周辺の輝度に比較して低く、輝度比は1よりとても小さい。このため、1より小さい所定の閾値を設定し、連結画素領域の輝度比がこの閾値より小さいに場合にのみ、補正対象となり得る異物影であるとして異物影部の可能性のある領域と判定し、選択する。
1-3 Luminance Determination Unit The
1−4 色相判定部
色相判定部64は、先の連結領域判定部61において説明したHSV変換によって、各画素の色相値Hを求めて画像平面に対応する色相平面を生成する。色相判定部64は、色相値Hと色相平面とを用い、連結画素領域における内外の色相を比較する。ここで、異物影は、輝度には大きく影響するものの色相にはほとんど影響を与えず、連結画素領域の内外における色相比はほとんど1に近い。このため、1に近い所定の範囲を設定し、色相比がこの範囲内にある場合にのみ、補正対象とすべき異物影であるとして異物影部の可能性のある領域と判定し、選択する。
1-4 Hue Determination Unit The
1−5 彩度判定部
彩度判定部65は、先の連結領域判定部61において説明したHSV変換によって、各画素の彩度値Sを求めて画像平面に対応する彩度平面を生成する。彩度判定部65は、彩度値Sと彩度平面とを用い、連結画素領域における内外の彩度を比較する。
1-5 Saturation Determination Unit The
このような彩度比による判定を行う理由は、以下の通りである。
異物部分では、異物周辺の輝度より異物内部の輝度が低く、輝度比は1よりとても小さい。そして、異物影は色相情報にほとんど影響を与えないので、異物内外で色相比はほとんど1に近い。しかし、画像によっては輝度比が1より小さく、色相比がほとんど1に近いような被写体が存在し、この2つの条件だけでは誤検出を起こしてしまうからである。
The reason for performing determination based on such saturation ratio is as follows.
In the foreign matter portion, the brightness inside the foreign matter is lower than the brightness around the foreign matter, and the brightness ratio is much smaller than 1. Since the foreign object shadow hardly affects the hue information, the hue ratio is almost 1 inside and outside the foreign object. However, there are subjects whose luminance ratio is smaller than 1 and hue ratio is almost close to 1, depending on the image, and false detection occurs only with these two conditions.
そこで、異物内外の彩度比を判定に組み込む。一般的に異物は影であり、黒っぽい点像として画像に写り込む。したがって、異物部分の彩度値は周辺部に比べて低くなり、異物内外の彩度比は1よりも小さくなる。反対に、異物ではない被写体部分での彩度比は1より大きくなる箇所も存在する。この特徴を使って判別することで、抽出してきたエリアが異物であるか、被写体であるかを区別することができ、誤検出を排除して異物の検出精度を高めることが出来る。 Therefore, the saturation ratio inside and outside the foreign object is incorporated in the determination. In general, the foreign matter is a shadow and appears as a black point image in the image. Therefore, the saturation value of the foreign matter portion is lower than that of the peripheral portion, and the saturation ratio inside and outside the foreign matter is smaller than 1. On the other hand, there is a portion where the saturation ratio in the subject portion that is not a foreign object is larger than 1. By discriminating using this feature, it is possible to discriminate whether the extracted area is a foreign object or a subject, and it is possible to eliminate erroneous detection and increase the foreign object detection accuracy.
この彩度判定における彩度の算出には、本実施形態において上で説明した、HSV変換式中の彩度の式(4)では、Vmaxとの比を取っているため、画像中の暗い部分で低彩度とならないことがあり、すなわち、異物部分でも周辺との彩度比を計算したときに、1よりも大きな値となってしまうことがある。例えば、R=12、G=7、B=3という暗いピクセルがあり、この彩度を上式(4)で求めると、
(12−3)/12=0.75
となり、最大値1の彩度に対して0.75とかなり高い値となってしまう。
In the saturation calculation in this saturation determination, the saturation expression (4) in the HSV conversion expression described above in the present embodiment takes a ratio with Vmax, and therefore a dark portion in the image. In some cases, the saturation does not become low, that is, the foreign matter portion may have a value greater than 1 when the saturation ratio with the surroundings is calculated. For example, there is a dark pixel of R = 12, G = 7, and B = 3, and when this saturation is obtained by the above equation (4),
(12-3) /12=0.75
Thus, the maximum saturation value of 1 is 0.75, which is a considerably high value.
異物の判別条件として彩度比が1以下であることを用いると、濃い異物が検出されないという問題が生じてしまう。彩度比が1以上を許してしまうと、誤検出が発生してしまう。この問題を解決するために、本実施形態では、彩度判定部においては、上式(4)の代わりに、彩度Sを修正彩度Sとして以下の式(14)により求める。 If a saturation ratio of 1 or less is used as a foreign matter determination condition, there arises a problem that dark foreign matter is not detected. If the saturation ratio allows more than 1, false detection will occur. In order to solve this problem, in this embodiment, the saturation determination unit obtains the saturation S as the corrected saturation S instead of the above equation (4) according to the following equation (14).
この修正彩度Sを用いることで、画像全体の暗い部分の彩度を人間の感覚にそった値で算出でき、異物検出パラメータの彩度比パラメータも範囲を限定することで誤検出を排除することができる。
By using this corrected saturation S, the saturation of the dark part of the entire image can be calculated with values that match human senses, and the false detection is eliminated by limiting the range of the saturation ratio parameter of the foreign object detection parameter. be able to.
1−6 顔判定部
ここまでの対策でも誤検出が発生する場合があり、とくに人の顔にあるホクロ等で誤検出しやすい。人の顔での誤検出は他の誤検出よりも画像の見栄えへの影響が大きく、誤検出部を補正した場合には大きく印象が変わってしまう可能性がある。したがって本実施形態では、顔判定部66を備え、異物影の可能性のある箇所が人の顔にあるか否かを判定する。
1-6 Face determination unit Even with the countermeasures described so far, erroneous detection may occur, and it is particularly easy to detect erroneously with a mole or the like on a human face. Misdetection on the human face has a greater effect on the appearance of the image than other misdetections, and if the misdetection part is corrected, the impression may change greatly. Therefore, in the present embodiment, the
顔判定部66は、異物影を検出する対象となっている画像中における顔領域を、周知の方法で検出する。そして、顔判定部66に至るまでの連結領域判定部61から彩度判定部65までにおいて異物影と判定された部分が、顔領域に位置するかどうかを判定する。
The
1−7 落込み割合判定部
次に、顔判定部66において顔と判定された領域内に、異物影と判定された部分が存在する場合、それらについて、上記連結領域判定部61において逆ガンマ補正して得られたリニアRGB情報を調べる。
1-7 Drop Ratio Determination Unit Next, if there are portions determined to be foreign object shadows in the region determined to be a face by the
異物影と判定された部分が異物影であれば、各リニアRGB情報に対して等しい比率で影響を与える。例えば、異物影の場合、異物周辺部のRGBに対してそれぞれ約20%のゲインの落ち込みが発生する。しかし、異物影でない、例えばホクロの領域では、周辺部に対する落ち込みが、RGBそれぞれに対して均等でない。この特徴より、顔部分にある異物影候補が、実際に異物影であるのかどうか、誤検出を見分けることができる。 If the portion determined to be a foreign object shadow is a foreign object shadow, the linear RGB information is affected at an equal ratio. For example, in the case of a foreign object shadow, a gain drop of about 20% occurs with respect to RGB around the foreign object. However, in the area of a mole that is not a foreign object shadow, for example, the drop in the peripheral portion is not uniform for each of RGB. From this feature, it is possible to distinguish whether a foreign object shadow candidate in the face part is actually a foreign object shadow or not.
2.補正部
図7は、補正部70の機能ブロック図である。図8は、処理対象画像中における異物影100を示す図であり、補正方法を説明する図である。
補正部70は、上述の異物影検出部60により異物影と判定された影の補正を行う。図7に示すように補正部70は、枠形成部71、画素選択部72及び補完輝度算出部73、を備える。
2. Correction Unit FIG. 7 is a functional block diagram of the
The
2−1 枠形成部
枠形成部71は、異物影検出部60により異物影と判定された部分(異物影100)の周りを、図8で示すように、互いに平行な第一直線101及び第二直線102と、第一直線101及び第二直線102と直交する、互いに平行な第三直線103及び第四直線104とで形成された枠120で囲む。
2-1. Frame Forming Unit The
2−2 画素選択部
画素選択部72は、異物影100の内部に位置する補正対象画素100Aを選択する。
そして、画素選択部72は、第三直線103及び第四直線104と平行で、且つ補正対象画素100Aを通る直線x上における、第一直線101と交差する位置にある第一画素111と、第二直線102と交差する位置にある第二画素112と、を選択する。
2-2 Pixel Selection Unit The
The
画素選択部72は、更に、第一直線101及び第二直線102と平行で、且つ補正対象画素100Aを通る直線y上における、第三直線103と交差する位置にある第三画素113と、第四直線104と交差する位置にある第四画素114と、を選択する。
The
2−3 補完輝度算出部
補完輝度算出部73は、第一画素111について、その輝度をAとして補正対象画素100Aとの距離をx1とする。第二画素112について、その輝度をBとして補正対象画素100Aとの距離をx2とする。第三画素113について、その輝度をCとして補正対象画素100Aとの距離をy1とする。第四画素114について、その輝度をDとして補正対象画素100Aと距離をy2とする。
2-3 Complementary Luminance Calculation Unit The complementary
そして、第一画素111、第二画素112、第三画素113及び第四画素114の輝度A、B、C、Dを、それぞれ隣接した2画素を含めた3画素での平均値として算出する。この3画素で平均した輝度値を、それぞれ第一平均輝度A’、第二平均輝度B’、第三平均輝度C’、第四平均輝度D’とする。
Then, the luminances A, B, C, and D of the
補完輝度算出部73は、第一平均輝度A’と第二平均輝度B’とを用いた線形補完により、x方向の補正対象画素100Aの位置における第一補完輝度Y_xを、また、第三平均輝度C’と第四平均輝度D’とを用いた線形補完により、y向の補正対象画素100Aの位置における第二補完輝度Y_yを、以下の式(15)により求める。
ここで、例えば、第一画素111、第二画素112、第三画素113及び第四画素114がノイズ等で一画素だけ特異的に明るかったり暗かったりした場合、その画素を基に、以下に説明する補完輝度を求めると、補正対象画素100Aにおける補完後の輝度が、その画素の輝度値を計算に用いるラインに沿って全て他の画素に対して異常な輝度を示すことになる。しかし、本実施形態によると、このように、A、B、C、Dを、それぞれ隣接した2画素を含めた3画素での平均値として算出する。この3画素で平均した輝度値を、それぞれ第一平均輝度A’、第二平均輝度B’、第三平均輝度C’、第四平均輝度D’としているので、そのような、他の画素に対して異常な輝度を示す現象が緩和される。
Here, for example, when the
ついで、このように、x方向とy方向の線形補間から求めたY_xとY_yを使って補正対象画素100Aの最終的な補間値を求める。
このとき、補正対象画素100Aの位置によってY_xとY_yのブレンド比率(平均をとる際の重み付けの割合)を変更する。なお、以下のEとFについては、比率で求めてもピクセル数で求めても良い。
At this time, the blend ratio of Y_x and Y_y (the ratio of weighting when taking an average) is changed depending on the position of the
次いで、補正部70は、式(18)の平均補完輝度Y_aveと補正対象画素100Aのオリジナル輝度ori_Yの比を計算して、その処理を異物影100全体に行うことで、ゲインマップY_gmap[i、j]を作成することができる。
Next, the
しかし、このまま補正してしまうと、補正部分の画像が平坦な感じになり、オリジナル画像の自然さが消えてしまう。そこで、ゲインを計算する補正対象画素100Aのオリジナル輝度ori_Yの値を、その補正対象画素100Aとその周辺8画素の平均値である二次的オリジナル輝度で、以下の式(19)を用いて置き換える。
RAW画像の場合は輝度、JPEG画像の場合はリニアでないオリジナルのRGB各面で上述のゲインマップを計算する。
JPEG画像に対しては、求めたRGB各面のゲインマップを使って異物影100の補正を行う。オリジナル画像のRGB各成分をそれぞれori_r、ori_g、ori_b、RGB各面のゲインマップをそれぞれfinal_rgmap、final_ggmap、final_bgmap、とすると補正後のRGBは次の式(21)のように算出される。
For the JPEG image, the
こうして得られた、final_R、final_G、final_Bは異物影100を補正したものであり、これらを一枚のJPEG画像として出力する。RAW画像に対しては上で求めた輝度のゲインマップを使ってリニアRGB各面を補正することができる。リニアRGB各成分をそれぞれori_r、ori_g、ori_b、輝度のゲインマップをfinal_ygmap、とすると補正後のRGBは次の式(22)のように算出される。
つぎに、図9、図10に示すフローチャートに従って、画像処理装置50における異物影検出・補正処理の流れを説明する。また、図9、図10及び以下の説明中、ステップを「S」とも略記する。
Next, the flow of foreign object shadow detection / correction processing in the
画像処理装置50は、メモリカード40を介して、または、カメラ1の外部インターフェース部18を介して入力された補正対象画像データを読み込む(S01)。
The
読み込んだ対象画像データの、RGBデータをそれぞれ逆ガンマ補正する(S02)。
そして逆ガンマ補正したRGBより式(11)を用いて輝度Yを求め、輝度平面Yに平均化フィルタをかけてノイズ処理を行う(S03)。
The RGB data of the read target image data is subjected to inverse gamma correction (S02).
Then, the luminance Y is obtained from the RGB subjected to the inverse gamma correction by using the equation (11), and noise processing is performed by applying an averaging filter to the luminance plane Y (S03).
その後、Yの勾配(Ygrad)を計算する(S04)。
輝度勾配Ygradが閾値以上の領域を抽出する(S05)。
Thereafter, the gradient (Ygrad) of Y is calculated (S04).
A region where the luminance gradient Ygrad is greater than or equal to the threshold is extracted (S05).
続いて、連結領域判定部61により連結画素領域を抽出する(S06)。
さらに、抽出された連結画素領域の大きさ判定を行う(S07)。
Subsequently, a connected pixel region is extracted by the connected region determination unit 61 (S06).
Further, the size of the extracted connected pixel area is determined (S07).
次いで、輝度判定部63によって、連結画素領域における内外の輝度比に基づいて異物影部の可能性のある領域に該当するか否かを判定する(S08)。
さらに、色相判定部64によって、連結画素領域における内外の色相比に基づいて異物影部の可能性のある領域に該当するか否かを判定し(S09)、次に彩度判定を行う(S10)。
Next, the
Further, the
顔判定部66によって、異物影の可能性のある領域が、顔領域にあるかどうかを判断する(S11)。
顔と検出された位置である場合、リニアRGB情報を調べる。ここで、リニアRGBの落ち込みが等しい場合、異物影の可能性のある領域と判断する(S12)。
The
If the position is detected as a face, the linear RGB information is examined. Here, when the drop of linear RGB is equal, it is determined that there is a possibility of foreign object shadow (S12).
そして、異物情報を保存し(S13)、上記ステップ全てにおいて異物影部の可能性のある領域と判定されたもの(異物影100)について補正部70により異物影100の補正を行う(S14)。
Then, the foreign object information is stored (S13), and the
図10はS14の補正部70による異物影100の補正を示すフローチャートである。
まず、補正部70の枠形成部71は、異物影100の周りに枠120を形成する(S21)。
次いで、画素選択部72は、異物影100の内部に位置する補正対象画素100Aを選択する(S22)。
そして、異物影100の内部の補正対象画素100A、直線x上における、第一直線101と交差する位置にある第一画素111、第二直線102と交差する位置にある第二画素112、直線y上における、第三直線103と交差する位置にある第三画素113、第四直線104と交差する位置にある第四画素114、を選択する(S23)。
FIG. 10 is a flowchart showing the correction of the
First, the
Next, the
Then, the
第一画素111、第二画素112、第三画素113及び第四画素114の輝度A、B、C、Dを、それぞれ隣接した2画素を含めた3画素で平均し、第一平均輝度A’、第二平均輝度B’、第三平均輝度C’、第四平均輝度D’を求める(S24)。
第一平均輝度A’、第二平均輝度B’、第三平均輝度C’、第四平均輝度Dを用いた線形補完を用いて第一補完輝度Y_x、第二補完輝度Y_yを式(15)により求める(S25)。
The luminances A, B, C, and D of the
Using the linear interpolation using the first average luminance A ′, the second average luminance B ′, the third average luminance C ′, and the fourth average luminance D, the first complementary luminance Y_x and the second complementary luminance Y_y are expressed by Expression (15). (S25).
x方向とy方向の線形補間から求めたY_xとY_yを使って、補正対象画素100Aの位置によってY_xとY_yのブレンド比率を変更して、補正対象画素100Aの最終的な補間値を求める(S26)。
Using Y_x and Y_y obtained from linear interpolation in the x and y directions, the blend ratio of Y_x and Y_y is changed according to the position of the
補正対象画素100Aのオリジナル輝度ori_Yの値を、その補正対象画素100Aとその周辺8画素の平均値である二次的オリジナル輝度で、式(19)を用いて置き換える(S27)。
The value of the original luminance ori_Y of the
RAW画像の場合は輝度、JPEG画像の場合はリニアでないオリジナルのRGB各面で上述のゲインマップを計算する(S28)。
JPEG画像に対しては、求めたRGB各面のゲインマップを使って異物影100の補正を行う(S29)。
In the case of a RAW image, the above-described gain map is calculated for each original RGB surface that is luminance in the case of a RAW image and non-linear in the case of a JPEG image (S28).
For the JPEG image, the
以上、本実施形態によると、以下の効果を有する。
(1)例えば、異物影のゲインマップを求める際に、周囲の多数の画素の輝度を計算する場合、演算が複雑であり、演算負荷がかかり、演算時間が長くなる。さらに、異物影周辺部の複数画素を参照するため、異物影付近に被写体などがある場合は正しいゲインマップを作成できないという問題がある。
しかし、本実施形態によると、異物影の一画素の輝度のゲインの変更量を、異物影の外側の4つの画素の輝度を基に演算する。したがって、演算が容易であり、演算負荷の軽減及び演算時間の短縮が可能となる。
As described above, this embodiment has the following effects.
(1) For example, when calculating the brightness map of a large number of surrounding pixels when obtaining a gain map of a foreign object shadow, the calculation is complicated, a calculation load is applied, and the calculation time becomes long. Furthermore, since a plurality of pixels around the foreign object shadow are referred to, there is a problem that a correct gain map cannot be created if there is a subject near the foreign object shadow.
However, according to the present embodiment, the amount of change in the luminance gain of one pixel of the foreign object shadow is calculated based on the luminance of the four pixels outside the foreign object shadow. Therefore, calculation is easy, and calculation load can be reduced and calculation time can be shortened.
(2)そして、この場合、異物影の外側の画素において、ノイズ等の影響で他の画素と比べて非常に明るい、又は暗いといった画素があった場合、その画素の影響により、画素の輝度値を補完の計算に用いるライン全体が、明るくなる可能性がある。これをそのままで補正すると、特に、外枠に用いる部分の境界で、ライン状の補正痕を生じる。
しかし、本実施形態によると、エッジに行くにしたがって、そのエッジ方向の計算に用いるものの影響を少なくしている、したがって、エッジでラインが形成されることがない。
さらに、枠部の計算を3つ平均にしているので、より滑らかになる。
(2) In this case, if a pixel outside the foreign object shadow is very bright or dark compared to other pixels due to noise or the like, the luminance value of the pixel is affected by the influence of the pixel. There is a possibility that the whole line that uses for calculation of complementation becomes brighter. If this is corrected as it is, a line-shaped correction mark is generated particularly at the boundary of the portion used for the outer frame.
However, according to the present embodiment, the influence of what is used for calculation of the edge direction is reduced as going to the edge, and therefore no line is formed at the edge.
Furthermore, since the three frame calculations are averaged, it becomes smoother.
(3)さらに、エッジ近傍でなくとも、例えば、第一画素111、第二画素112、第三画素113及び第四画素114がノイズ等で一画素だけ特異的に明るかったり暗かったりした場合、その画素を基に、補完輝度を求めると、補正対象画素100Aにおける補完後の輝度が、その画素の輝度値を計算に用いるラインに沿って全て他の画素となじまないことになる。しかし、本実施形態によると、隣接する3画素の平均をとっているので、画素がノイズ等で一画素だけ特異的に明るかったり暗かったりした場合も、その画素を計算に用いるラインが、他の部分に対して異常な輝度を示す現象が緩和される。
(3) Furthermore, even if the
(4)また、本実施形態では、JPEG画像等の場合は、非線形補正前のオリジナルのRGB各面でゲインマップを作成して補正するので、非線形なRGB画像でも補正痕なく異物影を補正できる。 (4) In the present embodiment, in the case of a JPEG image or the like, a gain map is created and corrected on each original RGB surface before nonlinear correction, so that a foreign object shadow can be corrected without correction traces even in a nonlinear RGB image. .
(変形形態)
以上、説明した実施形態に限定されることなく、以下に示すような種々の変形や変更が可能であり、それらも本発明の範囲内である。
(Deformation)
The present invention is not limited to the above-described embodiment, and various modifications and changes as described below are possible, and these are also within the scope of the present invention.
(1)上記実施形態で補完輝度算出部73は、第一画素111について、補正対象画素100Aとの距離をx1とし、第二画素112について、補正対象画素100Aとの距離をx2とした。第三画素113について、補正対象画素100Aとの距離をy1とし、第四画素114について、その輝度をDとして補正対象画素100Aと距離をy2とした。
しかし、補正対象画素100Aと第一画素111と第二画素112とのうちの近いほうとの距離をxとし、補正対象画素100Aと第一画素111と第二画素112とのうちの遠い方との距離を1−xとして表すこともできる(補正対象画素100Aが、第一画素111と第二画素112との中間のときはどちらでもよい)。
この場合、式(16),(17),(18)は、
E=x,F=y・・・・・・・・・・・・・・・・・・・・(16’)
G=x/x+y,H=y/x+y・・・・・・・・・・・・・(17’)
Y_ave=Y_x×y/(x+y)+Y_y×x/(x+y)・・・・(18’)
と表すことが出来る。
(1) In the above embodiment, the complementary
However, the distance between the
In this case, the equations (16), (17), (18)
E = x, F = y (16 ')
G = x / x + y, H = y / x + y (17 ')
Y_ave = Y_x * y / (x + y) + Y_y * x / (x + y) (18 ')
Can be expressed as
(2)上記実施形態では、電子スチルカメラであるカメラ1で撮影した画像データを処理する例を説明したが、必ずしもこの内容に限定する必要はない。本発明は、動画を扱うビデオカメラで撮影した画像データにも適用できる。また、カメラつき携帯電話などで撮影した画像データにも適用できる。さらに、コピー機やスキャナー等にも適用できる。すなわち、撮像素子を使用して撮像したあらゆる画像データに対して、本発明を適用することができる。 (2) In the above embodiment, an example in which image data captured by the camera 1 which is an electronic still camera is processed has been described. However, the present invention is not necessarily limited to this content. The present invention can also be applied to image data taken by a video camera that handles moving images. It can also be applied to image data taken with a camera-equipped mobile phone. Furthermore, it can be applied to a copying machine, a scanner, and the like. That is, the present invention can be applied to any image data captured using an image sensor.
(3)上記実施の形態では、電子スチルカメラであるカメラ1で撮影した画像データをPC(パソコン)31で処理して異物の影響を除去する例を説明したが、この内容に限定するものではない。電子カメラ1にそのようなプログラムを備えてもよい。また、プリンタや投影装置などにそのようなプログラムを備えてもよい。すなわち、画像データを扱うあらゆる装置に、本発明は適用することができる。 (3) In the above embodiment, the example in which the image data captured by the camera 1 which is an electronic still camera is processed by the PC (personal computer) 31 to remove the influence of the foreign matter has been described. However, the present invention is not limited to this. Absent. The electronic camera 1 may be provided with such a program. Further, such a program may be provided in a printer, a projection device, or the like. That is, the present invention can be applied to any apparatus that handles image data.
(4)PC31で実行するプログラムは、CD−ROMなどの記録媒体に限らず、インターネットなどのデータ信号を通じて提供することができる。
なお、実施形態及び変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。また、本発明は以上説明した実施形態によって限定されることはない。
(4) The program executed on the
In addition, although embodiment and a deformation | transformation form can also be used in combination as appropriate, detailed description is abbreviate | omitted. Further, the present invention is not limited to the embodiment described above.
1:カメラ、12:光学フィルタ、13:撮像素子、13a:カラーフィルタ、17:メモリカード用インターフェース部、18:外部インターフェース部、30:パーソナルコンピュータ(PC)、33:CD−ROM、40:メモリカード、50:画像処理装置、60:異物影検出部、61:連結領域判定部、62:対象領域抽出部、63:輝度判定部、64:色相判定部、65:彩度判定部、66:顔判定部、67:落込み割合判定部、70:補正部、71:枠形成部、72:画素選択部、73:補完輝度算出部、100:異物影、100A:補正対象画素 1: Camera, 12: Optical filter, 13: Image sensor, 13a: Color filter, 17: Interface unit for memory card, 18: External interface unit, 30: Personal computer (PC), 33: CD-ROM, 40: Memory Card: 50: image processing device, 60: foreign object shadow detection unit, 61: connected region determination unit, 62: target region extraction unit, 63: luminance determination unit, 64: hue determination unit, 65: saturation determination unit, 66: Face determination unit, 67: drop ratio determination unit, 70: correction unit, 71: frame formation unit, 72: pixel selection unit, 73: complementary luminance calculation unit, 100: foreign object shadow, 100A: correction target pixel
Claims (7)
前記異物影検出部により検出された異物影を補正する補正部と、を備え、
前記補正部は、
前記異物影の周りを、互いに平行な第一直線及び第二直線と、第一直線及び第二直線と直交する、互いに平行な第三直線及び第四直線とで形成された枠で囲む枠形成部と、
前記異物影の内部に位置する補正対象画素を選択し、
前記補正対象画素を通り且つ前記第三直線及び前記第四直線と平行な第五直線上であって、前記第一直線と交差する位置にある第一画素と、前記第二直線と交差する位置にある第二画素と、を選択し、
前記補正対象画素を通り且つ前記第一直線及び前記第二直線と平行な第六直線上であって、前記第三直線と交差する位置にある第三画素と、第四直線と交差する位置にある第四画素と、を選択する画素選択部と、
前記第一画素と前記第二画素の輝度を用いた線形補完により、前記補正対象画素の位置における第一補完輝度を求め、
前記第三画素と前記第四画素の輝度を用いた線形補完により、前記補正対象画素の位置における第二補完輝度を求め、
前記第一補完輝度について、前記補正対象画素が、前記第三直線と前記第四直線との間の中央部にあるとき重みが強く、どちらかの直線に近づくにつれて重みが小さくなり、前記第二補完輝度について、前記補正対象画素が、前記第一直線と前記第二直線との間において中央部にあるとき重みが強く、どちらかの直線に近づくにつれて重みが小さくなる加重平均により、前記第一補完輝度と前記第二補完輝度との平均補完輝度を求める補完輝度算出部と、を備え、
前記補正部は、求めた前記平均補完輝度を用いて、前記補正対象画素の輝度を補正する補正処理を、前記異物影の画素全体について行うこと、
を特徴とする画像処理装置。 A foreign object shadow detection unit for detecting a foreign object shadow in the processing target image;
A correction unit for correcting the foreign object shadow detected by the foreign object shadow detection unit,
The correction unit is
A frame forming portion surrounding the foreign object shadow with a frame formed by a first straight line and a second straight line parallel to each other and a third straight line and a fourth straight line orthogonal to the first straight line and the second straight line. ,
Select a correction target pixel located inside the foreign object shadow,
A first pixel passing through the correction target pixel and on a fifth straight line parallel to the third straight line and the fourth straight line, at a position intersecting with the first straight line, and at a position intersecting with the second straight line. Select a second pixel,
A third pixel that passes through the correction target pixel and is on a sixth straight line that is parallel to the first straight line and the second straight line and that intersects the third straight line, and a position that intersects the fourth straight line A pixel selection unit for selecting a fourth pixel;
By linear interpolation using the luminance of the first pixel and the second pixel, the first complementary luminance at the position of the correction target pixel is obtained,
By linear interpolation using the luminance of the third pixel and the fourth pixel, to determine the second complementary luminance at the position of the correction target pixel,
For the first complementary luminance, the weight is strong when the correction target pixel is in the center between the third straight line and the fourth straight line, and the weight decreases as one of the straight lines approaches, and the second With respect to complementary luminance, the first interpolation is performed by a weighted average that has a strong weight when the correction target pixel is in the center between the first straight line and the second straight line, and the weight decreases as the straight line approaches either straight line. A complementary luminance calculation unit for obtaining an average complementary luminance of the luminance and the second complementary luminance,
The correction unit performs a correction process for correcting the luminance of the correction target pixel on the entire pixels of the foreign object shadow using the obtained average complementary luminance.
An image processing apparatus.
前記平均補完輝度算出部は、前記加重平均を、
補正対象画素から、第一画素と第二画素とのうちの近い方までの第一距離を、第一画素と第二画素との距離に対する割合で示し、
第三画素と第四画素とのうちの近い方までの第二距離を、第三画素と第四画素との距離に対する割合で示したときに、
平均補完輝度は、第一補完輝度に第二距離を乗じたものと、第二補完輝度に第一距離を乗じて求めること、
を特徴とする画像処理装置。 The image processing apparatus according to claim 1,
The average complementary luminance calculation unit calculates the weighted average,
The first distance from the correction target pixel to the closer of the first pixel and the second pixel is indicated as a ratio to the distance between the first pixel and the second pixel,
When the second distance to the closer of the third pixel and the fourth pixel is expressed as a ratio to the distance between the third pixel and the fourth pixel,
The average complementary luminance is obtained by multiplying the first complementary luminance by the second distance and by multiplying the second complementary luminance by the first distance.
An image processing apparatus.
前記補完輝度算出部は、
前記第一補完輝度、及び前記第二補完輝度を求める際に用いる、前記第一画素、前記第二画素、前記第三画素及び前記第四画素の輝度として、それぞれが位置する前記枠(120)上における両隣の画素を含む複数の画素の平均輝度を用いること、
を特徴とする画像処理装置。 The image processing apparatus according to claim 1, wherein:
The complementary luminance calculation unit
The frame (120) in which the first pixel, the second pixel, the third pixel, and the fourth pixel are respectively used as the first pixel, the second pixel, the third pixel, and the fourth pixel. Using the average luminance of a plurality of pixels, including both neighboring pixels above,
An image processing apparatus.
前記補正部は、
前記補正対象画素を囲む複数の画素の輝度を平均して求めた二次的輝度と前記平均補完輝度との比を計算し、該比に応じて、補正対象画素の輝度を補正すること、
を特徴とする画像処理装置。 The image processing apparatus according to claim 3,
The correction unit is
Calculating a ratio between the secondary luminance obtained by averaging the luminance of a plurality of pixels surrounding the correction target pixel and the average complementary luminance, and correcting the luminance of the correction target pixel according to the ratio;
An image processing apparatus.
前記処理対象画像が、赤、緑及び青のカラーフィルタを通して撮像素子により撮影され、非線形補正された画像の場合、
前記補正処理を、赤、緑及び青のそれぞれの画像についてについて行うこと、
を特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 4,
In the case where the image to be processed is an image that is captured by an image sensor through red, green, and blue color filters and nonlinearly corrected
Performing the correction process on each of the red, green and blue images;
An image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011144991A JP2013012089A (en) | 2011-06-29 | 2011-06-29 | Image processing device, camera and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011144991A JP2013012089A (en) | 2011-06-29 | 2011-06-29 | Image processing device, camera and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013012089A true JP2013012089A (en) | 2013-01-17 |
Family
ID=47685909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011144991A Withdrawn JP2013012089A (en) | 2011-06-29 | 2011-06-29 | Image processing device, camera and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013012089A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019074795A (en) * | 2017-10-12 | 2019-05-16 | カシオ計算機株式会社 | Image processing device, image processing method and program |
JP2019174484A (en) * | 2013-12-27 | 2019-10-10 | スリーエム イノベイティブ プロパティズ カンパニー | measuring device |
-
2011
- 2011-06-29 JP JP2011144991A patent/JP2013012089A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019174484A (en) * | 2013-12-27 | 2019-10-10 | スリーエム イノベイティブ プロパティズ カンパニー | measuring device |
JP2019074795A (en) * | 2017-10-12 | 2019-05-16 | カシオ計算機株式会社 | Image processing device, image processing method and program |
JP7003558B2 (en) | 2017-10-12 | 2022-01-20 | カシオ計算機株式会社 | Image processing equipment, image processing methods, and programs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5445363B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6173156B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5907580B2 (en) | Projection display apparatus and recorded image generation method | |
CN106296625A (en) | Image processing apparatus and image processing method, camera head and image capture method | |
JP2009044367A (en) | Imaging method and imaging apparatus | |
US20090041295A1 (en) | Image Display Device, Image Display Method, and Image Display Program | |
JP2004222231A (en) | Image processing apparatus and image processing program | |
JP2015136054A (en) | Image synthesizing apparatus, image synthesizing method, and program | |
JP2007129535A (en) | Image processor, image processing method, program thereof, and computer-readable recording medium recorded with same program | |
JP2011109620A (en) | Image capturing apparatus, and image processing method | |
JP7052811B2 (en) | Image processing device, image processing method and image processing system | |
US11330177B2 (en) | Image processing apparatus and image processing method | |
JP2012022287A (en) | Imaging apparatus and focus determination program | |
JP2001307079A (en) | Image processor, image processing method and recording medium | |
JP2013012089A (en) | Image processing device, camera and image processing program | |
JP2013012087A (en) | Image processing device, camera and image processing program | |
JP2012222508A (en) | Image processor and image processing program | |
JP2008071014A (en) | Image processing program, image processor and electronic camera | |
JP5750934B2 (en) | Image processing apparatus and image processing program | |
JP2012256169A (en) | Image processing system and image processing program | |
WO2018193544A1 (en) | Image capturing device and endoscope device | |
JP2012173943A (en) | Device and program for image processing | |
JP6318549B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP6337441B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP5448799B2 (en) | Display control apparatus and display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |