[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013012089A - Image processing device, camera and image processing program - Google Patents

Image processing device, camera and image processing program Download PDF

Info

Publication number
JP2013012089A
JP2013012089A JP2011144991A JP2011144991A JP2013012089A JP 2013012089 A JP2013012089 A JP 2013012089A JP 2011144991 A JP2011144991 A JP 2011144991A JP 2011144991 A JP2011144991 A JP 2011144991A JP 2013012089 A JP2013012089 A JP 2013012089A
Authority
JP
Japan
Prior art keywords
pixel
luminance
straight line
foreign object
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011144991A
Other languages
Japanese (ja)
Inventor
Masaru Miyawaki
優 宮脇
Takeshi Matsumoto
豪 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011144991A priority Critical patent/JP2013012089A/en
Publication of JP2013012089A publication Critical patent/JP2013012089A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of detecting a foreign-object shadow satisfactorily.SOLUTION: An image processing device comprises a correction part for correcting a detected foreign-object image 100. The correction part comprises: a frame forming part for surrounding the foreign-object shadow 100 with a frame 120; a pixel selection part for selecting a correction target pixel 100A within the foreign-object shadow, selecting a first pixel 111 and a second pixel 112 that are respectively located at an intersection with the frame on a line x passing through the pixels, and selecting a third pixel 113 and a fourth pixel 114 that are respectively located at an intersection with the frame on a line y; and a compensating luminance calculation part for obtaining first compensating luminance Y_x at a position of the correction target pixel through linear compensation using luminance of the first and second pixels, obtaining second compensating luminance Y_y through the linear compensation using the luminance of the third and fourth pixels, and, with respect to the first and second compensating luminance, obtaining average compensating luminance Y_ave of the first and second compensating luminance through weighted average that decreases weight as the correction target pixel gets closer to either line of the frame.

Description

本発明は、画像処理装置、カメラ、および画像処理プログラムに関する。   The present invention relates to an image processing device, a camera, and an image processing program.

デジタルカメラなどの撮像装置では撮像光路上にあり撮像素子の近傍に配置された光学フィルタ等の光学部材に異物が付着すると、付着した異物により生じた異物影が撮像画像に現れ、その部分が画像欠陥となる。特にレンズ交換式の撮像装置では、レンズ交換時に塵や埃などの異物が内部に侵入しやすく、画像欠陥を生じやすい。このような問題を解決するため、光学部材に付着した異物影情報としての基準画像を撮影し、基準画像から異物影位置等の情報を得て通常撮影された撮像画像に写り込んだ異物影を検出し、画像欠陥を補正する画像処理装置が知られている。また、1枚の画像から異物影を検出し、その画像欠陥部を補正する方法も提案されている(特許文献1参照)。   In an imaging device such as a digital camera, if a foreign object adheres to an optical member such as an optical filter that is on the imaging optical path and is disposed in the vicinity of the image sensor, a foreign object shadow caused by the adhered foreign material appears in the captured image, and that portion is an image. It becomes a defect. In particular, in an interchangeable lens type imaging apparatus, foreign matter such as dust or dust is likely to enter the interior during lens replacement, and image defects are likely to occur. In order to solve such a problem, a reference image as foreign object shadow information attached to the optical member is photographed, and information such as the position of the foreign object shadow is obtained from the reference image, and the foreign object shadow reflected in the normally captured image is captured. Image processing apparatuses that detect and correct image defects are known. There has also been proposed a method of detecting a foreign object shadow from one image and correcting the image defect portion (see Patent Document 1).

特開2004−220553号公報JP 2004-220553 A

しかしながら、影部分の光の透過率からの検出では、誤検出した場合に異物影かどうかの判別ができない。また、異物影の補正をするために、多くの画素情報を必要とするため、演算に時間がかかる。さらに、補正部分の画像によって補正痕が残る場合がある。
本発明の課題は、良好に異物影を検出できる画像処理装置、カメラ及び画像処理プログラムを提供することである。
However, in the detection from the light transmittance of the shadow portion, it is not possible to determine whether or not it is a foreign object shadow if it is erroneously detected. Further, since a large amount of pixel information is required to correct the foreign object shadow, the calculation takes time. Furthermore, correction marks may remain depending on the image of the correction portion.
An object of the present invention is to provide an image processing apparatus, a camera, and an image processing program that can detect a foreign object shadow satisfactorily.

本発明は、以下のような解決手段により前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。
請求項1に記載の発明は、処理対象画像における異物影(100)を検出する異物影検出部(60)と、前記異物影検出部(60)により検出された異物影(100)を補正する補正部(70)と、を備え、前記補正部(70)は、前記異物影(100)の周りを、互いに平行な第一直線(101)及び第二直線(102)と、第一直線(101)及び第二直線(102)と直交する、互いに平行な第三直線(103)及び第四直線(104)とで形成された枠(120)で囲む枠形成部(71)と、前記異物影(100)の内部に位置する補正対象画素(100A)を選択し、前記補正対象画素(100A)を通り且つ前記第三直線(103)及び前記第四直線(104)と平行な第五直線(x)上であって、前記第一直線(101)と交差する位置にある第一画素(111)と、前記第二直線(102)と交差する位置にある第二画素(112)と、を選択し、前記補正対象画素(100A)を通り且つ前記第一直線(101)及び前記第二直線(102)と平行な第六直線(y)上であって、前記第三直線(103)と交差する位置にある第三画素(113)と、第四直線(104)と交差する位置にある第四画素(114)と、を選択する画素選択部(72)と、前記第一画素(111)と前記第二画素(112)の輝度を用いた線形補完により、前記補正対象画素(100A)の位置における第一補完輝度(Y_x)を求め、前記第三画素(113)と前記第四画素(114)の輝度を用いた線形補完により、前記補正対象画素(100A)の位置における第二補完輝度(Y_y)を求め、前記第一補完輝度(Y_x)について、前記補正対象画素(100A)が、前記第三直線(103)と前記第四直線(104)との間の中央部にあるとき重みが強く、どちらかの直線に近づくにつれて重みが小さくなり、前記第二補完輝度(Y_y)について、前記補正対象画素(100A)が、前記第一直線(101)と前記第二直線(102)との間において中央部にあるとき重みが強く、どちらかの直線に近づくにつれて重みが小さくなる加重平均により、前記第一補完輝度(Y_x)と前記第二補完輝度(Y_y)との平均補完輝度(Y_ave)を求める補完輝度算出部(73)と、を備え、前記補正部(70)は、求めた前記平均補完輝度(Y_ave)を用いて、前記補正対象画素(100A)の輝度を補正する補正処理を、前記異物影(100)の画素全体について行うこと、を特徴とする画像処理装置(50)である。
請求項2に記載の発明は、請求項1に記載の画像処理装置(50)であって、前記平均補完輝度(Y_ave)算出部(73)は、前記加重平均を、補正対象画素(100A)から、第一画素(111)と第二画素(112)とのうちの近い方までの第一距離(x)を、第一画素(111)と第二画素(112)との距離に対する割合で示し、第三画素(113)と第四画素(114)とのうちの近い方までの第二距離(y)を、第三画素(113)と第四画素(114)との距離に対する割合で示したときに、平均補完輝度(Y_ave)は、第一補完輝度(Y_x)に第二距離(y)を乗じたものと、第二補完輝度(Y_y)(Y_y)に第一距離(x)を乗じて求めること、を特徴とする画像処理装置(50)である。
請求項3に記載の発明は、請求項1または2に記載の画像処理装置(50)であって、
前記補完輝度算出部(73)は、前記第一補完輝度(Y_x)、及び前記第二補完輝度(Y_y)を求める際に用いる、前記第一画素(111)、前記第二画素(112)、前記第三画素(113)及び前記第四画素(114)の輝度として、それぞれが位置する前記枠(120)上における両隣の画素を含む複数の画素の平均輝度を用いること、を特徴とする画像処理装置(50)である。
請求項4に記載の発明は、請求項3に記載の画像処理装置(50)であって、前記補正部(70)は、前記補正対象画素(100A)を囲む複数の画素の輝度を平均して求めた二次的輝度と前記平均補完輝度(Y_ave)との比を計算し、該比に応じて、補正対象画素(100A)の輝度を補正すること、を特徴とする画像処理装置(50)である。
請求項5に記載の発明は、請求項1から4のいずれか1項に記載の画像処理装置(50)であって、前記処理対象画像が、赤、緑及び青のカラーフィルタ(13a)を通して撮像素子(16)により撮影され、非線形補正された画像の場合、前記補正処理を、赤、緑及び青のそれぞれの画像についてについて行うこと、を特徴とする画像処理装置(50)である。
請求項6に記載の発明は、請求項1から5のいずれか1項に記載の画像処理装置(50)を備えるカメラ(1)である。
請求項7に記載の発明は、請求項1から6のいずれか1項に記載の画像処理装置(50)の機能をコンピュータに実行させるための画像処理プログラムである。
The present invention solves the above problems by the following means. In addition, in order to make an understanding easy, although the code | symbol corresponding to embodiment of this invention is attached | subjected and demonstrated, it is not limited to this.
The invention according to claim 1 corrects the foreign object shadow (100) detected by the foreign object shadow (100) in the processing target image and the foreign object shadow (100) detected by the foreign object shadow detector (60). A correction unit (70), and the correction unit (70) includes a first straight line (101) and a second straight line (102) parallel to each other around the foreign object shadow (100), and a first straight line (101). And a frame forming part (71) surrounded by a frame (120) formed by a third straight line (103) and a fourth straight line (104) perpendicular to the second straight line (102) and parallel to each other, and the foreign object shadow ( 100) is selected as a correction target pixel (100A) and passes through the correction target pixel (100A) and is parallel to the third straight line (103) and the fourth straight line (104) (x ) And intersect with the first straight line (101) A first pixel (111) at a position where the second pixel (112) intersects the second straight line (102), and passes through the correction target pixel (100A) and the first straight line. A third pixel (113) on a sixth line (y) parallel to (101) and the second line (102) and intersecting the third line (103); and a fourth line ( 104) and a fourth pixel (114) at a position intersecting with the pixel selection unit (72) for selecting, and linear interpolation using the luminance of the first pixel (111) and the second pixel (112). The first complementary luminance (Y_x) at the position of the correction target pixel (100A) is obtained, and the correction target pixel ((X_x)) is obtained by linear interpolation using the luminance of the third pixel (113) and the fourth pixel (114). 100A) at the second complementary luminance ( _y), and for the first complementary luminance (Y_x), when the correction target pixel (100A) is in the center between the third straight line (103) and the fourth straight line (104), the weight is Strongly, the weight decreases as one of the straight lines is approached, and the correction target pixel (100A) is between the first straight line (101) and the second straight line (102) for the second complementary luminance (Y_y). The weight of the first complementary luminance (Y_x) and the second complementary luminance (Y_y) is the average complementary luminance (Y_ave) by a weighted average that has a strong weight when it is in the center and decreases as one of the straight lines is approached. And a correction processing for correcting the luminance of the correction target pixel (100A) using the calculated average complementary luminance (Y_ave). And it is performed for all the pixels of the foreign substance shadow (100), an image processing apparatus according to claim (50).
The invention according to claim 2 is the image processing apparatus (50) according to claim 1, wherein the average complementary luminance (Y_ave) calculation unit (73) calculates the weighted average as a correction target pixel (100A). The first distance (x) from the first pixel (111) and the second pixel (112) to the closer one is a ratio to the distance between the first pixel (111) and the second pixel (112). The second distance (y) to the closer of the third pixel (113) and the fourth pixel (114) is expressed as a ratio to the distance between the third pixel (113) and the fourth pixel (114). When shown, the average complementary luminance (Y_ave) is obtained by multiplying the first complementary luminance (Y_x) by the second distance (y) and the second complementary luminance (Y_y) (Y_y) by the first distance (x). An image processing apparatus (50) characterized in that it is obtained by multiplying.
The invention described in claim 3 is the image processing apparatus (50) according to claim 1 or 2, wherein
The complementary luminance calculation unit (73) uses the first pixel (111), the second pixel (112), and the second pixel (112), which are used when obtaining the first complementary luminance (Y_x) and the second complementary luminance (Y_y). An image characterized in that, as the luminance of the third pixel (113) and the fourth pixel (114), an average luminance of a plurality of pixels including both adjacent pixels on the frame (120) where each pixel is located is used. A processing device (50).
The invention described in claim 4 is the image processing device (50) according to claim 3, wherein the correction unit (70) averages the luminance of a plurality of pixels surrounding the correction target pixel (100A). An image processing apparatus (50) characterized by calculating a ratio between the secondary luminance obtained in this way and the average complementary luminance (Y_ave) and correcting the luminance of the correction target pixel (100A) according to the ratio. ).
A fifth aspect of the present invention is the image processing apparatus (50) according to any one of the first to fourth aspects, wherein the processing target image passes through red, green and blue color filters (13a). In the case of an image captured by an imaging device (16) and nonlinearly corrected, the image processing apparatus (50) is characterized in that the correction processing is performed for each of red, green, and blue images.
The invention described in claim 6 is a camera (1) including the image processing device (50) according to any one of claims 1 to 5.
The invention according to claim 7 is an image processing program for causing a computer to execute the function of the image processing apparatus (50) according to any one of claims 1 to 6.

本発明によれば、良好に異物影を検出できる画像処理装置、カメラおよび画像処理プログラムを提供できる。   According to the present invention, it is possible to provide an image processing apparatus, a camera, and an image processing program that can detect a foreign object shadow satisfactorily.

レンズ交換式のカメラの構成を示す図である。It is a figure which shows the structure of a lens interchangeable camera. カメラと画像処理装置を構成するパーソナルコンピュータ(PC)および周辺装置を示すブロック図である。1 is a block diagram showing a personal computer (PC) and peripheral devices constituting a camera and an image processing apparatus. 撮像素子を説明する図である。It is a figure explaining an image sensor. 異物影検出・補正処理を行う画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing device that performs foreign object shadow detection / correction processing. 画像処理装置における異物影検出部の機能ブロック図である。It is a functional block diagram of a foreign object shadow detection unit in the image processing apparatus. HSV変換処理の六角錐モデルを表す概念図である。It is a conceptual diagram showing the hexagonal pyramid model of HSV conversion process. 補正部の機能ブロック図である。It is a functional block diagram of a correction | amendment part. 異物影の補正方法を説明する図である。It is a figure explaining the correction method of a foreign object shadow. 画像処理装置における異物影検出・補正処理のフローチャートである。6 is a flowchart of foreign object shadow detection / correction processing in the image processing apparatus. 画像処理装置における補正処理のフローチャートである。It is a flowchart of the correction process in an image processing apparatus.

以下、図面等を参照して、本発明の第1実施形態について説明する。
図1は、レンズ交換式のカメラ1の構成を示す図である。図2は、カメラ1と画像処理装置を構成するパーソナルコンピュータ(PC)30および周辺装置を示すブロック図である。
カメラ1は、被写体像を電気信号に変換した画像データとして出力する電子スチルカメラである。
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings and the like.
FIG. 1 is a diagram illustrating a configuration of a lens-interchangeable camera 1. FIG. 2 is a block diagram showing a personal computer (PC) 30 and peripheral devices constituting the camera 1 and the image processing apparatus.
The camera 1 is an electronic still camera that outputs image data obtained by converting a subject image into an electrical signal.

カメラ1は、カメラ本体2と、カメラ本体2に対して着脱可能な撮像レンズ3とにより構成されている。撮像レンズ3は、複数の光学レンズ群(図1においては1枚のレンズで示す)から成る結像光学系3Lを備えている。   The camera 1 includes a camera body 2 and an imaging lens 3 that can be attached to and detached from the camera body 2. The imaging lens 3 includes an imaging optical system 3L that includes a plurality of optical lens groups (shown as one lens in FIG. 1).

カメラ1は、結像光学系3L(撮像レンズ3)とカメラ本体2とを備える。
カメラ本体2は、シャッター11、光学フィルタ12、撮像素子13、画像処理部14、操作部15、表示部16、メモリカード用インターフェース部17、外部インターフェース部18、電源19、制御部20等を備えている。
The camera 1 includes an imaging optical system 3L (imaging lens 3) and a camera body 2.
The camera body 2 includes a shutter 11, an optical filter 12, an image sensor 13, an image processing unit 14, an operation unit 15, a display unit 16, a memory card interface unit 17, an external interface unit 18, a power source 19, a control unit 20, and the like. ing.

シャッター11は、結像光学系3Lから撮像素子13へ向かう撮影光を遮蔽および通過させることによって、露光時間を調整する。
光学フィルタ12は、撮像に際して偽色(色モアレ)等の発生を防止する光学ローパスフィルタ等によって構成される。なお、符号4は、この光学フィルタ12の表面に付着した塵や埃などの異物を示す。このような撮影光の光路上にあって撮影光を透過する光学フィルタ12に異物4が付着していると、撮像素子13によって取得される画像データのなかに、異物4の影響を受けた画素が含まれる場合がある。
The shutter 11 adjusts the exposure time by shielding and passing photographing light from the imaging optical system 3L toward the image sensor 13.
The optical filter 12 is configured by an optical low-pass filter or the like that prevents generation of false colors (color moire) or the like during imaging. Reference numeral 4 denotes a foreign substance such as dust or dirt attached to the surface of the optical filter 12. If the foreign matter 4 is attached to the optical filter 12 that is on the optical path of the photographing light and transmits the photographing light, pixels that are affected by the foreign matter 4 in the image data acquired by the image sensor 13. May be included.

撮像素子13は、CCDやCMOS等の光電変換素子であって、複数の画素から構成される矩形形状の撮像領域を有している。図3は撮像素子13の説明図であり、撮像素子13の受光面には、それぞれの画素に対応して赤色(R)フィルタ13R、緑色(G)のフィルタ13G、青色(B)フィルタ13Bを備えるカラーフィルタ13aが、いわゆるベイヤ(Bayer)配列に基づいて配置されている。
そして、撮像素子13は、その結像面に結像された像を電気信号に変換し、被写体像に対応する画像信号(撮像信号)を出力する。撮像素子13から出力された画像信号は、所定のアナログ信号処理の後、A/D変換されて画像処理部14に入力される。
The imaging element 13 is a photoelectric conversion element such as a CCD or a CMOS, and has a rectangular imaging area composed of a plurality of pixels. FIG. 3 is an explanatory diagram of the image sensor 13. On the light receiving surface of the image sensor 13, a red (R) filter 13R, a green (G) filter 13G, and a blue (B) filter 13B are provided corresponding to each pixel. The provided color filter 13a is arranged based on a so-called Bayer array.
The image sensor 13 converts the image formed on the image plane into an electrical signal and outputs an image signal (imaging signal) corresponding to the subject image. The image signal output from the image sensor 13 is A / D converted and input to the image processing unit 14 after predetermined analog signal processing.

画像処理部14は、撮像素子13から入力された画像データに対して、補完,階調変換や輪郭強調などの画像処理を行う。補完処理としては、撮像素子13から出力された未処理画像を、人の目で見た印象に近い画像に補完するガンマ処理等が含まれる。
そして、本実施形態のカメラ1では、撮像素子13において、画像処理部14に供給される画像データはRGB表色系で示される。画像データを構成する各々の画素には、RGBの何れか1つの色成分の色情報が存在する。
なお、撮像素子13を構成する1つの光電変換素子を画素と言うが、この画素に対応した画像データの1単位も画素と言う。また、画像も複数の画素から構成される概念である。画像処理が完了した画像データは、補完処理が完了し、各画素にはRGBのすべての色成分の色情報が存在するものとする。
The image processing unit 14 performs image processing such as complementation, gradation conversion, and edge enhancement on the image data input from the image sensor 13. The complement processing includes gamma processing that complements an unprocessed image output from the image sensor 13 with an image close to an impression seen by human eyes.
In the camera 1 of the present embodiment, the image data supplied to the image processing unit 14 in the image sensor 13 is shown in the RGB color system. Each pixel constituting the image data has color information of any one of RGB color components.
In addition, although one photoelectric conversion element which comprises the image pick-up element 13 is called a pixel, 1 unit of the image data corresponding to this pixel is also called a pixel. An image is also a concept composed of a plurality of pixels. It is assumed that the image data for which image processing has been completed has undergone interpolation processing, and color information of all RGB color components is present in each pixel.

操作部15は、撮影者が撮影タイミング等を決定する信号を入力するレリーズボタンや、モード切り換え用の選択ボタン等を備えている。そして、操作部15は、それらの操作情報を制御部に入力する。
表示部16は、LCD等によって構成され、カメラ1における各種設定メニュー、撮像素子13による撮像画像やメモリカードに格納された画像データに基づく再生画像を表示する。
The operation unit 15 includes a release button for inputting a signal for determining a shooting timing by the photographer, a selection button for mode switching, and the like. And the operation part 15 inputs those operation information into a control part.
The display unit 16 is configured by an LCD or the like, and displays various setting menus in the camera 1, reproduced images based on images captured by the image sensor 13 and image data stored in a memory card.

メモリカード用インターフェース部17は、メモリカード(カード状のリムーバブルメモリ)40とのインターフェースをとる。
外部インターフェース部18は、所定のケーブルや無線伝送路を介してPC30等の外部装置とのインターフェースをとる。
電源19は、カメラ1の各機能部に電力を供給する。
The memory card interface unit 17 interfaces with a memory card (card-like removable memory) 40.
The external interface unit 18 interfaces with an external device such as the PC 30 via a predetermined cable or wireless transmission path.
The power source 19 supplies power to each functional unit of the camera 1.

制御部20は、カメラ1における各機能部を統括制御する。すなわち、制御部20は、操作部15におけるレリーズスイッチから撮影指示信号が入力されると、シャッター11を駆動制御して露光動作等の撮影動作を制御する。また、制御部20は、撮像素子13で取得されて画像処理部14で画像処理が行われて入力された画像データを、メモリカード用インターフェース部17に着脱可能に取り付けられたメモリカード40等に記憶させ、保存する。さらに、制御部20は、メモリカード40等に記憶された画像データを呼び出し、表示部16に表示させる。   The control unit 20 performs overall control of each functional unit in the camera 1. That is, when a shooting instruction signal is input from the release switch in the operation unit 15, the control unit 20 controls the driving of the shutter 11 to control the shooting operation such as the exposure operation. Further, the control unit 20 transfers image data acquired by the image sensor 13 and subjected to image processing by the image processing unit 14 to a memory card 40 or the like that is detachably attached to the memory card interface unit 17. Remember and save. Further, the control unit 20 calls the image data stored in the memory card 40 or the like and causes the display unit 16 to display the image data.

上記のように構成されたカメラ1は、撮影時において制御部20によって制御されて、下記のように作用する。
操作者によって操作部15のレリーズボタンが押圧操作されると、シャッター11を所定時間開放する。撮像素子13は、結像光学系3Lにより撮像領域に結像された光学像に対応する画像信号を生成する。撮像素子13によって生成された画像信号は、画像データとして画像処理部14に入力され、画像処理部14によってガンマ処理等の画像処理が施される。そして、画像処理部14で画像処理された画像データに基づいて表示部16に撮影画像を表示すると共に、その画像データに必要に応じてJPEG等による圧縮処理を施してメモリカード用インターフェース部17に装着されたメモリカード40に記憶・保存する。また、外部インターフェース部18を介して接続された後述するPC30に、画像データを送出する。
The camera 1 configured as described above is controlled by the control unit 20 at the time of shooting and operates as follows.
When the release button of the operation unit 15 is pressed by the operator, the shutter 11 is opened for a predetermined time. The imaging device 13 generates an image signal corresponding to the optical image formed in the imaging region by the imaging optical system 3L. The image signal generated by the image sensor 13 is input as image data to the image processing unit 14, and image processing such as gamma processing is performed by the image processing unit 14. Then, the captured image is displayed on the display unit 16 based on the image data processed by the image processing unit 14, and the image data is subjected to compression processing by JPEG or the like as necessary to the memory card interface unit 17. Store / store in the installed memory card 40. In addition, image data is sent to a PC 30 (described later) connected via the external interface unit 18.

また、メモリカード40に記憶・保存され、または、外部インターフェース部18を介してPC30に送出される画像データは、たとえば、Exifファイルに記録される。Exifファイルには、絞り値、カメラ名,カメラメーカー名,シャッター速度および露光補正等の露出条件、撮影時刻などの付加情報が共に記録される。   The image data stored / saved in the memory card 40 or transmitted to the PC 30 via the external interface unit 18 is recorded in, for example, an Exif file. In the Exif file, additional information such as aperture value, camera name, camera manufacturer name, shutter speed, exposure conditions such as exposure correction, and shooting time are recorded.

パーソナルコンピュータ(PC)30は、図示しないが、CPU、メモリ、ハードディスク、メモリカード40とのインターフェースをとるメモリカード用インターフェース部、ケーブルや無線伝送路を介してカメラ1等の外部装置とのインターフェースをとる外部インターフェース部等を備えている。また、PC30には、モニタ31やプリンタ32等が接続されており、CD−ROM33に記録された異物影検出・補正処理に係るアプリケーションプログラムが予めインストールされている。   Although not shown, the personal computer (PC) 30 has an interface with a CPU, memory, hard disk, memory card interface unit that interfaces with the memory card 40, and an external device such as the camera 1 via a cable or a wireless transmission path. An external interface unit is provided. The PC 30 is connected to a monitor 31, a printer 32, and the like, and an application program related to foreign object shadow detection / correction processing recorded in the CD-ROM 33 is installed in advance.

つぎに、図4〜図6を参照して、撮影された対象画像データにおける異物影を検出して補正する処理(異物影検出・補正処理)について説明する。
図4は、異物影検出・補正処理を行う画像処理装置50の機能ブロック図である。図5は、画像処理装置50における異物影検出部60の機能ブロック図である。図6は、HSV変換処理の六角錐モデルを表す概念図である。
Next, with reference to FIG. 4 to FIG. 6, a process (foreign object shadow detection / correction process) for detecting and correcting a foreign object shadow in the captured target image data will be described.
FIG. 4 is a functional block diagram of the image processing apparatus 50 that performs foreign object shadow detection / correction processing. FIG. 5 is a functional block diagram of the foreign object shadow detection unit 60 in the image processing apparatus 50. FIG. 6 is a conceptual diagram showing a hexagonal pyramid model of HSV conversion processing.

異物影検出・補正処理は、メモリカード30を介して提供された、または、カメラ1の外部インターフェース部18から伝送された画像処理完了後の画像データに対して、PC30によって行われる。前述したように、PC30には、異物影検出・補正処理のアプリケーションプログラムがインストールされており、PC30はこのプログラムを実行することによって、異物影検出・補正処理を行う画像処理装置として機能する。   The foreign object shadow detection / correction processing is performed by the PC 30 on the image data after completion of the image processing provided through the memory card 30 or transmitted from the external interface unit 18 of the camera 1. As described above, an application program for foreign object shadow detection / correction processing is installed in the PC 30, and the PC 30 functions as an image processing apparatus that performs foreign object shadow detection / correction processing by executing this program.

PC30とプログラムとによって機能する画像処理装置50は、図4に示すように、対象画像データが入力される入力部52と、異物影領域を検出する異物影検出部60と、異物影検出部60によって検出された異物影情報に基づいてその異物影を補正する補正部70と、補正画像データが出力された出力部53と、を備えている。   As shown in FIG. 4, the image processing apparatus 50 that functions by the PC 30 and the program includes an input unit 52 that receives target image data, a foreign object shadow detection unit 60 that detects a foreign object shadow region, and a foreign object shadow detection unit 60. And a correction unit 70 for correcting the foreign object shadow based on the foreign object shadow information detected by the output unit 53, and an output unit 53 to which the corrected image data is output.

1.異物影検出部
異物影検出部60は、機能ブロック図である図5に示すように、連結領域判定部61と、対象領域抽出部62と、輝度判定部63と、色相判定部64と、彩度判定部65と、顔判定部66と、落込み割合判定部67と、を備えている。
1. Foreign Object Shadow Detection Unit As shown in FIG. 5 which is a functional block diagram, the foreign object shadow detection unit 60 includes a connected region determination unit 61, a target region extraction unit 62, a luminance determination unit 63, a hue determination unit 64, and a saturation. A degree determination unit 65, a face determination unit 66, and a drop ratio determination unit 67.

異物影は、たとえば光学フィルタ12の前面に付着した異物4(図1参照)による異物影を撮影することで生ずるものである。以下、このような異物4(図1参照)による異物影によって生じた異物影領域を例として説明する。   The foreign object shadow is generated, for example, by photographing a foreign object shadow caused by the foreign object 4 (see FIG. 1) attached to the front surface of the optical filter 12. Hereinafter, a foreign object shadow area generated by such a foreign object shadow (see FIG. 1) will be described as an example.

1−1 連結領域判定部
連結領域判定部61は、対象画像における各画素の明るさ(たとえば輝度)情報から、異物影の可能性のある領域を抽出する部分である。連結領域判定部61による異物影の検出は、まず、対象画像データを逆ガンマ補正して、得られたRGBによる各画素の画像データをHSV変換して色相平面、彩度平面を求め、RGBから輝度平面を求め、さらにその輝度勾配を求めて行う。
1-1 Connected Area Determining Unit The connected area determining unit 61 is a part that extracts a region that may have a foreign object shadow from the brightness (for example, luminance) information of each pixel in the target image. The foreign object shadow is detected by the connected region determination unit 61 by first performing inverse gamma correction on the target image data, HSV conversion is performed on the obtained image data of each pixel by RGB, and a hue plane and a saturation plane are obtained. The luminance plane is obtained, and the luminance gradient is further obtained.

(逆ガンマ補正)
連結領域判定部61は、まず、輝度情報算出に使用する画像のRGB情報を非線形な状態から線形に戻すために逆ガンマ補正を行う。RAW画像の場合は、さまざまな補正処理を加える前のdeBayer配列のカラーフィルタ13a(図3)を通過した直後の画像を用いることで線形なRGB情報を得ることができる。JPEG画像の場合は、すでにガンマ補正されているので、線形のRGB情報を得るために、次のようにして逆ガンマ補正をかける。
R’=(R)γ
G’=(G)γ
B’=(B)γ
例えば、γ=2.2という値で逆ガンマ補正を行う。γテーブルを参照してリニアに変換してもよい。
(Reverse gamma correction)
The connected region determination unit 61 first performs inverse gamma correction to return the RGB information of the image used for luminance information calculation from a non-linear state to a linear state. In the case of a RAW image, linear RGB information can be obtained by using an image immediately after passing through the color filter 13a (FIG. 3) having a deBayer arrangement before various correction processes are applied. In the case of a JPEG image, since gamma correction has already been performed, reverse gamma correction is performed as follows in order to obtain linear RGB information.
R ′ = (R) γ
G ′ = (G) γ
B ′ = (B) γ
For example, inverse gamma correction is performed with a value of γ = 2.2. You may convert into linear with reference to a gamma table.

(HSV変換)
連結領域判定部61は、逆ガンマ補正された画像を構成する各画素について、HSV変換処理を行う。
図6は、HSV変換の六角錐モデルの概念図である。明度値Vの座標軸は六角錐の中心軸で表され、彩度Sの座標軸は六角錐の中心軸に直交する軸で表され、色相Hは六角錐の中心軸を回転する回転角で表される。
明度値V(Value)、色相値H(Hue)および彩度値S(Saturation)の各画素の要素は、RGB画像データにおける各画素のRGB要素から、以下の数式(1)〜(10)を用いて変換される。
(HSV conversion)
The connected region determination unit 61 performs an HSV conversion process for each pixel constituting the inverse gamma corrected image.
FIG. 6 is a conceptual diagram of a hexagonal pyramid model for HSV conversion. The coordinate axis of the brightness value V is represented by the center axis of the hexagonal pyramid, the coordinate axis of the saturation S is represented by an axis orthogonal to the center axis of the hexagonal pyramid, and the hue H is represented by a rotation angle that rotates the central axis of the hexagonal pyramid. The
The elements of each pixel of the lightness value V (Value), the hue value H (Hue), and the saturation value S (Saturation) are expressed by the following mathematical formulas (1) to (10) from the RGB elements of each pixel in the RGB image data. Used to convert.

Vmax=max{R,G,B}・・・(1)
Vmin=min{R,G,B}・・・(2)
として、
V= Vmax ・・・(3)
S=(Vmax−Vmin)/Vmax ・・・(4)
H=(π/3)(b−g) (R=Vmaxのとき) ・・・(5)
H=(π/3)(2+r−b) (G=Vmaxのとき) ・・・(6)
H=(π/3)(4+g−r) (B=Vmaxのとき) ・・・(7)
Vmax = max {R, G, B} (1)
Vmin = min {R, G, B} (2)
As
V = Vmax (3)
S = (Vmax−Vmin) / Vmax (4)
H = (π / 3) (b−g) (when R = Vmax) (5)
H = (π / 3) (2 + r−b) (when G = Vmax) (6)
H = (π / 3) (4 + gr) (when B = Vmax) (7)

ただし、
r=(Vmax−R)/(Vmax−Vmin) ・・・(8)
g=(Vmax−G)/(Vmax−Vmin) ・・・(9)
b=(Vmax−B)/(Vmax−Vmin) ・・・(10)
なお、式(5)〜(7)で変換された結果、H<0の時には、Hに2πを加える。また、Vmax=0の時は、S=0,H=不定となる。
However,
r = (Vmax−R) / (Vmax−Vmin) (8)
g = (Vmax−G) / (Vmax−Vmin) (9)
b = (Vmax−B) / (Vmax−Vmin) (10)
When H <0 as a result of conversion by the equations (5) to (7), 2π is added to H. When Vmax = 0, S = 0 and H = undefined.

(輝度情報取得)
輝度情報(Y)は、逆ガンマ補正したリニアRGB値から算出され、人間の見た目と近い輝度情報を得るためには次のような算式が使用される。

Y=(0.299*R’+0.589*G’+0.114*B’)/255・・(11)

このようにして得られた輝度平面Yに対して、縦方向、横方向の微分フィルタをかけ、それぞれの差分を以下の式(12)

Figure 2013012089
で求めてから画素の勾配(grad)を以下の式(13)で計算する。
Figure 2013012089
(Luminance information acquisition)
Luminance information (Y) is calculated from linear RGB values subjected to inverse gamma correction, and the following formula is used to obtain luminance information close to human appearance.

Y = (0.299 * R ′ + 0.589 * G ′ + 0.114 * B ′) / 255 (11)

The luminance plane Y thus obtained is subjected to vertical and horizontal differential filters, and the respective differences are expressed by the following equation (12).
Figure 2013012089
Then, the pixel gradient (grad) is calculated by the following equation (13).
Figure 2013012089

輝度勾配平面では、異物影の周縁部では高い画素値を示し、空などの一様な平面では低い画素値を示す。つまり、エッジ部分では高い画素値を示し、これによって異物影のエッジ部分を検出できる。   In the luminance gradient plane, a high pixel value is shown at the peripheral part of the foreign object shadow, and a low pixel value is shown in a uniform plane such as the sky. That is, a high pixel value is shown in the edge portion, and thereby the edge portion of the foreign object shadow can be detected.

(連結画素領域抽出)
また、連結領域判定部61は、所定の閾値を設定して、輝度勾配平面を2値画像に変換する。すなわち、閾値より高い輝度勾配値を有する画素を「1」、閾値より低い輝度勾配値を有する画素を「0」と置換する。本実施形態では、閾値を0.3とする。
そして、連結領域判定部61は、このようにして得られた2値画像から、「1」の画素が連結した領域(連結画素領域)を抽出する。連結画素領域とは、たとえば、矩形の画素の4辺の内の少なくとも1辺で連続した(4近傍の)画素領域とする。この連結画素領域が、異物影による異物影の可能性のある領域である。
(Concatenated pixel area extraction)
The connected area determination unit 61 sets a predetermined threshold value and converts the luminance gradient plane into a binary image. That is, a pixel having a luminance gradient value higher than the threshold is replaced with “1”, and a pixel having a luminance gradient value lower than the threshold is replaced with “0”. In the present embodiment, the threshold value is 0.3.
Then, the connected region determination unit 61 extracts a region (connected pixel region) in which “1” pixels are connected from the binary image obtained in this way. The connected pixel region is, for example, a pixel region that is continuous (near 4) on at least one of four sides of a rectangular pixel. This connected pixel area is an area where there is a possibility of a foreign object shadow due to the foreign object shadow.

1−2 対象領域抽出部
対象領域抽出部62は、連結領域判定部61によって抽出された連結画素領域の中から、異物影のサイズ(大小)に基づいて異物影部の可能性のある領域を抽出する。
ここで、対象領域抽出部62は、連結画素領域から異物影部の可能性のある領域を抽出する際において、異物影を生じさせる異物影の大きさを基準とする。
1-2 Target Area Extraction Unit The target area extraction unit 62 selects a region that is likely to be a foreign object shadow from the connected pixel regions extracted by the connected region determination unit 61 based on the size (large or small) of the foreign object shadow. Extract.
Here, the target area extraction unit 62 uses the size of a foreign object shadow that causes a foreign object shadow as a reference when extracting an area that may be a foreign object shadow part from the connected pixel area.

まず、異物影の大きさ判定の基準となる方法について説明する。
ここでは、一般的な異物のサイズである最小100μm×100μm〜最大400μm×400μmの異物によって投影される異物影を検出対象とするように画素数によって規定された閾値を基準とし、連結画素領域の大きさがこの閾値内に含まれるものが補正対象となり得る異物影であるとして異物影部の可能性のある領域と判定し、選択する。
First, a method serving as a reference for determining the size of a foreign object shadow will be described.
Here, with reference to a threshold value defined by the number of pixels so that a foreign object shadow projected by a foreign object having a minimum size of 100 μm × 100 μm to a maximum of 400 μm × 400 μm, which is the size of a general foreign material, is used as a reference, A region whose size is included in this threshold is determined as a foreign object shadow that can be a correction target, and is determined as a region having a possibility of a foreign object shadow part.

1−3 輝度判定部
輝度判定部63は、先の連結領域判定部61において説明したHSV変換によって求められた輝度値Yと画像平面に対応する輝度平面とを用い、連結画素領域における内外の輝度を比較する。ここで、異物影は、内部の輝度が周辺の輝度に比較して低く、輝度比は1よりとても小さい。このため、1より小さい所定の閾値を設定し、連結画素領域の輝度比がこの閾値より小さいに場合にのみ、補正対象となり得る異物影であるとして異物影部の可能性のある領域と判定し、選択する。
1-3 Luminance Determination Unit The luminance determination unit 63 uses the luminance value Y obtained by the HSV conversion described in the previous connected region determination unit 61 and the luminance plane corresponding to the image plane, and the inner and outer luminances in the connected pixel region. Compare Here, the foreign object shadow has a lower internal luminance than the peripheral luminance, and the luminance ratio is much smaller than one. For this reason, a predetermined threshold value smaller than 1 is set, and only when the luminance ratio of the connected pixel region is smaller than this threshold value, it is determined that the region has a possibility of a foreign object shadow as a foreign object shadow that can be corrected. ,select.

1−4 色相判定部
色相判定部64は、先の連結領域判定部61において説明したHSV変換によって、各画素の色相値Hを求めて画像平面に対応する色相平面を生成する。色相判定部64は、色相値Hと色相平面とを用い、連結画素領域における内外の色相を比較する。ここで、異物影は、輝度には大きく影響するものの色相にはほとんど影響を与えず、連結画素領域の内外における色相比はほとんど1に近い。このため、1に近い所定の範囲を設定し、色相比がこの範囲内にある場合にのみ、補正対象とすべき異物影であるとして異物影部の可能性のある領域と判定し、選択する。
1-4 Hue Determination Unit The hue determination unit 64 obtains the hue value H of each pixel by the HSV conversion described in the previous connected region determination unit 61 and generates a hue plane corresponding to the image plane. The hue determination unit 64 uses the hue value H and the hue plane to compare the inner and outer hues in the connected pixel region. Here, although the foreign object shadow has a great influence on the luminance, it hardly affects the hue, and the hue ratio inside and outside the connected pixel area is almost 1. For this reason, a predetermined range close to 1 is set, and only when the hue ratio is within this range, it is determined and selected as a region that may have a foreign object shadow as a foreign object shadow to be corrected. .

1−5 彩度判定部
彩度判定部65は、先の連結領域判定部61において説明したHSV変換によって、各画素の彩度値Sを求めて画像平面に対応する彩度平面を生成する。彩度判定部65は、彩度値Sと彩度平面とを用い、連結画素領域における内外の彩度を比較する。
1-5 Saturation Determination Unit The saturation determination unit 65 generates the saturation plane corresponding to the image plane by obtaining the saturation value S of each pixel by the HSV conversion described in the previous connected region determination unit 61. The saturation determination unit 65 uses the saturation value S and the saturation plane to compare the internal and external saturations in the connected pixel region.

このような彩度比による判定を行う理由は、以下の通りである。
異物部分では、異物周辺の輝度より異物内部の輝度が低く、輝度比は1よりとても小さい。そして、異物影は色相情報にほとんど影響を与えないので、異物内外で色相比はほとんど1に近い。しかし、画像によっては輝度比が1より小さく、色相比がほとんど1に近いような被写体が存在し、この2つの条件だけでは誤検出を起こしてしまうからである。
The reason for performing determination based on such saturation ratio is as follows.
In the foreign matter portion, the brightness inside the foreign matter is lower than the brightness around the foreign matter, and the brightness ratio is much smaller than 1. Since the foreign object shadow hardly affects the hue information, the hue ratio is almost 1 inside and outside the foreign object. However, there are subjects whose luminance ratio is smaller than 1 and hue ratio is almost close to 1, depending on the image, and false detection occurs only with these two conditions.

そこで、異物内外の彩度比を判定に組み込む。一般的に異物は影であり、黒っぽい点像として画像に写り込む。したがって、異物部分の彩度値は周辺部に比べて低くなり、異物内外の彩度比は1よりも小さくなる。反対に、異物ではない被写体部分での彩度比は1より大きくなる箇所も存在する。この特徴を使って判別することで、抽出してきたエリアが異物であるか、被写体であるかを区別することができ、誤検出を排除して異物の検出精度を高めることが出来る。   Therefore, the saturation ratio inside and outside the foreign object is incorporated in the determination. In general, the foreign matter is a shadow and appears as a black point image in the image. Therefore, the saturation value of the foreign matter portion is lower than that of the peripheral portion, and the saturation ratio inside and outside the foreign matter is smaller than 1. On the other hand, there is a portion where the saturation ratio in the subject portion that is not a foreign object is larger than 1. By discriminating using this feature, it is possible to discriminate whether the extracted area is a foreign object or a subject, and it is possible to eliminate erroneous detection and increase the foreign object detection accuracy.

この彩度判定における彩度の算出には、本実施形態において上で説明した、HSV変換式中の彩度の式(4)では、Vmaxとの比を取っているため、画像中の暗い部分で低彩度とならないことがあり、すなわち、異物部分でも周辺との彩度比を計算したときに、1よりも大きな値となってしまうことがある。例えば、R=12、G=7、B=3という暗いピクセルがあり、この彩度を上式(4)で求めると、

(12−3)/12=0.75

となり、最大値1の彩度に対して0.75とかなり高い値となってしまう。
In the saturation calculation in this saturation determination, the saturation expression (4) in the HSV conversion expression described above in the present embodiment takes a ratio with Vmax, and therefore a dark portion in the image. In some cases, the saturation does not become low, that is, the foreign matter portion may have a value greater than 1 when the saturation ratio with the surroundings is calculated. For example, there is a dark pixel of R = 12, G = 7, and B = 3, and when this saturation is obtained by the above equation (4),

(12-3) /12=0.75

Thus, the maximum saturation value of 1 is 0.75, which is a considerably high value.

異物の判別条件として彩度比が1以下であることを用いると、濃い異物が検出されないという問題が生じてしまう。彩度比が1以上を許してしまうと、誤検出が発生してしまう。この問題を解決するために、本実施形態では、彩度判定部においては、上式(4)の代わりに、彩度Sを修正彩度Sとして以下の式(14)により求める。   If a saturation ratio of 1 or less is used as a foreign matter determination condition, there arises a problem that dark foreign matter is not detected. If the saturation ratio allows more than 1, false detection will occur. In order to solve this problem, in this embodiment, the saturation determination unit obtains the saturation S as the corrected saturation S instead of the above equation (4) according to the following equation (14).

Figure 2013012089
上述した、R=12、G=7、B=3という暗いピクセルについて、この修正彩度Sで計算してみると、最大値1の彩度に対して0.03となり、暗い部分で彩度が低い値で算出される。
この修正彩度Sを用いることで、画像全体の暗い部分の彩度を人間の感覚にそった値で算出でき、異物検出パラメータの彩度比パラメータも範囲を限定することで誤検出を排除することができる。
Figure 2013012089
When the above-described dark pixels of R = 12, G = 7, and B = 3 are calculated with this corrected saturation S, the saturation value of 0.01 is obtained with respect to the saturation of the maximum value 1, and saturation is obtained in the dark portion. Is calculated with a low value.
By using this corrected saturation S, the saturation of the dark part of the entire image can be calculated with values that match human senses, and the false detection is eliminated by limiting the range of the saturation ratio parameter of the foreign object detection parameter. be able to.

1−6 顔判定部
ここまでの対策でも誤検出が発生する場合があり、とくに人の顔にあるホクロ等で誤検出しやすい。人の顔での誤検出は他の誤検出よりも画像の見栄えへの影響が大きく、誤検出部を補正した場合には大きく印象が変わってしまう可能性がある。したがって本実施形態では、顔判定部66を備え、異物影の可能性のある箇所が人の顔にあるか否かを判定する。
1-6 Face determination unit Even with the countermeasures described so far, erroneous detection may occur, and it is particularly easy to detect erroneously with a mole or the like on a human face. Misdetection on the human face has a greater effect on the appearance of the image than other misdetections, and if the misdetection part is corrected, the impression may change greatly. Therefore, in the present embodiment, the face determination unit 66 is provided, and it is determined whether or not there is a portion that may have a foreign object shadow on the human face.

顔判定部66は、異物影を検出する対象となっている画像中における顔領域を、周知の方法で検出する。そして、顔判定部66に至るまでの連結領域判定部61から彩度判定部65までにおいて異物影と判定された部分が、顔領域に位置するかどうかを判定する。   The face determination unit 66 detects a face region in an image that is a target for detecting a foreign object shadow by a known method. Then, it is determined whether or not the portion determined as a foreign object shadow in the connected region determination unit 61 to the saturation determination unit 65 up to the face determination unit 66 is located in the face region.

1−7 落込み割合判定部
次に、顔判定部66において顔と判定された領域内に、異物影と判定された部分が存在する場合、それらについて、上記連結領域判定部61において逆ガンマ補正して得られたリニアRGB情報を調べる。
1-7 Drop Ratio Determination Unit Next, if there are portions determined to be foreign object shadows in the region determined to be a face by the face determination unit 66, the connected region determination unit 61 performs reverse gamma correction on these portions. The linear RGB information obtained in this way is examined.

異物影と判定された部分が異物影であれば、各リニアRGB情報に対して等しい比率で影響を与える。例えば、異物影の場合、異物周辺部のRGBに対してそれぞれ約20%のゲインの落ち込みが発生する。しかし、異物影でない、例えばホクロの領域では、周辺部に対する落ち込みが、RGBそれぞれに対して均等でない。この特徴より、顔部分にある異物影候補が、実際に異物影であるのかどうか、誤検出を見分けることができる。   If the portion determined to be a foreign object shadow is a foreign object shadow, the linear RGB information is affected at an equal ratio. For example, in the case of a foreign object shadow, a gain drop of about 20% occurs with respect to RGB around the foreign object. However, in the area of a mole that is not a foreign object shadow, for example, the drop in the peripheral portion is not uniform for each of RGB. From this feature, it is possible to distinguish whether a foreign object shadow candidate in the face part is actually a foreign object shadow or not.

2.補正部
図7は、補正部70の機能ブロック図である。図8は、処理対象画像中における異物影100を示す図であり、補正方法を説明する図である。
補正部70は、上述の異物影検出部60により異物影と判定された影の補正を行う。図7に示すように補正部70は、枠形成部71、画素選択部72及び補完輝度算出部73、を備える。
2. Correction Unit FIG. 7 is a functional block diagram of the correction unit 70. FIG. 8 is a diagram illustrating the foreign object shadow 100 in the processing target image, and is a diagram illustrating a correction method.
The correction unit 70 corrects the shadow determined as the foreign object shadow by the foreign object shadow detection unit 60 described above. As illustrated in FIG. 7, the correction unit 70 includes a frame formation unit 71, a pixel selection unit 72, and a complementary luminance calculation unit 73.

2−1 枠形成部
枠形成部71は、異物影検出部60により異物影と判定された部分(異物影100)の周りを、図8で示すように、互いに平行な第一直線101及び第二直線102と、第一直線101及び第二直線102と直交する、互いに平行な第三直線103及び第四直線104とで形成された枠120で囲む。
2-1. Frame Forming Unit The frame forming unit 71 includes a first straight line 101 and a second line parallel to each other around a portion (foreign object shadow 100) determined as a foreign object shadow by the foreign object shadow detection unit 60, as shown in FIG. It is surrounded by a frame 120 formed by a straight line 102 and a third straight line 103 and a fourth straight line 104 which are orthogonal to the first straight line 101 and the second straight line 102 and are parallel to each other.

2−2 画素選択部
画素選択部72は、異物影100の内部に位置する補正対象画素100Aを選択する。
そして、画素選択部72は、第三直線103及び第四直線104と平行で、且つ補正対象画素100Aを通る直線x上における、第一直線101と交差する位置にある第一画素111と、第二直線102と交差する位置にある第二画素112と、を選択する。
2-2 Pixel Selection Unit The pixel selection unit 72 selects the correction target pixel 100 </ b> A located inside the foreign object shadow 100.
The pixel selection unit 72 includes a first pixel 111 that is parallel to the third straight line 103 and the fourth straight line 104 and intersects the first straight line 101 on the straight line x passing through the correction target pixel 100A. The second pixel 112 at a position intersecting the straight line 102 is selected.

画素選択部72は、更に、第一直線101及び第二直線102と平行で、且つ補正対象画素100Aを通る直線y上における、第三直線103と交差する位置にある第三画素113と、第四直線104と交差する位置にある第四画素114と、を選択する。   The pixel selection unit 72 further includes a third pixel 113 that is parallel to the first straight line 101 and the second straight line 102 and that intersects the third straight line 103 on the straight line y passing through the correction target pixel 100A, The fourth pixel 114 at a position intersecting with the straight line 104 is selected.

2−3 補完輝度算出部
補完輝度算出部73は、第一画素111について、その輝度をAとして補正対象画素100Aとの距離をx1とする。第二画素112について、その輝度をBとして補正対象画素100Aとの距離をx2とする。第三画素113について、その輝度をCとして補正対象画素100Aとの距離をy1とする。第四画素114について、その輝度をDとして補正対象画素100Aと距離をy2とする。
2-3 Complementary Luminance Calculation Unit The complementary luminance calculation unit 73 sets the luminance of the first pixel 111 as A and the distance from the correction target pixel 100A as x1. The brightness of the second pixel 112 is B, and the distance from the correction target pixel 100A is x2. For the third pixel 113, the luminance is C and the distance from the correction target pixel 100A is y1. For the fourth pixel 114, the brightness is D and the distance to the correction target pixel 100A is y2.

そして、第一画素111、第二画素112、第三画素113及び第四画素114の輝度A、B、C、Dを、それぞれ隣接した2画素を含めた3画素での平均値として算出する。この3画素で平均した輝度値を、それぞれ第一平均輝度A’、第二平均輝度B’、第三平均輝度C’、第四平均輝度D’とする。   Then, the luminances A, B, C, and D of the first pixel 111, the second pixel 112, the third pixel 113, and the fourth pixel 114 are calculated as average values of three pixels including two adjacent pixels. The luminance values averaged by the three pixels are defined as a first average luminance A ′, a second average luminance B ′, a third average luminance C ′, and a fourth average luminance D ′, respectively.

補完輝度算出部73は、第一平均輝度A’と第二平均輝度B’とを用いた線形補完により、x方向の補正対象画素100Aの位置における第一補完輝度Y_xを、また、第三平均輝度C’と第四平均輝度D’とを用いた線形補完により、y向の補正対象画素100Aの位置における第二補完輝度Y_yを、以下の式(15)により求める。

Figure 2013012089
The complementary luminance calculation unit 73 obtains the first complementary luminance Y_x at the position of the correction target pixel 100A in the x direction and the third average by linear interpolation using the first average luminance A ′ and the second average luminance B ′. The second complementary luminance Y_y at the position of the correction target pixel 100A in the y direction is obtained by the following equation (15) by linear interpolation using the luminance C ′ and the fourth average luminance D ′.
Figure 2013012089

ここで、例えば、第一画素111、第二画素112、第三画素113及び第四画素114がノイズ等で一画素だけ特異的に明るかったり暗かったりした場合、その画素を基に、以下に説明する補完輝度を求めると、補正対象画素100Aにおける補完後の輝度が、その画素の輝度値を計算に用いるラインに沿って全て他の画素に対して異常な輝度を示すことになる。しかし、本実施形態によると、このように、A、B、C、Dを、それぞれ隣接した2画素を含めた3画素での平均値として算出する。この3画素で平均した輝度値を、それぞれ第一平均輝度A’、第二平均輝度B’、第三平均輝度C’、第四平均輝度D’としているので、そのような、他の画素に対して異常な輝度を示す現象が緩和される。   Here, for example, when the first pixel 111, the second pixel 112, the third pixel 113, and the fourth pixel 114 are specifically bright or dark due to noise or the like, the following description will be given based on that pixel. When the complementary luminance to be obtained is obtained, the luminance after complementation in the correction target pixel 100A exhibits abnormal luminance with respect to all other pixels along the line where the luminance value of the pixel is used for calculation. However, according to the present embodiment, as described above, A, B, C, and D are calculated as average values of three pixels including two adjacent pixels. Since the luminance values averaged by these three pixels are set as the first average luminance A ′, the second average luminance B ′, the third average luminance C ′, and the fourth average luminance D ′, respectively. On the other hand, the phenomenon that shows abnormal luminance is alleviated.

ついで、このように、x方向とy方向の線形補間から求めたY_xとY_yを使って補正対象画素100Aの最終的な補間値を求める。
このとき、補正対象画素100Aの位置によってY_xとY_yのブレンド比率(平均をとる際の重み付けの割合)を変更する。なお、以下のEとFについては、比率で求めてもピクセル数で求めても良い。

Figure 2013012089
Figure 2013012089
そして第一補完輝度と第二補完輝度とを平均した平均補完輝度Y_aveを、以下の式(18)により求める。 Next, in this way, the final interpolation value of the correction target pixel 100A is obtained using Y_x and Y_y obtained from the linear interpolation in the x direction and the y direction.
At this time, the blend ratio of Y_x and Y_y (the ratio of weighting when taking an average) is changed depending on the position of the correction target pixel 100A. In addition, about the following E and F, you may obtain | require by the ratio or the number of pixels.
Figure 2013012089
Figure 2013012089
Then, an average complementary luminance Y_ave obtained by averaging the first complementary luminance and the second complementary luminance is obtained by the following equation (18).

Figure 2013012089
Figure 2013012089

次いで、補正部70は、式(18)の平均補完輝度Y_aveと補正対象画素100Aのオリジナル輝度ori_Yの比を計算して、その処理を異物影100全体に行うことで、ゲインマップY_gmap[i、j]を作成することができる。   Next, the correction unit 70 calculates a ratio between the average complementary luminance Y_ave of Expression (18) and the original luminance ori_Y of the correction target pixel 100A, and performs the process on the entire foreign object shadow 100, thereby obtaining the gain map Y_gmap [i, j] can be created.

しかし、このまま補正してしまうと、補正部分の画像が平坦な感じになり、オリジナル画像の自然さが消えてしまう。そこで、ゲインを計算する補正対象画素100Aのオリジナル輝度ori_Yの値を、その補正対象画素100Aとその周辺8画素の平均値である二次的オリジナル輝度で、以下の式(19)を用いて置き換える。

Figure 2013012089
この平均値である二次的オリジナル輝度でゲインマップを式(20)により作成し、オリジナル画像の輝度を補正することで、元から存在する画像のノイズ感の再現が可能となる。 However, if the correction is made as it is, the image of the correction portion will feel flat and the naturalness of the original image will disappear. Therefore, the value of the original luminance ori_Y of the correction target pixel 100A for calculating the gain is replaced with the secondary original luminance that is an average value of the correction target pixel 100A and the surrounding eight pixels by using the following equation (19). .
Figure 2013012089
By creating a gain map with the secondary original luminance, which is the average value, using Equation (20) and correcting the luminance of the original image, it is possible to reproduce the noise feeling of the original image.

RAW画像の場合は輝度、JPEG画像の場合はリニアでないオリジナルのRGB各面で上述のゲインマップを計算する。
JPEG画像に対しては、求めたRGB各面のゲインマップを使って異物影100の補正を行う。オリジナル画像のRGB各成分をそれぞれori_r、ori_g、ori_b、RGB各面のゲインマップをそれぞれfinal_rgmap、final_ggmap、final_bgmap、とすると補正後のRGBは次の式(21)のように算出される。

Figure 2013012089
In the case of a RAW image, the above-described gain map is calculated for each original RGB surface that is luminance, and in the case of a JPEG image, which is not linear.
For the JPEG image, the foreign object shadow 100 is corrected using the obtained gain map of each surface of RGB. If the RGB components of the original image are ori_r, ori_g, ori_b, and the gain maps of the RGB surfaces are final_rgmap, final_ggmap, and final_bgmap, the corrected RGB is calculated as in the following equation (21).
Figure 2013012089

こうして得られた、final_R、final_G、final_Bは異物影100を補正したものであり、これらを一枚のJPEG画像として出力する。RAW画像に対しては上で求めた輝度のゲインマップを使ってリニアRGB各面を補正することができる。リニアRGB各成分をそれぞれori_r、ori_g、ori_b、輝度のゲインマップをfinal_ygmap、とすると補正後のRGBは次の式(22)のように算出される。

Figure 2013012089
The final_R, final_G, and final_B obtained in this way are obtained by correcting the foreign object shadow 100, and these are output as a single JPEG image. For a RAW image, each of the RGB planes can be corrected using the gain map of luminance obtained above. Assuming that each of the linear RGB components is ori_r, ori_g, ori_b, and the luminance gain map is final_ygmap, the corrected RGB is calculated by the following equation (22).
Figure 2013012089

つぎに、図9、図10に示すフローチャートに従って、画像処理装置50における異物影検出・補正処理の流れを説明する。また、図9、図10及び以下の説明中、ステップを「S」とも略記する。   Next, the flow of foreign object shadow detection / correction processing in the image processing apparatus 50 will be described with reference to the flowcharts shown in FIGS. 9 and 10 and the following description, the step is also abbreviated as “S”.

画像処理装置50は、メモリカード40を介して、または、カメラ1の外部インターフェース部18を介して入力された補正対象画像データを読み込む(S01)。   The image processing apparatus 50 reads correction target image data input via the memory card 40 or the external interface unit 18 of the camera 1 (S01).

読み込んだ対象画像データの、RGBデータをそれぞれ逆ガンマ補正する(S02)。
そして逆ガンマ補正したRGBより式(11)を用いて輝度Yを求め、輝度平面Yに平均化フィルタをかけてノイズ処理を行う(S03)。
The RGB data of the read target image data is subjected to inverse gamma correction (S02).
Then, the luminance Y is obtained from the RGB subjected to the inverse gamma correction by using the equation (11), and noise processing is performed by applying an averaging filter to the luminance plane Y (S03).

その後、Yの勾配(Ygrad)を計算する(S04)。
輝度勾配Ygradが閾値以上の領域を抽出する(S05)。
Thereafter, the gradient (Ygrad) of Y is calculated (S04).
A region where the luminance gradient Ygrad is greater than or equal to the threshold is extracted (S05).

続いて、連結領域判定部61により連結画素領域を抽出する(S06)。
さらに、抽出された連結画素領域の大きさ判定を行う(S07)。
Subsequently, a connected pixel region is extracted by the connected region determination unit 61 (S06).
Further, the size of the extracted connected pixel area is determined (S07).

次いで、輝度判定部63によって、連結画素領域における内外の輝度比に基づいて異物影部の可能性のある領域に該当するか否かを判定する(S08)。
さらに、色相判定部64によって、連結画素領域における内外の色相比に基づいて異物影部の可能性のある領域に該当するか否かを判定し(S09)、次に彩度判定を行う(S10)。
Next, the luminance determination unit 63 determines whether or not the region is a region that may be a foreign object shadow portion based on the internal / external luminance ratio in the connected pixel region (S08).
Further, the hue determination unit 64 determines whether or not the region is a possible foreign object shadow portion based on the internal / external hue ratio in the connected pixel region (S09), and then performs saturation determination (S10). ).

顔判定部66によって、異物影の可能性のある領域が、顔領域にあるかどうかを判断する(S11)。
顔と検出された位置である場合、リニアRGB情報を調べる。ここで、リニアRGBの落ち込みが等しい場合、異物影の可能性のある領域と判断する(S12)。
The face determination unit 66 determines whether or not an area with a possibility of foreign object shadow is in the face area (S11).
If the position is detected as a face, the linear RGB information is examined. Here, when the drop of linear RGB is equal, it is determined that there is a possibility of foreign object shadow (S12).

そして、異物情報を保存し(S13)、上記ステップ全てにおいて異物影部の可能性のある領域と判定されたもの(異物影100)について補正部70により異物影100の補正を行う(S14)。   Then, the foreign object information is stored (S13), and the foreign object shadow 100 is corrected by the correcting unit 70 for the area (foreign object shadow 100) that is determined to be a possible foreign object shadow part in all the above steps (S14).

図10はS14の補正部70による異物影100の補正を示すフローチャートである。
まず、補正部70の枠形成部71は、異物影100の周りに枠120を形成する(S21)。
次いで、画素選択部72は、異物影100の内部に位置する補正対象画素100Aを選択する(S22)。
そして、異物影100の内部の補正対象画素100A、直線x上における、第一直線101と交差する位置にある第一画素111、第二直線102と交差する位置にある第二画素112、直線y上における、第三直線103と交差する位置にある第三画素113、第四直線104と交差する位置にある第四画素114、を選択する(S23)。
FIG. 10 is a flowchart showing the correction of the foreign object shadow 100 by the correction unit 70 in S14.
First, the frame forming unit 71 of the correction unit 70 forms the frame 120 around the foreign object shadow 100 (S21).
Next, the pixel selection unit 72 selects the correction target pixel 100A located inside the foreign object shadow 100 (S22).
Then, the correction target pixel 100A inside the foreign object shadow 100, the first pixel 111 at a position intersecting the first straight line 101 on the straight line x, the second pixel 112 at a position intersecting the second straight line 102, on the straight line y The third pixel 113 at the position intersecting with the third straight line 103 and the fourth pixel 114 at the position intersecting with the fourth straight line 104 are selected (S23).

第一画素111、第二画素112、第三画素113及び第四画素114の輝度A、B、C、Dを、それぞれ隣接した2画素を含めた3画素で平均し、第一平均輝度A’、第二平均輝度B’、第三平均輝度C’、第四平均輝度D’を求める(S24)。
第一平均輝度A’、第二平均輝度B’、第三平均輝度C’、第四平均輝度Dを用いた線形補完を用いて第一補完輝度Y_x、第二補完輝度Y_yを式(15)により求める(S25)。
The luminances A, B, C, and D of the first pixel 111, the second pixel 112, the third pixel 113, and the fourth pixel 114 are averaged by three pixels including two adjacent pixels, respectively, and the first average luminance A ′ The second average brightness B ′, the third average brightness C ′, and the fourth average brightness D ′ are obtained (S24).
Using the linear interpolation using the first average luminance A ′, the second average luminance B ′, the third average luminance C ′, and the fourth average luminance D, the first complementary luminance Y_x and the second complementary luminance Y_y are expressed by Expression (15). (S25).

x方向とy方向の線形補間から求めたY_xとY_yを使って、補正対象画素100Aの位置によってY_xとY_yのブレンド比率を変更して、補正対象画素100Aの最終的な補間値を求める(S26)。   Using Y_x and Y_y obtained from linear interpolation in the x and y directions, the blend ratio of Y_x and Y_y is changed according to the position of the correction target pixel 100A, and the final interpolation value of the correction target pixel 100A is obtained (S26). ).

補正対象画素100Aのオリジナル輝度ori_Yの値を、その補正対象画素100Aとその周辺8画素の平均値である二次的オリジナル輝度で、式(19)を用いて置き換える(S27)。   The value of the original luminance ori_Y of the correction target pixel 100A is replaced with the secondary original luminance that is the average value of the correction target pixel 100A and the surrounding eight pixels using Equation (19) (S27).

RAW画像の場合は輝度、JPEG画像の場合はリニアでないオリジナルのRGB各面で上述のゲインマップを計算する(S28)。
JPEG画像に対しては、求めたRGB各面のゲインマップを使って異物影100の補正を行う(S29)。
In the case of a RAW image, the above-described gain map is calculated for each original RGB surface that is luminance in the case of a RAW image and non-linear in the case of a JPEG image (S28).
For the JPEG image, the foreign object shadow 100 is corrected using the obtained gain map of each surface of RGB (S29).

以上、本実施形態によると、以下の効果を有する。
(1)例えば、異物影のゲインマップを求める際に、周囲の多数の画素の輝度を計算する場合、演算が複雑であり、演算負荷がかかり、演算時間が長くなる。さらに、異物影周辺部の複数画素を参照するため、異物影付近に被写体などがある場合は正しいゲインマップを作成できないという問題がある。
しかし、本実施形態によると、異物影の一画素の輝度のゲインの変更量を、異物影の外側の4つの画素の輝度を基に演算する。したがって、演算が容易であり、演算負荷の軽減及び演算時間の短縮が可能となる。
As described above, this embodiment has the following effects.
(1) For example, when calculating the brightness map of a large number of surrounding pixels when obtaining a gain map of a foreign object shadow, the calculation is complicated, a calculation load is applied, and the calculation time becomes long. Furthermore, since a plurality of pixels around the foreign object shadow are referred to, there is a problem that a correct gain map cannot be created if there is a subject near the foreign object shadow.
However, according to the present embodiment, the amount of change in the luminance gain of one pixel of the foreign object shadow is calculated based on the luminance of the four pixels outside the foreign object shadow. Therefore, calculation is easy, and calculation load can be reduced and calculation time can be shortened.

(2)そして、この場合、異物影の外側の画素において、ノイズ等の影響で他の画素と比べて非常に明るい、又は暗いといった画素があった場合、その画素の影響により、画素の輝度値を補完の計算に用いるライン全体が、明るくなる可能性がある。これをそのままで補正すると、特に、外枠に用いる部分の境界で、ライン状の補正痕を生じる。
しかし、本実施形態によると、エッジに行くにしたがって、そのエッジ方向の計算に用いるものの影響を少なくしている、したがって、エッジでラインが形成されることがない。
さらに、枠部の計算を3つ平均にしているので、より滑らかになる。
(2) In this case, if a pixel outside the foreign object shadow is very bright or dark compared to other pixels due to noise or the like, the luminance value of the pixel is affected by the influence of the pixel. There is a possibility that the whole line that uses for calculation of complementation becomes brighter. If this is corrected as it is, a line-shaped correction mark is generated particularly at the boundary of the portion used for the outer frame.
However, according to the present embodiment, the influence of what is used for calculation of the edge direction is reduced as going to the edge, and therefore no line is formed at the edge.
Furthermore, since the three frame calculations are averaged, it becomes smoother.

(3)さらに、エッジ近傍でなくとも、例えば、第一画素111、第二画素112、第三画素113及び第四画素114がノイズ等で一画素だけ特異的に明るかったり暗かったりした場合、その画素を基に、補完輝度を求めると、補正対象画素100Aにおける補完後の輝度が、その画素の輝度値を計算に用いるラインに沿って全て他の画素となじまないことになる。しかし、本実施形態によると、隣接する3画素の平均をとっているので、画素がノイズ等で一画素だけ特異的に明るかったり暗かったりした場合も、その画素を計算に用いるラインが、他の部分に対して異常な輝度を示す現象が緩和される。 (3) Furthermore, even if the first pixel 111, the second pixel 112, the third pixel 113, and the fourth pixel 114 are not specifically near the edge but only one pixel is specifically bright or dark due to noise or the like, When the complementary luminance is obtained based on the pixel, the luminance after complementation in the correction target pixel 100A does not become compatible with all other pixels along the line used for calculating the luminance value of the pixel. However, according to the present embodiment, since the average of three adjacent pixels is taken, even when a pixel is specifically bright or dark due to noise or the like, the line used for the calculation in the other pixels The phenomenon that shows an abnormal luminance with respect to the portion is alleviated.

(4)また、本実施形態では、JPEG画像等の場合は、非線形補正前のオリジナルのRGB各面でゲインマップを作成して補正するので、非線形なRGB画像でも補正痕なく異物影を補正できる。 (4) In the present embodiment, in the case of a JPEG image or the like, a gain map is created and corrected on each original RGB surface before nonlinear correction, so that a foreign object shadow can be corrected without correction traces even in a nonlinear RGB image. .

(変形形態)
以上、説明した実施形態に限定されることなく、以下に示すような種々の変形や変更が可能であり、それらも本発明の範囲内である。
(Deformation)
The present invention is not limited to the above-described embodiment, and various modifications and changes as described below are possible, and these are also within the scope of the present invention.

(1)上記実施形態で補完輝度算出部73は、第一画素111について、補正対象画素100Aとの距離をx1とし、第二画素112について、補正対象画素100Aとの距離をx2とした。第三画素113について、補正対象画素100Aとの距離をy1とし、第四画素114について、その輝度をDとして補正対象画素100Aと距離をy2とした。
しかし、補正対象画素100Aと第一画素111と第二画素112とのうちの近いほうとの距離をxとし、補正対象画素100Aと第一画素111と第二画素112とのうちの遠い方との距離を1−xとして表すこともできる(補正対象画素100Aが、第一画素111と第二画素112との中間のときはどちらでもよい)。
この場合、式(16),(17),(18)は、
E=x,F=y・・・・・・・・・・・・・・・・・・・・(16’)
G=x/x+y,H=y/x+y・・・・・・・・・・・・・(17’)
Y_ave=Y_x×y/(x+y)+Y_y×x/(x+y)・・・・(18’)
と表すことが出来る。
(1) In the above embodiment, the complementary luminance calculation unit 73 sets the distance between the first pixel 111 and the correction target pixel 100A to x1, and the second pixel 112 sets the distance from the correction target pixel 100A to x2. For the third pixel 113, the distance from the correction target pixel 100A is y1, and for the fourth pixel 114, the luminance is D and the distance from the correction target pixel 100A is y2.
However, the distance between the correction target pixel 100A, the first pixel 111, and the second pixel 112 is x, and the distance between the correction target pixel 100A, the first pixel 111, and the second pixel 112, Can be expressed as 1-x (when the correction target pixel 100 </ b> A is intermediate between the first pixel 111 and the second pixel 112, either may be used).
In this case, the equations (16), (17), (18)
E = x, F = y (16 ')
G = x / x + y, H = y / x + y (17 ')
Y_ave = Y_x * y / (x + y) + Y_y * x / (x + y) (18 ')
Can be expressed as

(2)上記実施形態では、電子スチルカメラであるカメラ1で撮影した画像データを処理する例を説明したが、必ずしもこの内容に限定する必要はない。本発明は、動画を扱うビデオカメラで撮影した画像データにも適用できる。また、カメラつき携帯電話などで撮影した画像データにも適用できる。さらに、コピー機やスキャナー等にも適用できる。すなわち、撮像素子を使用して撮像したあらゆる画像データに対して、本発明を適用することができる。 (2) In the above embodiment, an example in which image data captured by the camera 1 which is an electronic still camera is processed has been described. However, the present invention is not necessarily limited to this content. The present invention can also be applied to image data taken by a video camera that handles moving images. It can also be applied to image data taken with a camera-equipped mobile phone. Furthermore, it can be applied to a copying machine, a scanner, and the like. That is, the present invention can be applied to any image data captured using an image sensor.

(3)上記実施の形態では、電子スチルカメラであるカメラ1で撮影した画像データをPC(パソコン)31で処理して異物の影響を除去する例を説明したが、この内容に限定するものではない。電子カメラ1にそのようなプログラムを備えてもよい。また、プリンタや投影装置などにそのようなプログラムを備えてもよい。すなわち、画像データを扱うあらゆる装置に、本発明は適用することができる。 (3) In the above embodiment, the example in which the image data captured by the camera 1 which is an electronic still camera is processed by the PC (personal computer) 31 to remove the influence of the foreign matter has been described. However, the present invention is not limited to this. Absent. The electronic camera 1 may be provided with such a program. Further, such a program may be provided in a printer, a projection device, or the like. That is, the present invention can be applied to any apparatus that handles image data.

(4)PC31で実行するプログラムは、CD−ROMなどの記録媒体に限らず、インターネットなどのデータ信号を通じて提供することができる。
なお、実施形態及び変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。また、本発明は以上説明した実施形態によって限定されることはない。
(4) The program executed on the PC 31 is not limited to a recording medium such as a CD-ROM, but can be provided through a data signal such as the Internet.
In addition, although embodiment and a deformation | transformation form can also be used in combination as appropriate, detailed description is abbreviate | omitted. Further, the present invention is not limited to the embodiment described above.

1:カメラ、12:光学フィルタ、13:撮像素子、13a:カラーフィルタ、17:メモリカード用インターフェース部、18:外部インターフェース部、30:パーソナルコンピュータ(PC)、33:CD−ROM、40:メモリカード、50:画像処理装置、60:異物影検出部、61:連結領域判定部、62:対象領域抽出部、63:輝度判定部、64:色相判定部、65:彩度判定部、66:顔判定部、67:落込み割合判定部、70:補正部、71:枠形成部、72:画素選択部、73:補完輝度算出部、100:異物影、100A:補正対象画素   1: Camera, 12: Optical filter, 13: Image sensor, 13a: Color filter, 17: Interface unit for memory card, 18: External interface unit, 30: Personal computer (PC), 33: CD-ROM, 40: Memory Card: 50: image processing device, 60: foreign object shadow detection unit, 61: connected region determination unit, 62: target region extraction unit, 63: luminance determination unit, 64: hue determination unit, 65: saturation determination unit, 66: Face determination unit, 67: drop ratio determination unit, 70: correction unit, 71: frame formation unit, 72: pixel selection unit, 73: complementary luminance calculation unit, 100: foreign object shadow, 100A: correction target pixel

Claims (7)

処理対象画像における異物影を検出する異物影検出部と、
前記異物影検出部により検出された異物影を補正する補正部と、を備え、
前記補正部は、
前記異物影の周りを、互いに平行な第一直線及び第二直線と、第一直線及び第二直線と直交する、互いに平行な第三直線及び第四直線とで形成された枠で囲む枠形成部と、
前記異物影の内部に位置する補正対象画素を選択し、
前記補正対象画素を通り且つ前記第三直線及び前記第四直線と平行な第五直線上であって、前記第一直線と交差する位置にある第一画素と、前記第二直線と交差する位置にある第二画素と、を選択し、
前記補正対象画素を通り且つ前記第一直線及び前記第二直線と平行な第六直線上であって、前記第三直線と交差する位置にある第三画素と、第四直線と交差する位置にある第四画素と、を選択する画素選択部と、
前記第一画素と前記第二画素の輝度を用いた線形補完により、前記補正対象画素の位置における第一補完輝度を求め、
前記第三画素と前記第四画素の輝度を用いた線形補完により、前記補正対象画素の位置における第二補完輝度を求め、
前記第一補完輝度について、前記補正対象画素が、前記第三直線と前記第四直線との間の中央部にあるとき重みが強く、どちらかの直線に近づくにつれて重みが小さくなり、前記第二補完輝度について、前記補正対象画素が、前記第一直線と前記第二直線との間において中央部にあるとき重みが強く、どちらかの直線に近づくにつれて重みが小さくなる加重平均により、前記第一補完輝度と前記第二補完輝度との平均補完輝度を求める補完輝度算出部と、を備え、
前記補正部は、求めた前記平均補完輝度を用いて、前記補正対象画素の輝度を補正する補正処理を、前記異物影の画素全体について行うこと、
を特徴とする画像処理装置。
A foreign object shadow detection unit for detecting a foreign object shadow in the processing target image;
A correction unit for correcting the foreign object shadow detected by the foreign object shadow detection unit,
The correction unit is
A frame forming portion surrounding the foreign object shadow with a frame formed by a first straight line and a second straight line parallel to each other and a third straight line and a fourth straight line orthogonal to the first straight line and the second straight line. ,
Select a correction target pixel located inside the foreign object shadow,
A first pixel passing through the correction target pixel and on a fifth straight line parallel to the third straight line and the fourth straight line, at a position intersecting with the first straight line, and at a position intersecting with the second straight line. Select a second pixel,
A third pixel that passes through the correction target pixel and is on a sixth straight line that is parallel to the first straight line and the second straight line and that intersects the third straight line, and a position that intersects the fourth straight line A pixel selection unit for selecting a fourth pixel;
By linear interpolation using the luminance of the first pixel and the second pixel, the first complementary luminance at the position of the correction target pixel is obtained,
By linear interpolation using the luminance of the third pixel and the fourth pixel, to determine the second complementary luminance at the position of the correction target pixel,
For the first complementary luminance, the weight is strong when the correction target pixel is in the center between the third straight line and the fourth straight line, and the weight decreases as one of the straight lines approaches, and the second With respect to complementary luminance, the first interpolation is performed by a weighted average that has a strong weight when the correction target pixel is in the center between the first straight line and the second straight line, and the weight decreases as the straight line approaches either straight line. A complementary luminance calculation unit for obtaining an average complementary luminance of the luminance and the second complementary luminance,
The correction unit performs a correction process for correcting the luminance of the correction target pixel on the entire pixels of the foreign object shadow using the obtained average complementary luminance.
An image processing apparatus.
請求項1に記載の画像処理装置であって、
前記平均補完輝度算出部は、前記加重平均を、
補正対象画素から、第一画素と第二画素とのうちの近い方までの第一距離を、第一画素と第二画素との距離に対する割合で示し、
第三画素と第四画素とのうちの近い方までの第二距離を、第三画素と第四画素との距離に対する割合で示したときに、
平均補完輝度は、第一補完輝度に第二距離を乗じたものと、第二補完輝度に第一距離を乗じて求めること、
を特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The average complementary luminance calculation unit calculates the weighted average,
The first distance from the correction target pixel to the closer of the first pixel and the second pixel is indicated as a ratio to the distance between the first pixel and the second pixel,
When the second distance to the closer of the third pixel and the fourth pixel is expressed as a ratio to the distance between the third pixel and the fourth pixel,
The average complementary luminance is obtained by multiplying the first complementary luminance by the second distance and by multiplying the second complementary luminance by the first distance.
An image processing apparatus.
請求項1または2に記載の画像処理装置であって、
前記補完輝度算出部は、
前記第一補完輝度、及び前記第二補完輝度を求める際に用いる、前記第一画素、前記第二画素、前記第三画素及び前記第四画素の輝度として、それぞれが位置する前記枠(120)上における両隣の画素を含む複数の画素の平均輝度を用いること、
を特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein:
The complementary luminance calculation unit
The frame (120) in which the first pixel, the second pixel, the third pixel, and the fourth pixel are respectively used as the first pixel, the second pixel, the third pixel, and the fourth pixel. Using the average luminance of a plurality of pixels, including both neighboring pixels above,
An image processing apparatus.
請求項3に記載の画像処理装置であって、
前記補正部は、
前記補正対象画素を囲む複数の画素の輝度を平均して求めた二次的輝度と前記平均補完輝度との比を計算し、該比に応じて、補正対象画素の輝度を補正すること、
を特徴とする画像処理装置。
The image processing apparatus according to claim 3,
The correction unit is
Calculating a ratio between the secondary luminance obtained by averaging the luminance of a plurality of pixels surrounding the correction target pixel and the average complementary luminance, and correcting the luminance of the correction target pixel according to the ratio;
An image processing apparatus.
請求項1から4のいずれか1項に記載の画像処理装置であって、
前記処理対象画像が、赤、緑及び青のカラーフィルタを通して撮像素子により撮影され、非線形補正された画像の場合、
前記補正処理を、赤、緑及び青のそれぞれの画像についてについて行うこと、
を特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
In the case where the image to be processed is an image that is captured by an image sensor through red, green, and blue color filters and nonlinearly corrected
Performing the correction process on each of the red, green and blue images;
An image processing apparatus.
請求項1から5のいずれか1項に記載の画像処理装置を備えるカメラ。   A camera comprising the image processing apparatus according to claim 1. 請求項1から6のいずれか1項に記載の画像処理装置の機能をコンピュータに実行させるための画像処理プログラム。   An image processing program for causing a computer to execute the function of the image processing apparatus according to claim 1.
JP2011144991A 2011-06-29 2011-06-29 Image processing device, camera and image processing program Withdrawn JP2013012089A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011144991A JP2013012089A (en) 2011-06-29 2011-06-29 Image processing device, camera and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011144991A JP2013012089A (en) 2011-06-29 2011-06-29 Image processing device, camera and image processing program

Publications (1)

Publication Number Publication Date
JP2013012089A true JP2013012089A (en) 2013-01-17

Family

ID=47685909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144991A Withdrawn JP2013012089A (en) 2011-06-29 2011-06-29 Image processing device, camera and image processing program

Country Status (1)

Country Link
JP (1) JP2013012089A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074795A (en) * 2017-10-12 2019-05-16 カシオ計算機株式会社 Image processing device, image processing method and program
JP2019174484A (en) * 2013-12-27 2019-10-10 スリーエム イノベイティブ プロパティズ カンパニー measuring device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019174484A (en) * 2013-12-27 2019-10-10 スリーエム イノベイティブ プロパティズ カンパニー measuring device
JP2019074795A (en) * 2017-10-12 2019-05-16 カシオ計算機株式会社 Image processing device, image processing method and program
JP7003558B2 (en) 2017-10-12 2022-01-20 カシオ計算機株式会社 Image processing equipment, image processing methods, and programs

Similar Documents

Publication Publication Date Title
JP5445363B2 (en) Image processing apparatus, image processing method, and image processing program
JP6173156B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5907580B2 (en) Projection display apparatus and recorded image generation method
CN106296625A (en) Image processing apparatus and image processing method, camera head and image capture method
JP2009044367A (en) Imaging method and imaging apparatus
US20090041295A1 (en) Image Display Device, Image Display Method, and Image Display Program
JP2004222231A (en) Image processing apparatus and image processing program
JP2015136054A (en) Image synthesizing apparatus, image synthesizing method, and program
JP2007129535A (en) Image processor, image processing method, program thereof, and computer-readable recording medium recorded with same program
JP2011109620A (en) Image capturing apparatus, and image processing method
JP7052811B2 (en) Image processing device, image processing method and image processing system
US11330177B2 (en) Image processing apparatus and image processing method
JP2012022287A (en) Imaging apparatus and focus determination program
JP2001307079A (en) Image processor, image processing method and recording medium
JP2013012089A (en) Image processing device, camera and image processing program
JP2013012087A (en) Image processing device, camera and image processing program
JP2012222508A (en) Image processor and image processing program
JP2008071014A (en) Image processing program, image processor and electronic camera
JP5750934B2 (en) Image processing apparatus and image processing program
JP2012256169A (en) Image processing system and image processing program
WO2018193544A1 (en) Image capturing device and endoscope device
JP2012173943A (en) Device and program for image processing
JP6318549B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6337441B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5448799B2 (en) Display control apparatus and display control method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902