JP4148903B2 - Image processing apparatus, image processing method, and digital camera - Google Patents
Image processing apparatus, image processing method, and digital camera Download PDFInfo
- Publication number
- JP4148903B2 JP4148903B2 JP2004001007A JP2004001007A JP4148903B2 JP 4148903 B2 JP4148903 B2 JP 4148903B2 JP 2004001007 A JP2004001007 A JP 2004001007A JP 2004001007 A JP2004001007 A JP 2004001007A JP 4148903 B2 JP4148903 B2 JP 4148903B2
- Authority
- JP
- Japan
- Prior art keywords
- red
- eye
- region
- image
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
この発明は、人物や動物などをフラッシュを用いて撮影した際に発生する赤目を検出して、検出した赤目を補正する画像処理装置、画像処理方法およびデジタルカメラに関するものである。 The present invention relates to an image processing apparatus, an image processing method, and a digital camera that detect red eyes generated when a person or an animal is photographed using a flash and correct the detected red eyes.
小型化、高画質化などの技術の進歩と、銀塩カメラに比べて手軽に使用することができることから、デジタルカメラは、急激に普及しており、銀塩カメラに取って代わりつつある。 Digital cameras are rapidly becoming widespread and are replacing silver salt cameras because of advances in technology such as miniaturization and high image quality, and ease of use compared to silver salt cameras.
暗い場所での撮影は、デジタルカメラも銀塩カメラと同様にフラッシュなどの照明が不可欠である。人物や動物をフラッシュを用いて撮影した場合、フラッシュの光が網膜で反射することによって、被写体である人物や動物の瞳が赤くなる赤目現象が発生することがある。この赤目現象は、レンズの光軸とフラッシュの光軸とが並行で、かつ2つの光軸の距離が近い場合に発生しやすい。特に、小型化が進んでいるデジタルカメラでは、レンズとフラッシュとの間の距離が短くなっているので、赤目現象が発生することが多い。そのため、デジタルカメラに限らず小型カメラには、赤目を軽減する赤目軽減機能が搭載されていることが多い。 When shooting in dark places, digital cameras require lighting such as a flash as well as silver halide cameras. When a person or an animal is photographed using a flash, a red-eye phenomenon may occur in which the light of the flash is reflected by the retina and the eyes of the subject person or animal become red. This red-eye phenomenon is likely to occur when the optical axis of the lens and the optical axis of the flash are parallel and the distance between the two optical axes is short. In particular, in digital cameras that are becoming smaller in size, the distance between the lens and the flash is shortened, so that a red-eye phenomenon often occurs. Therefore, not only digital cameras but also small cameras are often equipped with a red-eye reduction function for reducing red eyes.
赤目軽減機能の1つとして、フラッシュから2回光を照射する方法がある。まず、撮影する直前にフラッシュによってダミーの光を照射して人物や動物の瞳孔を狭くしておき、撮影時のフラッシュの光による網膜での反射光を少なくすることで、赤目現象の発生を防止する。 One of the red-eye reduction functions is to irradiate light twice from a flash. First, the pupil of a person or animal is narrowed by irradiating a dummy light with a flash just before shooting to reduce the reflected light on the retina due to the flash light during shooting, thereby preventing the occurrence of red-eye phenomenon To do.
しかしながら、フラッシュから2回光を照射する方法では、ダミーの光を照射しなければならないため、電池の消耗が激しいという問題があった。 However, in the method of irradiating light twice from the flash, the dummy light has to be irradiated, which causes a problem that the battery is consumed very much.
また、フラッシュから2回光を照射して、フラッシュの光による網膜での反射光を少なくなるようにしても、完全に赤目現象を無くすことはできない。そのため、撮影後に赤目を補正する必要があった。 Further, even if the light is irradiated twice from the flash so that the light reflected from the retina by the flash light is reduced, the red-eye phenomenon cannot be completely eliminated. Therefore, it was necessary to correct red eyes after shooting.
特許文献1(第1の従来技術)には、赤目領域を検出する前処理として、顔領域を検出する顔領域検出を行い、顔領域の検出を赤目領域の検出/除去等の赤目処理に利用する技術が開示されている。具体的には、まず、操作者によってディスプレイに表示されている画像の中から赤目領域が含まれる顔の一点あるいは、一部範囲が指定されると、指定された領域を一定範囲拡大した画像領域の検索範囲を初期設定する。そして、操作者が指定した領域の画素の色、あるいは、初期設定された検索範囲の全部または一部の画素の色を参照して顔の画像領域の基本的な色である肌色の基準色を決定して、決定した基準色と画像領域の画素の色との色差に基づいて顔の画像領域を検索する。 In Patent Document 1 (first prior art), face region detection for detecting a face region is performed as pre-processing for detecting a red eye region, and the detection of the face region is used for red eye processing such as detection / removal of the red eye region. Techniques to do this are disclosed. Specifically, first, when a point or a part of a face including a red-eye area is specified from an image displayed on the display by the operator, an image area obtained by enlarging the specified area by a certain range Initialize search range for. The skin color reference color, which is the basic color of the face image area, is determined by referring to the pixel color of the area specified by the operator or the color of all or part of the pixels in the initial search range. The face image area is searched based on the color difference between the determined reference color and the pixel color of the image area.
つぎに、検索した顔の画像領域の中の各画素の色差を用いたクラスタリング処理によって、目や口、眉等の特徴点を検出する。そして、検出した特徴点の色を判別し、輝度情報を基準として、毛、黒目部分影等の黒領域および白目部分などの白領域を検出し、彩度情報を基準として、しみや赤目、唇等の赤領域の判別等の特徴点の色を判別する。 Next, feature points such as eyes, mouth, and eyebrows are detected by clustering processing using the color difference of each pixel in the searched face image region. Then, the color of the detected feature point is determined, black areas such as hair and black eye shadows and white areas such as white eye shadows are detected based on luminance information, and spots, red eyes, lips are detected based on saturation information. The color of the feature point such as the discrimination of the red region is discriminated.
最後に、各色の判別結果に加えて、特徴点の形状なども考慮して総合的に判断して、赤目領域を検出して、検出した赤目領域の彩度および明度を低下させて赤目を補正する。 Finally, in addition to the discrimination results of each color, comprehensive judgment is also made considering the shape of the feature points, etc. to detect the red-eye area and reduce the saturation and lightness of the detected red-eye area to correct red eyes To do.
また、特許文献2(第2の従来技術)には、認識対象となる人物の入力画像から当該人物の顔領域が抽出された際に、その顔領域の中から分離度フィルタを用いて顔の各特徴点候補を抽出し、この各特徴点候補の中から顔の構造的な制約情報に基づいて各特徴点のセット候補を選択し、この各特徴点セット候補を基準に切り出した特徴点近傍領域と予め登録してあるテンプレートパターンとの照合により各適合度を計算してその緩和を求め、最も適合度の緩和の高い特徴点セットを正しい特徴点セットとして選択することで、入力画像から目、鼻などの特徴点を安定に抽出する技術が開示されている。 Further, in Patent Document 2 (second prior art), when a face area of a person is extracted from an input image of the person to be recognized, the face of the face is extracted from the face area using a separability filter. Each feature point candidate is extracted, a feature point set candidate is selected from the feature point candidates based on the structural constraint information of the face, and the feature point neighborhood cut out based on each feature point set candidate Each matching degree is calculated by matching the region with a pre-registered template pattern to find its relaxation, and the feature point set with the highest relaxation degree is selected as the correct feature point set. A technique for stably extracting feature points such as the nose is disclosed.
さらに、非特許文献1(第3の従来技術)には、瞳と鼻孔とが含まれている顔辞書パターンを画像全体にわたって移動させながら類似度を随時求めていき、類似度の局所最大点を顔領域として抽出し、抽出した顔領域の中から分離度フィルタを用いて顔の各特徴点候補を抽出して、部分空間法を用いたパターン照合により、抽出した各特徴点候補が正しい特徴点であるのか否かを検証して、画像全体から目、鼻孔などの特徴点を抽出する技術が開示されている。 Furthermore, Non-Patent Document 1 (third prior art) obtains a similarity degree at any time while moving a face dictionary pattern including a pupil and a nostril over the entire image, and determines a local maximum point of the similarity degree. Extracted as a face area, extracted each feature point candidate of the face from the extracted face area using a separability filter, and the extracted feature point candidates are correct by pattern matching using the subspace method. And a technique for extracting feature points such as eyes and nostrils from the entire image is disclosed.
しかしながら、上記第1の従来技術では、たとえば、色相だけを用いた場合には赤目領域の検出精度が低く、誤検出が発生することがある。そのため、面積、彩度、明度、形状などの複数の条件を考慮して総合的に判断しているが、考慮する条件が多くなると赤目検出に時間がかかってしまうという問題があった。 However, in the first prior art, for example, when only the hue is used, the detection accuracy of the red-eye region is low, and erroneous detection may occur. For this reason, comprehensive determination is made in consideration of a plurality of conditions such as area, saturation, brightness, and shape, but there is a problem that it takes time to detect red-eye when the number of conditions to be considered increases.
また、上記第1の従来技術では、赤目を補正するために、操作者が、ディスプレイに表示されている画像の中から赤目領域が含まれる顔の1点あるいは、一部範囲を指定するようにしており、この指定によっては赤目検出に時間がかかってしまう。赤目検出の時間を短縮するためには、適切な領域を指定しなければならい。しかしながら、領域の指定は、操作者が手動で行うため、非常に不便であるという問題もあった。 In the first prior art, in order to correct the red eye, the operator designates one point or a partial range of the face including the red eye region from the image displayed on the display. Depending on this specification, it takes time to detect red-eye. In order to shorten the red-eye detection time, an appropriate area must be specified. However, there is a problem that the designation of the area is very inconvenient because it is manually performed by the operator.
さらに、上記第2および第3の従来技術では、瞳を正確に検出することはできるが、顔領域を検出した後に特徴点である瞳を検出するようにしているため、その処理時間が長く、デジタルカメラなどの赤目検出にそのまま適用することは難しいという問題があった。 Furthermore, in the second and third conventional techniques, the pupil can be accurately detected, but since the pupil which is a feature point is detected after the face area is detected, the processing time is long, There is a problem that it is difficult to directly apply to red-eye detection of a digital camera or the like.
また、デジタルカメラには、自動的に被写体までの距離を測定することにより、レンズの焦点を調整する自動焦点調節機能がある。デジタルカメラでは、自動焦点調節機能において画像の中のどの部分に焦点を合わせるかは、予め定められていることが多い。しかし、風景の中を背景に人物や動物を撮影する場合、必ずしも予め定められている部分に人物や動物が位置するわけではない。このような場合には、人物に焦点が合っていない画像が撮影されることがあるという問題があった。 Digital cameras also have an automatic focus adjustment function that adjusts the focus of the lens by automatically measuring the distance to the subject. In a digital camera, it is often predetermined which part of an image is focused in the automatic focus adjustment function. However, when a person or animal is photographed against the background of a landscape, the person or animal is not necessarily located at a predetermined portion. In such a case, there is a problem that an image out of focus on the person may be taken.
本発明は、上記に鑑みて成されたものであって、顔領域を検出することなく赤目を検出することで処理時間を短縮して、赤目補正を行うことができる画像処理装置、画像処理方法およびデジタルカメラを得ることを第1の目的とする。 The present invention has been made in view of the above, and an image processing apparatus and an image processing method capable of performing red-eye correction by reducing the processing time by detecting red eyes without detecting a face area. The first object is to obtain a digital camera.
第2の目的は、人物や動物を含む撮影の場合、正確に人物や動物に焦点を合わせることができるデジタルカメラを得ることである。 The second object is to obtain a digital camera that can accurately focus on a person or animal when photographing including a person or animal.
上述した課題を解決し、目的を達成するために、本発明は、所定の形状の内部領域と外部領域とを有する分離度フィルタによって前記入力画像の中のから前記内部領域と前記外部領域とを検出して、前記内部領域に含まれる前記入力画像の画像特徴量と前記外部領域に含まれる入力画像の画像特徴量との分離の度合いを示す分離度を前記入力画像の画素ごとに算出して、この算出した各分離度と前記各画素とを対応付けた分離度マップを作成する分離度マップ作成手段と、この分離度マップ作成手段によって作成された分離度マップの各分離度と所定の閾値とを比較して、前記分離度が前記閾値よりも大きい画素を検出して、この検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出する特徴点候補検出手段と、この特徴点候補検出手段によって検出された前記赤目の候補が所定の条件を満たしているか否かを判定して、前記所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出する特徴点検出手段と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention uses the separability filter having an inner area and an outer area having a predetermined shape to separate the inner area and the outer area from the input image. And detecting a degree of separation for each pixel of the input image that indicates a degree of separation between the image feature amount of the input image included in the internal region and the image feature amount of the input image included in the external region. A separability map creating means for creating a separability map in which each calculated separability is associated with each pixel; each separability of the separability map created by the separability map creating means and a predetermined threshold value And a feature point candidate detecting means for detecting a pixel whose degree of separation is greater than the threshold, and detecting a pixel whose degree of separation of the detected pixel indicates a local maximum value as a red-eye candidate, and Feature point Feature inspection for determining whether or not the red-eye candidate detected by the complementary detection means satisfies a predetermined condition, and detecting a predetermined area including the red-eye candidate satisfying the predetermined condition as a red-eye area And an exit means.
また、本発明は、入力画像の中から赤目領域を検出して、この検出した赤目領域を補正する画像処理方法において、所定の形状の内部領域と外部領域とを有する分離度フィルタによって前記入力画像の中のから前記内部領域と前記外部領域とを検出して、前記内部領域に含まれる前記入力画像の画像特徴量と前記外部領域に含まれる入力画像の画像特徴量との分離の度合いを示す分離度を前記入力画像の画素ごとに算出して、この算出した各分離度と前記各画素とを対応付けた分離度マップを作成する分離度マップ作成ステップと、この分離度マップ作成ステップによって作成された分離度マップの各分離度と所定の閾値とを比較して、前記分離度が前記閾値よりも大きい画素を検出して、この検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出する特徴点候補検出ステップと、この特徴点候補検出ステップによって検出された前記赤目の候補が所定の条件を満たしているか否かを判定して、前記所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出する特徴点検出ステップと、を備えることを特徴とする。 According to another aspect of the present invention, there is provided an image processing method for detecting a red-eye area from an input image and correcting the detected red-eye area, by using a separability filter having an inner area and an outer area having a predetermined shape. The internal region and the external region are detected from among the images, and the degree of separation between the image feature amount of the input image included in the internal region and the image feature amount of the input image included in the external region is indicated. A separation degree map creating step for calculating a separation degree for each pixel of the input image and creating a separation degree map in which each calculated separation degree is associated with each pixel, and the separation degree map creating step. Each separation degree of the obtained separation degree map is compared with a predetermined threshold value to detect a pixel having the separation degree larger than the threshold value, and the separation degree of the detected pixel indicates a local maximum value A feature point candidate detection step for detecting as a red eye candidate, and whether or not the red eye candidate detected by the feature point candidate detection step satisfies a predetermined condition, and satisfies the predetermined condition And a feature point detecting step of detecting a predetermined area including a red eye candidate as a red eye area.
本発明は、分離度マップ作成手段が、所定の形状の内部領域と外部領域とを有する分離度フィルタによって入力画像の中のから内部領域と外部領域とを検出して、内部領域に含まれる入力画像の画像特徴量と外部領域に含まれる入力画像の画像特徴量との分離の度合いを示す分離度を入力画像の画素ごとに算出して、この算出した各分離度と各画素とを対応付けた分離度マップを作成し、特徴点候補検出手段が、分離度マップの各分離度と所定の閾値とを比較して、分離度が閾値よりも大きい画素を検出して、検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出し、特徴点検出手段が、赤目の候補が所定の条件を満たしているか否かを判定して、所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出しているので、入力画像から顔領域を検出した後に赤目を検出することなく正確に赤目を検出することができ、赤目の検出に要する時間を短縮することができる。 According to the present invention, the separability map creating means detects an inner area and an outer area from an input image by a separability filter having an inner area and an outer area having a predetermined shape, and includes an input included in the inner area. The degree of separation indicating the degree of separation between the image feature quantity of the image and the image feature quantity of the input image included in the external area is calculated for each pixel of the input image, and each calculated separation degree is associated with each pixel. The feature point candidate detection means compares each separation degree of the separation degree map with a predetermined threshold value to detect pixels having a separation degree greater than the threshold value, and separates the detected pixels. A pixel whose degree is a local maximum value is detected as a candidate for red eye, and the feature point detection unit determines whether the candidate for red eye satisfies a predetermined condition, and a candidate for red eye that satisfies the predetermined condition A predetermined area including Since it is, and it is possible to accurately detect the red eye without detecting redeye from the input image after detecting the face area, it is possible to shorten the time required for the detection of red-eye.
また、本発明は、瞳位置検出手段が、入力画像の中から人物または動物の瞳を検出して、基準領域決定手段が、検出された瞳を含む基準領域を決定し、パラメータ調整手段が、基準領域に基づいて被写体を撮影するためのパラメータを調整するようにしているため、被写体に人物または動物が含まれている場合には、撮影のためのパラメータを人物または動物に正確にあわせて画像を撮影することができる。 Further, according to the present invention, the pupil position detection unit detects a human or animal pupil from the input image, the reference region determination unit determines a reference region including the detected pupil, and the parameter adjustment unit includes: Since the parameters for shooting the subject are adjusted based on the reference area, if the subject contains a person or an animal, the shooting parameters are accurately matched to the person or animal. Can be taken.
以下に、本発明にかかる画像処理装置、画像処理方法およびデジタルカメラの実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of an image processing apparatus, an image processing method, and a digital camera according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.
(第1の実施形態)
図1〜図4を用いてこの発明における第1の実施形態を説明する。図1は、この発明における第1の実施形態の画像処理装置の構成を示すブロック図である。この発明における第1の実施形態の画像処理装置は、画像入力部101、分離度マップ生成部102、特徴点候補検出部103、特徴点検出部104、画像補正部105および画像出力部106を備えている。
(First embodiment)
A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. The image processing apparatus according to the first embodiment of the present invention includes an
画像入力部101は、デジタルカメラで撮影された画像を取り込む入力手段である。デジタルカメラで撮影された画像フォーマットは、RBGフォーマットやYUVフォーマットなどさまざまである。画像入力部101は、取り込んだ画像フォーマットがRBGフォーマットとは異なる画像フォーマットである場合には、入力された画像フォーマットをRGBフォーマットに変換する特許請求の範囲でいうところの入力画像変換手段の機能を備えている。
The
分離度マップ生成部102は、後述する図2に示した分離度フィルタを用いて、赤目補正の対象となる画像の分離度マップを生成する。特徴点候補検出部103は、分離度マップ内の分離度の値と所定の閾値とを比較して、分離度の値が所定の閾値よりも大きい点を検出して、検出した点の中で局所最大値を示す画素を特徴点候補(赤目の候補)として検出する。 The separability map generation unit 102 generates a separability map of an image to be subjected to red-eye correction using a separability filter shown in FIG. 2 described later. The feature point candidate detection unit 103 compares the value of the degree of separation in the degree of separation map with a predetermined threshold value, detects a point where the value of the degree of separation is larger than the predetermined threshold value, and among the detected points A pixel indicating the local maximum value is detected as a feature point candidate (red-eye candidate).
特徴点検出部104は,特徴点候補検出部103によって検出された複数の特徴点候補が所定の条件を満たしているか否かを判定して、所定の条件を満たしている特徴点候補を赤目を示す特徴点として検出する。
The feature
画像補正部105は、特徴点検出部104によって検出された特徴点付近の領域、すなわち赤目領域に対して赤目補正処理を行う。画像出力部106は、画像補正部105によって赤目補正処理が施された画像をCRT(Cathode-Ray Tube)、液晶ディスプレイなどの一般的な表示機器に出力する。なお、表示機器は、画像補正処理装置内に備えるようにしてもよいし、画像補正処理装置を表示機器に接続して用いるようにしてもよい。
The
つぎに、この発明における第1の実施形態の画像処理装置の動作を説明する。画像入力部101は、デジタルカメラで撮影された画像を取り込み、取り込んだ画像がRGBフォーマットであるのか否かを判断する。取り込んだ画像がRGBフォーマットとは異なる場合には、取り込んだ画像フォーマットをRGBフォーマットに変換する。画像入力部101は、RGBフォーマットの画像を分離度マップ生成部102に出力する。
Next, the operation of the image processing apparatus according to the first embodiment of the present invention will be described. The
分離度マップ生成部102は、画像の各画素に対して分離度フィルタの出力値(分離度)を算出して、分離度マップを生成する。分離度フィルタは、図2に示すように、半径rの円の外側の外部領域1と、半径rの円の内側の内部領域2とで構成されている。分離度マップ生成部102は、分離度フィルタの外部領域1と内部領域2との間で、輝度などの画像特徴量がどの程度分離されているかを示す分離度を算出する。具体的には、分離度ηは
通常の特徴点候補検出では、(式2)および(式3)の画像特徴量である輝度Piには白黒画像における輝度を用いる。しかし、本発明の画像処理装置では赤目領域を検出すること、すなわち、周辺と比較して赤い領域が円形状の領域として存在する特徴点を検出する。したがって、分離度マップ生成部102は、(式2)および(式3)の輝度PiにRGBのG値(緑)の輝度を用いる。ここで、図3−1〜図3−5を参照して赤目領域の検出において(式2)および(式3)の輝度PiにG値が適していることを説明する。 In normal feature point candidate detection, the brightness in the black and white image is used as the brightness Pi that is the image feature amount of (Expression 2) and (Expression 3). However, the image processing apparatus of the present invention detects a red-eye area, that is, a feature point where a red area exists as a circular area as compared with the surrounding area. Accordingly, the separability map generation unit 102 uses the luminance of RGB G value (green) as the luminance Pi of (Expression 2) and (Expression 3). Here, with reference to FIGS. 3-1 to 3-5, it will be described that the G value is suitable for the luminance Pi in (Expression 2) and (Expression 3) in the detection of the red-eye region.
図3−1は、赤目を含む目の画像領域を示している。図3−1において、領域Aは赤目を、領域Bは白目を、領域Cは目の周りの肌を示している。ここで、図3−1の各領域A〜CのR値(赤)、G値(緑)、B値(青)の個別の画像に着目する。R値の画像は、一般的に、図3−2に示すように、赤目の領域A、白目の領域B、肌の領域Cの全ての領域の輝度は大きくなる。G値の画像は、一般的に、図3−3に示すように、赤目の領域Aの輝度は小さくなり、白目の領域Bおよび肌の領域Cの輝度は大きくなる。B値の画像は、一般的に、図3−4に示すように、赤目の領域Aおよび肌の領域Cの輝度は小さくなり、白目の領域Bの輝度は大きくなる。すなわち、図3−5に示すように、赤目の領域Aでは、R値の画像の輝度が「大」、G値の画像の輝度が「小」、B値の画像の輝度が「小」となり、白目の領域Bでは、R値の画像の輝度が「大」、G値の画像の輝度が「大」、B値の画像の輝度が「大」となり、肌の領域Cでは、R値の画像の輝度が「大」、G値の画像の輝度が「大」、B値の画像の輝度が「小」となる。赤目の領域Aを検出するためには、白目の領域Bの輝度と肌の領域Cの輝度との和と、赤目の領域Aの輝度の差が大きいことが望ましい。白目の領域Bの輝度と肌の領域Cの輝度との和と、赤目の領域Aの輝度の差は、G値の画像が最も大きくなっているので、G値の輝度を用いることが赤目検出には適している。 FIG. 3A illustrates an image area of the eye including red eyes. In FIG. 3A, a region A shows red eyes, a region B shows white eyes, and a region C shows skin around the eyes. Here, attention is focused on individual images of R value (red), G value (green), and B value (blue) in each of the areas A to C in FIG. As shown in FIG. 3B, the R-value image generally has a high luminance in all areas of the red-eye area A, the white-eye area B, and the skin area C. As shown in FIG. 3C, the G-value image generally has a lower red-eye area A brightness and a white-eye area B and skin area C brightness. In the B-value image, generally, as shown in FIG. 3-4, the luminance of the red-eye region A and the skin region C decreases, and the luminance of the white-eye region B increases. That is, as shown in FIG. 3-5, in the red-eye region A, the luminance of the R value image is “high”, the luminance of the G value image is “small”, and the luminance of the B value image is “small”. In the white-eye region B, the luminance of the R value image is “high”, the luminance of the G value image is “high”, and the luminance of the B value image is “high”. The brightness of the image is “high”, the brightness of the G value image is “high”, and the brightness of the B value image is “small”. In order to detect the red-eye region A, it is desirable that the difference between the luminance of the white-eye region B and the luminance of the skin region C and the luminance of the red-eye region A is large. The difference between the luminance of the white-eye region B and the skin region C and the red-eye region A is the largest in the G-value image. Suitable for.
分離度マップ生成部102は、G値の輝度を用いて(式1)〜(式3)によって算出した分離度から、画像の各画素とその分離度とを対応付けた分離度マップを作成する。分離度マップは、分離度フィルタの半径rを対象とする顔画像あるいは赤目領域の大きさに応じて変更して、想定される複数の半径に対して分離度を算出して作成してもよいし、各半径の分離度マップの値に応じて複数の分離度マップを統合するようにしてもよい。複数の分離度マップを統合す場合には、ある位置における分離度値として、各半径の分離度の値の最大値を利用して、最大値となった分離度フィルタの半径も対応付けておく。 The separability map generation unit 102 creates a separability map in which each pixel of the image is associated with the separability from the separability calculated by (Expression 1) to (Expression 3) using the luminance of the G value. . The separability map may be created by calculating the separability for a plurality of assumed radii by changing the radius r of the separability filter according to the size of the face image or the red-eye area. Then, a plurality of separability maps may be integrated according to the value of the separability map for each radius. When integrating a plurality of separability maps, the separability filter radius that is the maximum value is associated with the separability value at a certain position by using the maximum separability value of each radius. .
特徴点候補検出部103は、分離度マップ内の分離度の値と所定の閾値とを比較して、分離度の値が所定の閾値よりも大きい画素を検出する。図2に示した円形状の分離度フィルタでは、瞳や鼻孔などの円形状の特徴点にフィットするほど分離度は「1.0」に近い値となり、分離度を算出する対象領域の形状が円形から離れるに連れて分離度は低下して「0」に近い値となる。たとえば、図4に示すように、画像内の点線で示した部分の分離度は、瞳を示す領域3にかかる部分で大きくなる。特徴点候補検出部103は、検出した分離度の値が所定の閾値よりも大きい点の中で局所最大値を示す画素を特徴点候補(赤目の候補)として検出する。 The feature point candidate detecting unit 103 compares the value of the degree of separation in the degree of separation map with a predetermined threshold value, and detects a pixel having a value of the degree of separation larger than the predetermined threshold value. In the circular separability filter shown in FIG. 2, the separability becomes a value closer to “1.0” as a circular feature point such as a pupil or nostril is fitted, and the shape of the target region for which the separability is calculated is As the distance from the circle increases, the degree of separation decreases to a value close to “0”. For example, as shown in FIG. 4, the degree of separation of the portion indicated by the dotted line in the image increases at the portion related to the region 3 indicating the pupil. The feature point candidate detection unit 103 detects, as a feature point candidate (red-eye candidate), a pixel that indicates a local maximum value among points where the detected degree of separation is greater than a predetermined threshold.
なお、局所最大値を求める前に、分離度の値に、たとえば、ガウスフィルタなどで平滑化フィルタ処理を行えば、ノイズに対する耐性が高くなり、より精度のよい特徴点候補を検出することができる。 In addition, if the smoothing filter process is performed on the value of the separation degree, for example, using a Gaussian filter before the local maximum value is obtained, resistance to noise is increased, and more accurate feature point candidates can be detected. .
特徴点検出部104は、特徴点候補検出部103によって検出された複数の特徴点候補が、所定の条件を満たしているか否かを判定して、所定の条件を満たしている特徴点候補を赤目を示す特徴点として検出する。
The feature
所定の条件は、
(1)特徴点である赤目の候補のG値の画像特徴量(この場合は、輝度)が所定の閾値より小さいこと。
(2)特徴点候補である赤目の候補を中心として分離度フィルタの内部領域の各画素のG値の画像特徴量(この場合は、輝度)の平均値が所定の閾値より小さいこと。
(3)特徴点である赤目の候補の色相値が示す赤みが所定の閾値より大きいこと。
(4)特徴点候補である赤目の候補を中心として分離度フィルタの内部領域の色相値が示す赤みの平均値が所定の閾値より大きいこと。
(5)複数の特徴点候補である赤目の候補の中から、右目と左目とを示す組となる配置の特徴点候補が存在すること。
とする。
The predetermined conditions are
(1) The image feature amount (in this case, luminance) of the red eye candidate that is a feature point is smaller than a predetermined threshold value.
(2) The average value of the image feature amount (in this case, luminance) of the G value of each pixel in the inner region of the separability filter centering on the red eye candidate that is the feature point candidate is smaller than a predetermined threshold value.
(3) The redness indicated by the hue value of the candidate red eye that is the feature point is greater than a predetermined threshold.
(4) The average value of redness indicated by the hue value of the inner region of the separability filter centering on the red eye candidate that is the feature point candidate is larger than a predetermined threshold.
(5) There are feature point candidates arranged as a pair indicating the right eye and the left eye from among a plurality of candidate red eye candidates.
And
特徴点検出部104は、上記5つの条件の少なくとも1つを満たす赤目の候補を特徴点として検出する。なお、上記5つの条件は、各値が所定の閾値より大きいか、または小さいかで判断するようにしたが、所定の画像中における相対値によって判断するようにしてもよいし、所定の閾値と相対値とを組み合わせて判断するようにしてもよい。もちろん、最大値または最小値で判断するようにしてもかまわない。
The feature
画像補正部105は、特徴点検出部104によって検出された特徴点付近、すなわち赤目領域に対してたとえば、赤目領域のR値から所定の値を減算して、赤目領域の赤みを減少させるなどの赤目補正処理を行って、赤目補正処理を行った後の画像を画像出力部106に出力する。
The
画像出力部106は、画像補正部105によって赤目補正処理が施された画像を、表示機器に表示する。
The
このようにこの第1の実施形態では、RGBフォーマットにおける画像においては、赤目部分ではR値の輝度が大きくて、かつB値およびG値の輝度が小さくなっていて、赤目部分付近の白目部分ではR値、G値、B値すべての輝度が大きくなっていて、赤目部分付近の肌部分ではR値およびG値の輝度が大きくて、かつB値の輝度が小さくなっていることに着目して、赤目部分と、白目部分および肌部分の輝度の差が最も大きいG値の輝度を用いて入力画像から分離度を算出して、算出した分離度に基づいて赤目を検出し、検出した赤目に対して赤目補正処理を行うようにしている。これにより、入力画像から顔領域を検出した後に赤目を検出することなく正確に赤目を検出することができ、従来技術と比べて対象となる画像から赤目を検出して、検出した赤目を補正する処理に要する時間を短縮することができる。 As described above, in the first embodiment, in the image in the RGB format, the luminance of the R value is large and the luminance of the B value and the G value is small in the red eye portion, and in the white eye portion near the red eye portion. Pay attention to the fact that the brightness of all of the R value, the G value, and the B value is large, the brightness of the R value and the G value is large, and the brightness of the B value is small in the skin part near the red-eye part. The separation degree is calculated from the input image using the luminance of the G value having the largest luminance difference between the red-eye portion and the white-eye portion and the skin portion, and the red-eye is detected based on the calculated separation degree. On the other hand, red-eye correction processing is performed. As a result, it is possible to accurately detect the red eye without detecting the red eye after detecting the face area from the input image, and the detected red eye is corrected by detecting the red eye from the target image as compared with the prior art. The time required for processing can be shortened.
また、赤目補正処理に必要な情報を外部から入力する必要がないため、操作者をわずらわせることなく赤目補正処理を行うことができ、利便性を上げることができる。 Further, since it is not necessary to input information necessary for the red-eye correction process from the outside, the red-eye correction process can be performed without bothering the operator, and convenience can be improved.
なお、この第1の実施の形態では、分離度マップ生成部102が、分離度を算出する(式2)および(式3)の輝度Piに、G値の輝度を用いるようにした。しかし、輝度PiはG値の輝度に限るものではなく、たとえば、R値の輝度、G値の輝度、B値の輝度をすべて用いるようにしてもよいし、任意の組み合わせによる演算を行った値を用いるようにしてもよい。 In the first embodiment, the separability map generation unit 102 uses the luminance of the G value as the luminance Pi of (Equation 2) and (Equation 3) for calculating the separability. However, the brightness Pi is not limited to the brightness of the G value, and for example, all of the brightness of the R value, the brightness of the G value, and the brightness of the B value may be used, or a value obtained by calculation by an arbitrary combination May be used.
また、分離度マップ生成部102が分離度を算出する際に、図2に示した分離度フィルタの外部領域1にはR値の輝度を、内部領域2にはG値の輝度とB値の輝度の和を用いるというように、異なる種類の値を用いるようにしてもよい。 When the separability map generation unit 102 calculates the separability, the outer area 1 of the separability filter shown in FIG. 2 has R-value luminance, and the inner area 2 has G-value luminance and B-value luminance. Different types of values may be used, such as using the luminance sum.
また、この第1の実施形態では、YUVなどのRGBフォーマットとは異なる画像が入力された場合、画像入力部101が入力された画像フォーマットをRGBフォーマットに変換するようにしたが、入力された画像フォーマットをRGBフォーマットに変換することなく、入力された画像フォーマットの値から分離度を算出するようにしてもよい。たとえば、入力された画像フォーマットがYUVフォーマットの場合には、YUVの値をそのまま用いて分離度を算出してもよい。また、入力された画像がJPEGのフォーマットの場合には、入力された画像をデコードした後に処理を行うことが望ましい。
In the first embodiment, when an image different from the RGB format such as YUV is input, the
また、この第1の実施形態の画像処理装置にコンピュータなどに接続する通信インタフェース機能を備えて、コンピュータなどに接続して使用してもよい。この場合、画像入力部101および画像出力部106は、通信インタフェース機能を介して接続されたコンピュータと画像の入出力を行えばよい。また、画像出力部106は、赤目補正処理を施した画像を表示機器に出力するだけでなく、たとえば、CD−ROM、フロッピー(登録商標)ディスク(FD)、DVDなどの記録媒体や、コンピュータ内のメモリなどに赤目補正処理を施した画像を出力するようにしてもよい。もちろん、この第1の実施形態の画像処理装置をデジタルカメラ内に備えるようにしてもかまわない。
In addition, the image processing apparatus according to the first embodiment may be provided with a communication interface function for connecting to a computer or the like so as to be connected to a computer or the like. In this case, the
また、分離度マップ生成部102が生成する分離度マップは、画像入力部101から入力された画像全体を対象としてもよいし、画像処理装置内に、たとえば、キーボードやマウスなどの一般的な入力機器を備え、この入力機器を用いて操作者が、赤目を含む領域を選択するようにして、選択された領域のみを処理対象画像として分離度マップを生成するようにしてもよい。もちろん、コンピュータなどに画像処理装置を接続して用いる場合には、接続されたコンピュータの入力機器を用いて処理対象画像を選択するようにしてもよい。
Further, the separability map generated by the separability map generation unit 102 may target the entire image input from the
さらに、この発明における第1の実施形態の画像処理装置の画像入力部101、分離度マップ生成部102、特徴点候補検出部103、特徴点検出部104、画像補正部105および画像出力部106によって実現される前述した各機能を、汎用のコンピュータに実行させるための画像処理プログラムとして提供してもよい。この場合、画像処理プログラムは、コンピュータにインストール可能な形式、またはコンピュータが実行可能な形式のファイルでCD−ROM、フロッピー(登録商標)ディスク、DVDなどのコンピュータで読み取り可能な記録媒体に記録して提供する。記録媒体に記録された画像処理プログラムは、記録媒体から読み出されてコンピュータ上で実現される。
Further, the
この発明にかかる画像処理プログラムを実行するコンピュータは、少なくとも制御装置と、記憶装置とを備えている。制御装置は、コンピュータ全体を制御するCPUなどの演算処理装置と、ROMとを備えている。記憶装置は、一般的なRAMで構成され、入力された処理対象となる画像や分離度マップ、赤目補正処理が施された画像を記憶する。制御装置は、画像処理プログラムが記録されている記録媒体から画像処理プログラムを読み出して実行することで、分離度マップ生成部102、特徴点候補検出部103、特徴点検出部104、画像補正部105および画像出力部106によって実現される前述した各機能としてコンピュータを動作させる。
A computer that executes an image processing program according to the present invention includes at least a control device and a storage device. The control device includes an arithmetic processing device such as a CPU that controls the entire computer, and a ROM. The storage device includes a general RAM, and stores an input image to be processed, a separability map, and an image subjected to red-eye correction processing. The control device reads out and executes the image processing program from the recording medium on which the image processing program is recorded, whereby the separability map generation unit 102, the feature point candidate detection unit 103, the feature
また、画像処理プログラムをネットワークに接続されたコンピュータ上に格納し、ネットワークを介してダウンロードさせることにより提供するように構成してもよい。また、画像処理プログラムをネットワークを介して提供または配布するように構成してもよい。 Alternatively, the image processing program may be stored on a computer connected to a network and provided by being downloaded via the network. Further, the image processing program may be provided or distributed via a network.
(第2の実施形態)
図5〜図7を用いてこの発明における実施の形態2を説明する。図5は、この発明における第2の実施形態のデジタルカメラの構成の一例を示すブロック図である。この発明における第2の実施形態のデジタルカメラは、シャッター509、レンズ501(特許請求の範囲でいうところの光学系)、CCD510、画像入力部508、記憶部505、表示部504、瞳位置決定部507、AF領域決定部506(特許請求の範囲でいうところの基準領域決定手段)、焦点制御部503(特許請求の範囲でいうところのパラメータ調整手段)およびモータ502を備えている。
(Second Embodiment)
A second embodiment of the present invention will be described with reference to FIGS. FIG. 5 is a block diagram showing an example of the configuration of a digital camera according to the second embodiment of the present invention. A digital camera according to the second embodiment of the present invention includes a
シャッター509は、レンズ501から入力された光をCCD510がデジタルデータに変換した被写体の画像を画像入力部508に取り込ませるための手段として使用される。シャッター509は、たとえば、2段階の押しボタンで構成され、操作者によって、1段階まで押されると、レンズ501の焦点を調整する指示である焦点調整指示を、2段階まで押されると、被写体の画像を記憶する指示である撮影指示を画像入力部508に出力する。
The
焦点調整指示が入力されると、画像入力部508は、CCD510から入力される画像を取り込んで、取り込んだ画像を表示部504と瞳位置決定部507内の分離度マップ生成部517とに出力する。撮影指示が入力されると、画像入力部508は、CCD510から入力される画像を取り込んで記憶部505に記憶させる。
When the focus adjustment instruction is input, the
表示部504は、たとえば、液晶ディスプレイなどで構成され、画像入力部508から入力された画像、または記憶部505に記憶されている画像を表示する。
The
瞳位置決定部507は、画像入力部508から入力された画像内に人物または動物の瞳が存在するか否かを検出して、瞳が存在する場合には、検出した瞳の位置情報をAF領域決定部506に出力する。画像内に瞳が存在しない場合には、瞳位置決定部507は、たとえば、画像内の位置情報としてありえない値を位置情報とするなどで、瞳が存在しないことをAF領域決定部506に通知する。
The pupil
瞳位置決定部507は、分離度マップ生成部517と、特徴点候補検出部527と、焦点制御部503とを備えている。
The pupil
分離度マップ生成部517は、画像に対して分離度フィルタの出力値(分離度)を算出して、分離度マップを生成する。分離度マップを生成するための分離度フィルタについては、第1の実施形態で説明したものと同様となるのでここではその説明を省略する。分離度マップ生成部517は、(式1)〜(式3)によって分離度を算出するが、ここでは、瞳を検出するために分離度マップを生成するので、(式2)および(式3)の輝度Piには白黒画像における輝度を用いる。 The separability map generation unit 517 calculates an output value (separability) of the separability filter for the image, and generates a separability map. Since the separability filter for generating the separability map is the same as that described in the first embodiment, the description thereof is omitted here. The separability map generation unit 517 calculates the separability by (Equation 1) to (Equation 3), but here, since the separability map is generated in order to detect the pupil, (Equation 2) and (Equation 3) The brightness Pi of the monochrome image is used as the brightness Pi.
特徴点候補検出部527は、分離度マップ内の分離度の値と所定の閾値とを比較して、分離度の値が所定の閾値よりも大きい画素を検出して、検出した画素の中で局所最大値を示す画素を特徴点候補として検出する。
The feature point
特徴点検出部537は、特徴点候補検出部527によって検出された複数の特徴点候補に対して、パターン照合処理を行って類似度を算出して、算出した類似度の値や各特徴点候補の位置、分離度フィルタの半径などの情報を統合して、瞳の位置を検出する。そして、検出した瞳の位置情報をAF領域決定部506に出力する。
The feature
AF領域決定部506は、瞳位置決定部507から入力される位置情報に基づいて、レンズ501の焦点を調整するためのAF領域を決定する。焦点制御部503は、AF領域決定部506によって決定されたAF領域にレンズ501の焦点を調整するモータ502を駆動してレンズ501を制御する。
The AF
つぎに、図6のフローチャートを参照して、この発明における第2の実施形態のデジタルカメラの動作を説明する。なお、分離度マップ生成部517が分離度マップを生成して、特徴点候補検出部527が分離度マップを用いて特徴点候補(ここでは、瞳領域の候補)を検出する動作は、第1の実施形態と同様のものとなるので、ここではその詳細な説明は省略する。
Next, the operation of the digital camera according to the second embodiment of the present invention will be described with reference to the flowchart of FIG. The operation in which the separability map generation unit 517 generates a separability map and the feature point
シャッター509から焦点調節指示が入力されると、画像入力部508は、CCD510から入力される画像を取り込んで、取り込んだ画像を表示部504と分離度マップ生成部517とに出力する(ステップS100,S110)。表示部504は、画像入力部508から入力された画像を表示する。
When a focus adjustment instruction is input from the
分離度マップ生成部517は、画像入力部508から入力された画像の白黒画像の輝度を用いて、(式1)〜(式3)によって分離度を算出して、分離度マップを生成する(ステップS120)。
The separability map generation unit 517 calculates the separability by (Equation 1) to (Equation 3) using the luminance of the black and white image of the image input from the
特徴点候補検出部527は、分離度マップ内の分離度の値と所定の閾値とを比較して、分離度の値が所定の閾値よりも大きい画素を検出する。特徴点候補検出部527は、検出した分離度の値が所定の閾値よりも大きい値の中で局所最大値を示す画素を特徴点候補として検出する(ステップS130)。
The feature point
特徴点検出部537は、特徴点候補検出部527によって検出された複数の特徴点候補に対して、パターン照合処理を行って特徴点である瞳を検出して、検出した瞳の位置情報をAF領域決定部506に出力する(ステップS140)。具体的には、特徴点検出部537は、特徴点候補検出部527が検出した複数の特徴点候補の付近において、分離度フィルタの半径に応じた局所正規化画像を取得する。そして、取得した局所正規化画像と辞書との類似度を部分空間法によって算出する。
The feature
なお、類似度を算出するための辞書は、様々な人物や照明条件、顔の向きなどにおける左右の瞳の学習パターンを収集して作成される第1の辞書と、特徴点候補の中で第1の辞書との類似度が所定の閾値より高い、目尻や目頭、眉端などの誤りパターンを選別収集して作成された第2の辞書とが予め準備されているものとする。 The dictionary for calculating the similarity is the first dictionary created by collecting learning patterns of left and right pupils in various persons, lighting conditions, face orientations, etc., and the first among the feature point candidates. It is assumed that a second dictionary created by selecting and collecting error patterns such as the corners of the eyes, the head of the eyes, and the eyebrows whose similarity to the first dictionary is higher than a predetermined threshold is prepared in advance.
特徴点検出部537は、局所正規化画像と第2の辞書との類似度を、局所正規化画像と第1の辞書との類似度から減算して類似度を算出する。特徴点検出部537は、左瞳および右瞳の類似度の値によって、各特徴点候補を整列して、類似どの値がそれぞれ所定の数、または所定の閾値以上となる特徴点候補を選択する。そして、選択した特徴点候補を用いて左右の瞳の組(セット)を作成する。
The feature
特徴点検出部537は、セットが、予め想定した顔の大きさや角度から定められた所定の条件を満たしているか否かを判定する。所定の条件を満たしているセットの左瞳と右瞳とから推定される顔領域が、異なるセットとの間でも成り立つか否かを判定する。すなわち、推定された顔領域の瞳位置として成り立つセットが複数あるか否かを判定する。推定された顔領域の瞳の位置として成り立つセットが複数ある場合、特徴点検出部537は、さらに所定の評価値を用いて、瞳の位置として成り立つセットを1つ検出する。評価値は、たとえば、セットの左瞳と右瞳との類似度の和を用いて、より類似度の値が大きいセットを瞳の位置として検出する。特徴点検出部537は、検出した瞳の位置情報をAF領域決定部506に出力する。なお、部分空間法を用いて特徴点検出する方法は、非特許文献1によって公知である。
The feature
特徴点検出部537は、上述したパターン処理によって特徴点である瞳の位置を検出できなかった(被写体に人物や動物が含まれていない)場合には、たとえば、画像内の位置情報としてありえない値を位置情報とするなどで、瞳が存在しないことをAF領域決定部506に通知する。
For example, if the feature
AF領域決定部506は、特徴点検出部537によって瞳が検出されたか否かを判定する(ステップS160)。特徴点検出部537から瞳の位置情報が入力された場合、AF領域決定部506は、瞳の位置情報に基づいて、両瞳が含む領域をレンズ501の焦点を調整するためのAF領域を決定する(ステップS170)。たとえば、図7に示すような画像701が画像入力部508によって取り込まれたとすると、AF領域決定部506には、特徴点検出部537から人物702の左右の瞳703を示す位置情報が入力される。AF領域決定部506は、左右の瞳703を含む矩形領域をAF領域704に決定する。そして、決定したAF領域の位置情報を焦点制御部503に出力する。
The AF
AF領域決定部506は、瞳が検出されなかった場合には、予め定められた所定の領域をAF領域に決定する(ステップS180)。そして、決定したAF領域を焦点制御部503に出力する。
When no pupil is detected, the AF
焦点制御部503は、AF領域決定部506によって決定されたAF領域にレンズ501の焦点を調整するにモータ502を駆動してレンズ501の焦点制御処理を行う(ステップS190)。焦点制御には、たとえば、レンズ501を段階的に動かして、AF領域における画像のコントラストが最も高くなるところに焦点を合わせるTTLコントラスト検出方式などを用いる。もちろん、AF領域を対象として焦点制御を行う方式であれば、TTLコントラスト検出方式とは異なる方式を用いてもかまわない。
The
画像入力部508は、焦点制御処理が終了した後の画像を取り込んで、取り込んだ画像を表示部504に表示する(ステップS200)。そして、シャッター509から撮影指示が入力されると、画像入力部508はCCD510から入力される画像を取り込んで記憶部505に記憶させて、画像を保存する(ステップS210)。
The
このようにこの第2の実施形態では、人物または動物の瞳を検出して、検出した瞳を含む領域をAF領域として焦点制御を行うようにしているため、撮影する被写体の中に人物または動物が存在する場合には、正確に焦点制御を行って画像を撮影することができる。 As described above, in the second embodiment, since the pupil of a person or animal is detected and focus control is performed using the area including the detected pupil as the AF area, the person or animal is included in the subject to be photographed. Can be taken with accurate focus control.
なお、この第2の実施形態では、シャッター509が1段階押された時に焦点調整指示を、シャッター509が2段階押された時に撮影指示を画像入力部508に出力するようにしたが、焦点調整指示を出力するタイミングはこれに限るものではない。たとえば、デジタルカメラが撮影可能な状態、すなわち、入力された画像が表示部504に表示されている間は繰り返し焦点制御処理を行うような場合には、デジタルカメラ内の計時機能によって所定の間隔で焦点調整指示を発生させるようにしてもよい。
In the second embodiment, the focus adjustment instruction is output to the
また、この第2の実施形態では、レンズ501からの光をデジタルデータに変換するための画像素子としてCCD510を用いる例を挙げて説明したが、たとえば、CMOSセンサーなどの画像素子を用いてもよい。
In the second embodiment, the example in which the
また、この第2の実施形態では、AF領域決定部506は左右の瞳が含まれる矩形領域をAF領域に決定するようにしたが、これに限るものではなく、片方の瞳だけが含まれる領域をAF領域としてもよいし、AF領域の形状は矩形でなくてもかまわない。
In the second embodiment, the AF
また、画像の中に二人以上の人物の瞳が検出された場合には、特徴点検出部537は、推定される人物の顔の大きさを比較して、比較した結果、推定される顔の大きさが大きい方がデジタルカメラからの距離が近いと判断して、推定される顔の大きさが大きいほうの瞳の位置情報をAF領域決定部506に出力するようにしてもよいし、検出された瞳の位置を表示部504に重畳して表示して操作者に選択させるようにしてもよい。
Further, when two or more human eyes are detected in the image, the feature
一般的には、デジタルカメラにはデジタルカメラを制御するCPUが搭載されていることが多い。この第2の実施形態の分離度マップ生成部517、特徴点候補検出部527、特徴点検出部537およびAF領域決定部506によって実現される前述した各機能をソフトウエアによって実現して、デジタルカメラ内のCPUに実行させるようにしてもよい。
In general, a digital camera often has a CPU for controlling the digital camera. The above-described functions realized by the separability map generation unit 517, the feature point
以上のように、本発明にかかる画像処理装置、画像処理方法およびデジタルカメラは、フラッシュを内蔵したデジタルカメラの画像処理に有用であり、特に、フラッシュを用いて撮影した際に発生する赤目現象を補正する赤目補正処理に適している。 As described above, the image processing apparatus, the image processing method, and the digital camera according to the present invention are useful for image processing of a digital camera with a built-in flash, and in particular, a red-eye phenomenon that occurs when shooting using a flash. Suitable for red-eye correction processing.
101,508 画像入力部
102,517 分離度マップ生成部
103,527 特徴点候補検出部
104,537 特徴点検出部
105 画像補正部
106 画像出力部
501 レンズ
502 モータ
503 焦点制御部
504 表示部
505 記憶部
506 AF領域決定部
507 瞳位置決定部
509 シャッター
510 CCD
101,508 Image input unit 102,517 Separation map generation unit 103,527 Feature point candidate detection unit 104,537 Feature
Claims (10)
前記入力画像の画素ごとに、所定の形状の内部領域と外部領域とを有する分離度フィルタによって、前記入力画像のうち、前記内部領域に含まれる領域と、前記外部領域に含まれる領域とのRGB色空間のG値の輝度の分離の度合いを示す分離度を算出して、この算出した各分離度と前記各画素とを対応付けた分離度マップを作成する分離度マップ作成手段と、
この分離度マップ作成手段によって作成された分離度マップの各分離度と所定の閾値とを比較して、
前記分離度が前記閾値よりも大きい画素を検出して、
この検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出する特徴点候補検出手段と、
この特徴点候補検出手段によって検出された前記赤目の候補が所定の条件を満たしているか否かを判定して、
前記所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出する特徴点検出手段と、
を備えることを特徴とする画像処理装置。
In an image processing apparatus that detects a red-eye area from an input image and corrects the detected red-eye area,
For each pixel of the input image, RGB of the region included in the internal region and the region included in the external region of the input image is determined by a separability filter having an internal region and an external region having a predetermined shape. A degree-of- separation map creating means for calculating a degree of separation indicating the degree of separation of the luminance of the G value in the color space, and creating a degree-of-separation map in which each calculated degree of separation is associated with each pixel;
Compare each separation degree of the separation degree map created by this separation degree map creating means with a predetermined threshold value,
Detecting pixels with a degree of separation greater than the threshold;
A feature point candidate detecting means for detecting, as a red-eye candidate, a pixel whose separation degree of the detected pixel indicates a local maximum value;
It is determined whether or not the red eye candidate detected by the feature point candidate detecting means satisfies a predetermined condition,
Feature point detecting means for detecting a predetermined region including a candidate for red eye that satisfies the predetermined condition as a red eye region;
An image processing apparatus comprising:
をさらに備えたことを特徴とする請求項1に記載の画像処理装置。
Image correction means for performing red-eye correction processing on the area detected as the red-eye area by the feature point detection means;
The image processing apparatus according to claim 1, further comprising:
前記特徴点検出手段が前記赤目領域を検出する所定の条件を、
前記赤目の候補のG値の輝度が所定の閾値より小さいこととすることを特徴とする請求項1に記載の画像処理装置。
The separability filter has a circular outer region and an inner region,
A predetermined condition for the feature point detection means to detect the red-eye region,
The image processing apparatus according to claim 1 , wherein the red-eye candidate G value has a luminance smaller than a predetermined threshold.
前記特徴点検出手段が前記赤目領域を検出する所定の条件を、
前記赤目の候補を中心として前記分離度フィルタの内部領域に含まれる各画素のG値の輝度の平均値が所定の閾値より小さいこととすることを特徴とする請求項1に記載の画像処理装置。
The separability filter has a circular outer region and an inner region,
A predetermined condition for the feature point detection means to detect the red-eye region,
The image processing apparatus according to claim 1 , wherein an average value of luminances of G values of pixels included in an inner region of the separability filter centering on the red eye candidate is smaller than a predetermined threshold value. .
The separability filter has a circular outer region and an inner region, and the feature point detection unit detects a predetermined condition for detecting the red eye region, and the redness indicated by the hue value of the red eye candidate is greater than a predetermined threshold value. The image processing apparatus according to claim 1 , wherein the image processing apparatus is large.
The separability filter has a circular outer region and an inner region, and a predetermined condition for the feature point detection means to detect the red eye region is set to the inner region of the separability filter centering on the red eye candidate. The image processing apparatus according to claim 1 , wherein an average value of redness indicated by a hue value of each pixel included is greater than a predetermined threshold value.
前記特徴点検出手段が前記赤目領域を検出する所定の条件を、
前記特徴点候補検出手段によって検出された赤目の候補の中から、右目と左目とを示す組となる配置の赤目の候補を検出こととすることを特徴とする請求項1に記載の画像処理装置。
The separability filter has a circular outer region and an inner region,
A predetermined condition for the feature point detection means to detect the red-eye region,
The image processing apparatus according to claim 1 , wherein a candidate for red eye arranged in a pair indicating a right eye and a left eye is detected from the red eye candidates detected by the feature point candidate detection unit. .
さらに有することを特徴とする請求項1〜7の何れか記載の画像処理装置。The image processing apparatus according to claim 1, further comprising:
前記入力画像の画素ごとに、所定の形状の内部領域と外部領域とを有する分離度フィルタによって、前記入力画像のうち、前記内部領域に含まれる領域と、前記外部領域に含まれる領域とのRGB色空間のG値の輝度の分離の度合いを示す分離度を算出して、この算出した各分離度と前記各画素とを対応付けた分離度マップを作成する分離度マップ作成ステップと、
この分離度マップ作成ステップによって作成された分離度マップの各分離度と所定の閾値とを比較して、前記分離度が前記閾値よりも大きい画素を検出して、この検出した画素の分離度が局所最大値を示す画素を赤目の候補として検出する特徴点候補検出ステップと、
この特徴点候補検出ステップによって検出された前記赤目の候補が所定の条件を満たしているか否かを判定して、前記所定の条件を満たしている赤目の候補を含む所定の領域を赤目領域として検出する特徴点検出ステップと、
を備えることを特徴とする画像処理方法。
In an image processing method for detecting a red-eye area from an input image and correcting the detected red-eye area,
For each pixel of the input image, RGB of the region included in the internal region and the region included in the external region of the input image is determined by a separability filter having an internal region and an external region having a predetermined shape. A separation degree map creating step for calculating a separation degree indicating a degree of separation of the luminance of the G value in the color space, and creating a separation degree map in which the calculated separation degrees and the respective pixels are associated;
Each separation degree of the separation degree map created by the separation degree map creation step is compared with a predetermined threshold value, and a pixel having the separation degree larger than the threshold value is detected, and the separation degree of the detected pixel is A feature point candidate detection step of detecting a pixel indicating a local maximum value as a candidate for red eye;
It is determined whether or not the red eye candidate detected by the feature point candidate detection step satisfies a predetermined condition, and a predetermined area including the red eye candidate satisfying the predetermined condition is detected as a red eye area. A feature point detecting step,
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004001007A JP4148903B2 (en) | 2004-01-06 | 2004-01-06 | Image processing apparatus, image processing method, and digital camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004001007A JP4148903B2 (en) | 2004-01-06 | 2004-01-06 | Image processing apparatus, image processing method, and digital camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005196385A JP2005196385A (en) | 2005-07-21 |
JP4148903B2 true JP4148903B2 (en) | 2008-09-10 |
Family
ID=34816651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004001007A Expired - Fee Related JP4148903B2 (en) | 2004-01-06 | 2004-01-06 | Image processing apparatus, image processing method, and digital camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4148903B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7599577B2 (en) * | 2005-11-18 | 2009-10-06 | Fotonation Vision Limited | Method and apparatus of correcting hybrid flash artifacts in digital images |
IL183385A0 (en) | 2007-05-24 | 2007-09-20 | Yosef Cohen | Security systems and methods |
JP2010020594A (en) * | 2008-07-11 | 2010-01-28 | Kddi Corp | Pupil image recognition device |
JP5026398B2 (en) * | 2008-11-27 | 2012-09-12 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
US8295593B2 (en) | 2009-01-07 | 2012-10-23 | Seiko Epson Corporation | Method of detecting red-eye objects in digital images using color, structural, and geometric characteristics |
JP4580029B2 (en) * | 2009-10-02 | 2010-11-10 | キヤノン株式会社 | Image processing apparatus and method |
JP4850961B2 (en) * | 2010-07-09 | 2012-01-11 | キヤノン株式会社 | Image processing apparatus and method |
JP5884759B2 (en) * | 2013-03-22 | 2016-03-15 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
WO2016158719A1 (en) * | 2015-03-31 | 2016-10-06 | 株式会社Screenホールディングス | Image processing method, control program, and image processing device |
JP6508259B2 (en) * | 2017-06-08 | 2019-05-08 | 株式会社ニコン | Imaging device and program |
US20190370942A1 (en) * | 2018-06-01 | 2019-12-05 | Apple Inc. | Red-eye correction techniques |
WO2020129620A1 (en) * | 2018-12-21 | 2020-06-25 | ソニー株式会社 | Imaging control device, imaging device, and imaging control method |
-
2004
- 2004-01-06 JP JP2004001007A patent/JP4148903B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005196385A (en) | 2005-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4709147B2 (en) | System and method for removing red eye phenomenon from digital images | |
JP5140163B2 (en) | Method and apparatus for gaze measurement | |
JP4078334B2 (en) | Image processing apparatus and image processing method | |
US9767539B2 (en) | Image capture device with contemporaneous image correction mechanism | |
US8055067B2 (en) | Color segmentation | |
JP4196714B2 (en) | Digital camera | |
US8682097B2 (en) | Digital image enhancement with reference images | |
US8446494B2 (en) | Automatic redeye detection based on redeye and facial metric values | |
JP2007097178A (en) | Method for removing "red-eyes" by face detection | |
JPH09322192A (en) | Detection and correction device for pink-eye effect | |
JP2003036438A (en) | Program for specifying red-eye in image, recording medium, image processor and method for specifying red- eye | |
KR20100030596A (en) | Image capturing apparatus, method of determining presence or absence of image area, and recording medium | |
JP2005092759A (en) | Image processing device and method, red-eye detection method, and program | |
JP2008226194A (en) | Pupil color correction device and program | |
JP4148903B2 (en) | Image processing apparatus, image processing method, and digital camera | |
JP4537143B2 (en) | Image processing apparatus and method, imaging apparatus, and program | |
JP2005149370A (en) | Imaging device, personal authentication device and imaging method | |
JP2009123081A (en) | Face detection method and photographing apparatus | |
JP2007312206A (en) | Imaging apparatus and image reproducing apparatus | |
JP6098133B2 (en) | Face component extraction device, face component extraction method and program | |
JP2006074498A (en) | Image processor and imaging apparatus | |
JP2007094535A (en) | Authentication system and authentication method | |
JP5995610B2 (en) | Subject recognition device and control method therefor, imaging device, display device, and program | |
JP2005202841A (en) | Image processing method and apparatus | |
JP2007249525A (en) | Imaging device, and face area extraction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080415 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20080528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080620 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080624 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |