JP2009004887A - Image correction method and image correction device - Google Patents
Image correction method and image correction device Download PDFInfo
- Publication number
- JP2009004887A JP2009004887A JP2007161560A JP2007161560A JP2009004887A JP 2009004887 A JP2009004887 A JP 2009004887A JP 2007161560 A JP2007161560 A JP 2007161560A JP 2007161560 A JP2007161560 A JP 2007161560A JP 2009004887 A JP2009004887 A JP 2009004887A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction curve
- correction
- input
- image correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003702 image correction Methods 0.000 title claims abstract description 186
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012937 correction Methods 0.000 claims abstract description 94
- 238000012545 processing Methods 0.000 claims abstract description 50
- 238000013528 artificial neural network Methods 0.000 claims description 54
- 230000004927 fusion Effects 0.000 claims description 42
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000007639 printing Methods 0.000 description 25
- 238000004422 calculation algorithm Methods 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000010276 construction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000007723 transport mechanism Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007641 inkjet printing Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Color, Gradation (AREA)
Abstract
Description
本発明は、入力画像を適正画像に補正曲線を用いて補正する画像補正技術に関する。 The present invention relates to an image correction technique for correcting an input image into a proper image using a correction curve.
入力画像を適正画像に補正する代表的な分野である写真プリント出力の分野では、写真フィルムに形成された撮影画像をフィルムスキャナを用いてデジタル化して得られた撮影画像(データ)や、デジタルカメラなどのデジタル撮影機器によって直接撮影画像をデジタル化して得られた撮影画像(データ)に濃度補正や色補正などの画像補正を施した後これをプリントデータに変換し、このプリントデータに基づいて写真プリントユニットを駆動して、撮影画像を感光材料(印画紙)に光ビームで焼き付けたり、プリント用紙にカラーインクで形成したりするデジタル写真処理技術が主流である。種々の写真撮影状況下において適正な撮影画像を得るためには、シャッタースピードや絞りの設定、天候、光源の種類などの撮影条件を適切に設定する必要があるが、撮影者はこれらの撮影条件をあまり意識せずに撮影しているのが実情であり、このため、被写体の色調や明暗(コントラスト)の再現性が適正に得られていない不適正な撮影画像が写真プリント装置に入力されることが少なくない。取得した入力撮影画像を適正な出力撮影画像、例えば写真プリントとして再現するために用いられる画像補正の主なものは、色補正、濃度補正、コントラスト補正であり、これらの補正を正しく調整して組み合わせた画像補正が必要となる。 In the field of photographic print output, which is a typical field for correcting input images to appropriate images, photographic images (data) obtained by digitizing photographic images formed on photographic film using a film scanner, and digital cameras After image correction such as density correction and color correction is performed on the shot image (data) obtained by digitizing the shot image directly with a digital shooting device such as this, it is converted to print data, and a photo is taken based on this print data The mainstream is a digital photo processing technique in which a print unit is driven and a photographed image is printed on a photosensitive material (printing paper) with a light beam or formed on a printing paper with color ink. In order to obtain an appropriate shot image under various photography conditions, it is necessary to appropriately set shooting conditions such as shutter speed, aperture setting, weather, and light source type. The actual situation is that the photographer is not consciously aware of this, and an inappropriate photographed image in which the color tone or contrast of the subject is not properly obtained is input to the photographic printing apparatus. There are many things. The main image corrections used to reproduce the acquired input captured image as an appropriate output captured image, such as a photographic print, are color correction, density correction, and contrast correction. These corrections are adjusted and combined correctly. Image correction is required.
写真撮影によって取得された撮影画像から、色調およびコントラストの補正を必要とする画像部分を選別し、その選別された画像部分に対し、色調およびコントラストの再現性の精度をできるだけ高めることのできる画像補正の1つとして、各色毎の階調ヒストグラムの最高度数に対して、所定割合を下回る度数の画像データを各色毎に除外して残った画像データの階調幅を基準階調幅に引き延ばし又は圧縮し、階調幅の引き延ばし又は圧縮に合わせて画像データの画素値を補正変換することで、カラーバランスおよびコントラストのいずれかまたは両方をある程度補正するものがある(例えば、特許文献1参照)。 Image correction that can select the part of the image that requires color tone and contrast correction from the photographed image acquired by photography, and improve the accuracy of color tone and contrast reproducibility for the selected image part as much as possible As one of the above, the image data whose frequency is less than a predetermined ratio with respect to the maximum frequency of the gradation histogram for each color is excluded for each color, and the gradation width of the remaining image data is extended or compressed to the reference gradation width, There is a technique in which either or both of color balance and contrast are corrected to some extent by correcting and converting pixel values of image data in accordance with the extension or compression of the gradation width (see, for example, Patent Document 1).
また、色補正、濃度補正、コントラスト補正を効率よく実施する画像補正として、撮影画像の低解像度データと所定の濃度・コントラスト補正アルゴリズムに基づいて、まず濃度・コントラスト変換曲線(変換テーブル)が作成され、次いでこの濃度・コントラスト変換曲線を用いて補正された撮影画像の低解像度データと所定のカラー補正アルゴリズムに基づいてカラー補正変換曲線(変換テーブル)が作成され、これらの濃度・コントラスト変換曲線とカラー補正変換曲線を融合させて作成された統合補正変換曲線を用いて写真プリント出力の目的ために撮影画像の高解像度画像データを補正するものも知られている(例えば、特許文献2参照)。 Also, as image correction that efficiently performs color correction, density correction, and contrast correction, a density / contrast conversion curve (conversion table) is first created based on the low-resolution data of the captured image and a predetermined density / contrast correction algorithm. Then, a color correction conversion curve (conversion table) is created based on the low-resolution data of the captured image corrected using the density / contrast conversion curve and a predetermined color correction algorithm. There is also known one that corrects high-resolution image data of a captured image for the purpose of photographic print output using an integrated correction conversion curve created by fusing correction conversion curves (see, for example, Patent Document 2).
また、選択された代表色のRGB信号を入力データとして使用するととともに、出力装置(プリンタ)にて出力された上記の代表色の複製画像を再び入力装置(スキャナ)にて読み取ったRGB信号を教師データとして使用することによってニューラルネットワークを構築し、入力画像の各画素値を入力層に入力することにより、中間層を介して、出力層からプリンタのインク量を出力させ、これにより良好な複製画像を得ようとする画像処理装置も知られている(例えば、特許文献3参照)。 Further, the selected representative color RGB signal is used as input data, and the RGB signal obtained by reading the representative color duplicate image output by the output device (printer) again by the input device (scanner) is used as a teacher. A neural network is constructed by using it as data, and each pixel value of the input image is input to the input layer, so that the ink amount of the printer is output from the output layer through the intermediate layer. There is also known an image processing apparatus that attempts to obtain (see, for example, Patent Document 3).
画像補正にニューラルネットワークを用いた技術としては、さらに画像信号を入力データとし画像補正量を教師値として予め学習させたニューラルネットワークを備え、このニューラルネットワークに画像信号を入力することで得られる画像補正量を用いて画像信号を補正して安定した出力画像を得る画像形成装置も知られている(例えば、特許文献4参照)。 As a technique using a neural network for image correction, an image correction obtained by inputting an image signal into this neural network is further provided with a neural network that has previously learned an image signal as input data and an image correction amount as a teacher value. An image forming apparatus that obtains a stable output image by correcting an image signal using the amount is also known (see, for example, Patent Document 4).
入力画像に応じて適切な画像補正曲線を生成するアルゴリズムを構築する場合、まず多数のサンプル画像を用意しておく。そして、各サンプル画像をサンプル適正画像とする画像補正を熟練者によってマニュアルで行い、この各サンプル画像から算出された画像特徴量群と、このマニュアル画像補正を通じて作り出される元画像の画素値と適正画像の画素値との対応関係(画像補正曲線)を統計的にあるいは演繹的に評価していくことで、画像補正曲線を生成するアルゴリズムを構築する。このようなアルゴリズムの構築方法は、上記特許文献だけでなく、数多くの文献によって知られている。また、ニューラルネットワークの技術を画像補正に適用する場合、各サンプル画像から算出された画像特徴量群を入力データとするとともに、このマニュアル画像補正を通じて作り出される元画像の画素値と適正画像の画素値との対応関係を教師データとしてニューラルネットワークを学習させる。このような学習を通じて構築されたニューラルネットワークの入力層に補正対象となる入力画像から算出された画像特徴量を与えることで、この入力画像に適合した画像補正曲線が出力、より正確にはこの画像補正曲線を規定する出力値が出力される。いずれにしても、生成された画像補正曲線(画像補正量マトリックスや変換テーブルや変換式とも呼び代えることができる)を用いて元画像としての入力画像を画像補正することにより、適正な写真プリントを出力するために適した補正画像が得られる。様々な画像特性を有する入力画像を適切に補正することができるように、ニューラルネットワークの学習時に用いられるサンプル画像も様々な画像特性を有するものが選択されるが、撮影画像などでは低周波領域と高周波数領域の両方の空間周波数成分を有するものが多く、従来の画像補正曲線の生成に利用している画像特徴量群を入力値としているニューラルネットワークではそのような入力画像に対して十分に満足できる画像補正曲線を生成することができないという問題点が明らかになってきた。 When constructing an algorithm for generating an appropriate image correction curve according to an input image, first, a large number of sample images are prepared. Then, an image correction in which each sample image is manually set as a sample appropriate image is manually performed by an expert, the image feature amount group calculated from each sample image, the pixel value of the original image generated through the manual image correction, and the appropriate image An algorithm for generating an image correction curve is constructed by statistically or deductively evaluating the correspondence (image correction curve) with the pixel value of. Such an algorithm construction method is known not only from the above-mentioned patent document but also from many documents. Also, when applying neural network technology to image correction, the image feature quantity group calculated from each sample image is used as input data, and the pixel value of the original image and the pixel value of the appropriate image created through this manual image correction The neural network is learned using the correspondence relationship with the teacher data. By giving the image feature amount calculated from the input image to be corrected to the input layer of the neural network constructed through such learning, an image correction curve suitable for this input image is output, more precisely this image. An output value that defines the correction curve is output. In any case, by using the generated image correction curve (which can also be called an image correction amount matrix, a conversion table, or a conversion formula) to correct the input image as the original image, an appropriate photographic print can be obtained. A corrected image suitable for output can be obtained. Sample images used during neural network learning are selected to have various image characteristics so that input images having various image characteristics can be appropriately corrected. Many of them have both spatial frequency components in the high frequency range, and a neural network that uses the image feature group used to generate a conventional image correction curve as an input value is sufficiently satisfactory for such an input image. The problem that an image correction curve that can be generated cannot be generated has been revealed.
上記実状に鑑み、本発明の課題は、補正すべき入力画像に対して、その空間周波数が高い領域の画像特徴とその空間周波数が低い領域の画像特徴の両方を考慮した画像補正曲線を生成して、適正な画像補正を実現する画像補正技術を提供することである。 In view of the above situation, an object of the present invention is to generate an image correction curve that takes into consideration both an image feature of a region having a high spatial frequency and an image feature of a region having a low spatial frequency for an input image to be corrected. Thus, an image correction technique for realizing proper image correction is provided.
入力画像を適正画像に補正曲線を用いて補正する画像補正方法において、上記課題を解決するため、本発明による方法は、前記入力画像に対応する補正演算用画像に対して第1サイズのサブマトリックスを用いて第1モザイク処理画像を生成するステップと、前記第1モザイク処理画像から第1画像特徴量群を求めるステップと、前記第1画像特徴量群に基づいて粗画像補正曲線を生成するステップと、前記入力画像に対応する補正演算用画像に対して前記第1サイズより小さい第2サイズのサブマトリックスを用いて第2モザイク処理画像を生成するステップと、前記第2モザイク処理画像から第2画像特徴量群を求めるステップと、前記第2画像特徴量群に基づいて密画像補正曲線を生成するステップと、前記粗画像補正曲線と前記密画像補正曲線とを融合させて融合補正曲線を生成するステップと、前記融合補正曲線で前記入力画像を画像補正するステップとからなる。 In an image correction method for correcting an input image to a proper image using a correction curve, in order to solve the above-described problem, the method according to the present invention includes a first-size submatrix for a correction calculation image corresponding to the input image. Generating a first mosaic processed image using the steps, obtaining a first image feature quantity group from the first mosaic processed image, and generating a coarse image correction curve based on the first image feature quantity group Generating a second mosaic-processed image using a sub-matrix of a second size smaller than the first size for the correction calculation image corresponding to the input image; and a second from the second mosaic-processed image Obtaining an image feature amount group; generating a dense image correction curve based on the second image feature amount group; and the coarse image correction curve and the dense image. A step of fusing a correction curve to generate a fusion correction curve, and a step of image correction the input image in said fusion correction curve.
上記方法では、まず補正すべき入力画像からサイズの異なる2つのサブマトリックスを用いて2つの空間周波数成分が異なるモザイク処理画像を生成する。つまり、より大きな第1サイズのサブマトリックスを用いた第1モザイク処理画像は、より小さな第2サイズのサブマトリックスを用いた第2モザイク処理画像に較べて、その空間周波数成分は低くなるので、相対的に第1モザイク処理画像は粗画像となり、第2モザイク処理画像は密画像となる。その後、第1モザイク処理画像から前もって規定した演算を用いて画像特徴量群を求め、この画像特徴量群に基づいて粗画像補正曲線を生成すると、この粗画像補正曲線は入力画像の大局的な傾向に基づく補正曲線となる。さらに、第2モザイク処理画像からも同様に画像特徴量群を求め、この画像特徴量群に基づいて密画像補正曲線を生成すると、この密画像補正曲線は入力画像の詳細な傾向に基づく補正曲線となる。従って、この粗画像補正曲線と密画像補正曲線とを融合させて生成された融合補正曲線は、入力画像の大局的な傾向と詳細な傾向との両者にほどよく適合した補正曲線となり、この融合補正曲線を用いて画像補正を行うことで、全体的な観点からみた補正評価と詳細な観点からみた補正評価の両者を満足させる補正画像が得られる。 In the above method, first, a mosaic processed image having two different spatial frequency components is generated from two input sub-matrices having different sizes from an input image to be corrected. That is, the first mosaic processed image using the larger first size sub-matrix has a lower spatial frequency component than the second mosaic processed image using the smaller second size sub-matrix. Therefore, the first mosaic processed image is a coarse image, and the second mosaic processed image is a dense image. After that, when an image feature amount group is obtained from the first mosaic processed image using a pre-defined calculation and a rough image correction curve is generated based on the image feature amount group, the coarse image correction curve becomes a global image of the input image. It becomes a correction curve based on the trend. Furthermore, when an image feature amount group is similarly obtained from the second mosaic processed image and a dense image correction curve is generated based on the image feature amount group, the dense image correction curve is a correction curve based on the detailed tendency of the input image. It becomes. Therefore, the fusion correction curve generated by fusing the coarse image correction curve and the dense image correction curve becomes a correction curve that fits both the global trend and the detailed trend of the input image, and this fusion curve. By performing image correction using the correction curve, a corrected image that satisfies both the correction evaluation from the overall viewpoint and the correction evaluation from the detailed viewpoint can be obtained.
なお、ここでは、2つの異なるサイズのサブマトリックスを用いて生成される2つのモザイク処理画像に基づいて補正曲線を生成していたが、さらに異なるサイズのサブマトリックスを用いて生成されるモザイク処理画像を追加してもよい。つまり本発明では、2つ以上の異なるサブマトリックスを用いて生成される2つ以上のモザイク処理画像に基づいて生成された2つ以上の補正曲線を融合して最終的に用いられる補正曲線を生成することを主題としている。 Here, the correction curve is generated based on two mosaic processed images generated using two different size sub-matrices, but the mosaic processed image generated using different sub-matrices is also used. May be added. In other words, in the present invention, two or more correction curves generated based on two or more mosaic processing images generated using two or more different sub-matrices are fused to generate a correction curve to be finally used. The theme is to do.
さらに、この明細書で用いられている補正曲線なる用語は、画像処理の分野でよく用いられる補正式、補正マトリックスといった、元画像の画素値を適正画像の画素値に変換する機能を総称するものであり、さらにそのような変換機能を作り出すためのデータ群もその用語の範囲に属している。つまり、ここでの補正曲線は元画像の画素値と適正画像の画素値との対応関係を規定するものであり、この補正曲線の具体的な実施形態としてはLUT(ルックアップテーブル)と呼ばれるハードウエア又はソフトウエアあるいはその両方で構築されるモジュールが一般的である。また、明細書では、特別に区別する必要がある場合を除いて、デジタルデータとしての画像データやこの画像データに基づくプリント画像やモニタ表示画像も単に画像という語句で総称している。 Furthermore, the term “correction curve” used in this specification is a general term for a function for converting pixel values of an original image into pixel values of an appropriate image, such as a correction formula and a correction matrix often used in the field of image processing. Furthermore, a data group for creating such a conversion function also belongs to the term. In other words, the correction curve here defines the correspondence between the pixel value of the original image and the pixel value of the appropriate image, and a specific embodiment of the correction curve is a hardware called LUT (Look Up Table). Modules built with hardware and / or software are common. Further, in the specification, image data as digital data, a print image based on this image data, and a monitor display image are also collectively referred to simply as “image” unless otherwise specifically required.
画像特徴量群から画像補正曲線を生成するための好適な方法として、処理の高速性と高精度性の観点から、ニューラルネットワークが推薦される。このため、本発明による好適な実施形態の1つでは、前記粗画像補正曲線を生成するステップにおいて、用意された多数のサンプル画像に対して前記第1サイズのサブマトリックスを用いて生成された第1モザイク処理画像から得られる第1画像特徴量群を入力値とするとともに前記サンプル画像から適正画像を作り出す画像補正曲線を教師値として学習させた粗画像ニューラルネットワークが用いられ、かつ前記密画像補正曲線を生成するステップにおいて、前記サンプル画像に対して前記第2サイズのサブマトリックスを用いて生成された第2モザイク処理画像から得られる第2画像特徴量群を入力値とするとともに前記サンプル画像から適正画像を作り出す画像補正曲線を教師値として学習させた密画像ニューラルネットワークが用いられる。 As a suitable method for generating an image correction curve from a group of image features, a neural network is recommended from the viewpoint of high speed processing and high accuracy. For this reason, in one preferred embodiment according to the present invention, in the step of generating the coarse image correction curve, a plurality of sample images prepared are generated using the first-size sub-matrix. A coarse image neural network is used in which a first image feature group obtained from one mosaic processed image is used as an input value and an image correction curve for creating an appropriate image from the sample image is learned as a teacher value, and the dense image correction is performed. In the step of generating a curve, the second image feature quantity group obtained from the second mosaic processing image generated using the second-size sub-matrix with respect to the sample image is used as an input value and from the sample image Using a dense image neural network that has learned an image correction curve to create an appropriate image as a teacher value It is.
前記粗画像補正曲線と前記密画像補正曲線の融合に関して、最終的な画像プリント出力に要求される品質仕様によって、粗画像補正曲線寄りが好まれる場合や密画像補正曲線寄りが好まれる場合に分かれる。従って、本発明の好適な実施形態の1つでは、前記融合補正曲線を作成するための前記粗画像補正曲線と前記密画像補正曲線との融合率は調整可能に構成されている。その際、空間周波数分析を通じて入力画像の空間周波数成分を演算しておき、この空間周波数成分と平均的な画像の空間周波数成分との比較から、例えば、高周波寄りの画像では密画像補正曲線寄りの融合となるように、また、低周波寄りの画像では粗画像補正曲線寄りの融合となるようにその融合率を調整すると好都合である。 Regarding the fusion of the rough image correction curve and the dense image correction curve, depending on the quality specifications required for the final image print output, there are cases where a rough image correction curve is preferred or a dense image correction curve is preferred. . Accordingly, in one preferred embodiment of the present invention, the fusion rate of the coarse image correction curve and the dense image correction curve for creating the fusion correction curve is configured to be adjustable. At that time, the spatial frequency component of the input image is calculated through spatial frequency analysis, and the spatial frequency component is compared with the spatial frequency component of the average image. It is convenient to adjust the fusion rate so that the image is fused, and the image close to the low frequency is fused near the coarse image correction curve.
入力画像が写真プリント出力のための撮影画像のような場合、全体的なバランス、及び中央に位置する被写体とその周辺の背景とのバランスが重要となる。このことを考慮すると、画像特徴量群に、それぞれ、入力画像の分割領域に依存する領域依存画像特徴量と分割領域に依存しない領域非依存画像特徴量の両方を含むようにすると好都合である。 When the input image is a photographed image for photographic print output, the overall balance and the balance between the subject located at the center and the surrounding background are important. In consideration of this, it is advantageous that the image feature quantity group includes both the area-dependent image feature quantity that depends on the divided area of the input image and the area-independent image feature quantity that does not depend on the divided area.
入力画像を適正画像に補正曲線を用いて補正する画像補正装置において、上記課題を解決するため、本発明による装置は、前記入力画像に対応する補正演算用画像に対して第1サイズのサブマトリックスを用いて第1モザイク処理画像を生成するとともに、前記第1サイズより小さい第2サイズのサブマトリックスを用いて第2モザイク処理画像を生成するモザイク処理部と、前記第1モザイク処理画像から第1画像特徴量群を求めるとともに、前記第2モザイク処理画像から第2画像特徴量群を求める画像特徴量演算部と、前記第1画像特徴量群に基づいて粗画像補正曲線を生成する粗画像補正曲線生成部と、前記第2画像特徴量群に基づいて密画像補正曲線を生成する密画像補正曲線生成部と、前記粗画像補正曲線と前記密画像補正曲線とを融合させて融合補正曲線を生成する融合部と、前記融合補正曲線で前記入力画像を画像補正する画像補正部とからなる。当然ながら、この画像補正装置も上記画像補正方法で述べたすべての作用効果を得ることができ、さらに上述した付加的技術を組み込むことも可能である。また、ここでも、2つ以上の異なるサブマトリックスを用いて生成される2つ以上のモザイク処理画像に基づいて生成された2つ以上の補正曲線を融合して最終的に用いられる補正曲線を生成することが含まれていることは当然である。 In an image correction apparatus that corrects an input image to a proper image by using a correction curve, in order to solve the above-described problem, the apparatus according to the present invention includes a first-size sub-matrix for a correction calculation image corresponding to the input image. And a mosaic processing unit for generating a second mosaic processed image using a sub-matrix of a second size smaller than the first size, and a first mosaic processed image from the first mosaic processed image. An image feature amount calculation unit that obtains an image feature amount group and obtains a second image feature amount group from the second mosaic processed image, and a coarse image correction that generates a coarse image correction curve based on the first image feature amount group A curve generation unit; a dense image correction curve generation unit that generates a dense image correction curve based on the second image feature amount group; the coarse image correction curve and the dense image correction curve; A fusion unit configured to generate a fusion correction curve by fusing consists image correction unit and an image correcting said input image in said fusion correction curve. Naturally, this image correction apparatus can also obtain all the effects described in the above image correction method, and can further incorporate the above-described additional techniques. Also here, a final correction curve is generated by fusing two or more correction curves generated based on two or more mosaic images generated using two or more different sub-matrices. Of course, doing is included.
特に、画像特徴量群から画像補正曲線を生成するためにニューラルネットワーク技術が採用される場合には、前記粗画像補正曲線生成部は、用意された多数のサンプル画像に対して前記第1サイズのサブマトリックスを用いて生成された第1モザイク処理画像から得られる第1画像特徴量群を入力値とするとともに前記サンプル画像から適正画像を作り出す画像補正曲線を教師値として学習させた粗画像ニューラルネットワーク部となり、かつ前記密画像補正曲線生成部は、前記サンプル画像に対して前記第2サイズのサブマトリックスを用いて生成された第2モザイク処理画像から得られる第2画像特徴量群を入力値とするとともに前記サンプル画像から適正画像を作り出す画像補正曲線を教師値として学習させた密画像ニューラルネットワーク部となる。 In particular, when a neural network technique is employed to generate an image correction curve from a group of image feature quantities, the coarse image correction curve generation unit performs the first size of the prepared sample images. A coarse image neural network in which a first image feature group obtained from a first mosaic processed image generated using a sub-matrix is used as an input value and an image correction curve for creating an appropriate image from the sample image is learned as a teacher value. And the dense image correction curve generation unit uses, as an input value, a second image feature amount group obtained from a second mosaic processed image generated using the second size sub-matrix for the sample image. And a dense image neural network in which an image correction curve for creating an appropriate image from the sample image is learned as a teacher value The over wards.
以下、本発明の実施形態を図面に基づいて説明するが、まず、本発明による補正技術の重要な構成要素となる画像特徴量群に基づいて画像補正曲線を生成する画像補正曲線生成アルゴリズムの構築原理を述べる。なお、画像補正曲線生成アルゴリズムのなかで特に好ましいものとして本発明では、ニューラルネットワークが提案されているが、本発明はニューラルネットワークに限定しているわけではない。その他の統計的な処理に基づくアルゴリズムの適用も可能である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, an image correction curve generation algorithm for generating an image correction curve based on an image feature amount group which is an important component of the correction technique according to the present invention will be described. State the principle. In the present invention, a neural network is proposed as a particularly preferable image correction curve generation algorithm, but the present invention is not limited to the neural network. Other algorithms based on statistical processing can also be applied.
いずれにせよ、まずは、図1に模式的に示されているように、種々の撮影条件で取得された画像をサンプル画像として多数用意し、これらのサンプル撮影画像を元画像とし、この元画像に対して異なるサイズのサブマトリックスを用いて複数のモザイク処理画像を生成する(#01)。図1では、第1サイズのサブマトリックスを用いて第1モザイク処理画像を生成し、第1サイズより小さい第2サイズのサブマトリックスを用いて第2モザイク処理画像を生成しているが、さらに第3・第4のサイズのサブマトリックスを用いて更なるモザイク処理画像を生成してもよい。生成された2つのモザイク処理画像に対して、以下に述べるような処理が同様に行われる。 In any case, first, as schematically shown in FIG. 1, a large number of images acquired under various shooting conditions are prepared as sample images, and these sample shot images are used as original images. On the other hand, a plurality of mosaic processed images are generated using sub-matrices having different sizes (# 01). In FIG. 1, the first mosaic processed image is generated using the first size sub-matrix, and the second mosaic processed image is generated using the second size sub-matrix smaller than the first size. Further mosaic processing images may be generated using the sub-matrix of the third and fourth sizes. The following processing is similarly performed on the two generated mosaic processed images.
第1モザイク処理画像を元画像として、モニタでの表示やテストプリントを通じて適正画像となるようにマニュアルで画像補正を行う(#02)。次に、元画像とマニュアル画像補正によって得られた適正画像との画素値を比較評価して、元画像の画素値と適正画像の画素値との対応関係を規定する画像補正量、結果的にはこの画像補正量によって規定される粗画像補正曲線を生成する(#03)。その際、8ビットカラー画像の場合、元画像の各画素の画素値から適正画像の画素値を導く画像補正量は各色毎に256個の画素値変換係数:β(0)・・・β(255)で表すことができるが、256の全ての画素値に対して画像補正量(画素値変換係数)を求めるのではなく、とびとびの画像補正量を求め、残りは補間で算出してもよい。元画像の画素値と適正画像の画素値との対応関係は画像補正曲線:f(x)として考えると最も理解しやすいので、以下画像補正曲線という語句を用いる。なお、一般的に、そのような補正曲線は、例えば4次式で良好に近似することができるので、その場合は、
f(x)=ax^4+bx^3+cx^2+dx+e(xは入力階調(0〜255)、^は累乗を表す)
となり、元画像の画素値と適正画像の画素値との対応関係(補正曲線)はたかだか5つの係数:a、b、c、d、eで表すことができる。
Using the first mosaic processed image as an original image, image correction is manually performed so that an appropriate image is obtained through display on a monitor or a test print (# 02). Next, by comparing and evaluating the pixel values of the original image and the appropriate image obtained by manual image correction, an image correction amount that defines the correspondence between the pixel value of the original image and the pixel value of the appropriate image, and consequently Generates a rough image correction curve defined by the image correction amount (# 03). At that time, in the case of an 8-bit color image, the image correction amount for deriving the pixel value of the appropriate image from the pixel value of each pixel of the original image is 256 pixel value conversion coefficients for each color: β (0). 255), but instead of obtaining the image correction amount (pixel value conversion coefficient) for all 256 pixel values, the image correction amount may be obtained and the rest may be calculated by interpolation. . Since the correspondence between the pixel value of the original image and the pixel value of the appropriate image is most easily understood when considered as an image correction curve: f (x), the term image correction curve will be used hereinafter. In general, such a correction curve can be satisfactorily approximated by a quartic equation, for example.
f (x) = ax ^ 4 + bx ^ 3 + cx ^ 2 + dx + e (x represents the input gradation (0 to 255), ^ represents power)
Thus, the correspondence (correction curve) between the pixel value of the original image and the pixel value of the appropriate image can be represented by at most five coefficients: a, b, c, d, and e.
次に、元画像となっている第1モザイク処理画像から第1画像特徴量群:α0・・・αnが算出される(#04)。画像特徴量群としては、画像の全域又は部分域における平均濃度値、最大濃度値、最小濃度値といった画像領域に依存する特徴量、及び各色のヒストグラムから得られる階調値部分領域の積算頻度値などの画像領域に依存しない特徴量が採用される。ステップ#03で得られた粗画像補正曲線を規定する係数と、ステップ#04で得られた第1画像特徴量群は、第1画像特徴量群を入力データとするとともに粗画像補正曲線を出力データとする粗画像補正曲線生成アルゴリズム(好ましくはニューラルネットワーク)を構築するための学習データとして利用されるため、ステップ#02からステップ#04の作業は準備された全てのサンプル画像から生成された第1モザイク処理画像に対して実施される。そして、第1モザイク処理画像の画像特徴量群を入力データとするとともに画像補正曲線を規定する係数が出力データとなるように内部変数を調整する反復シミュレーションを数千回以上を行い、粗画像補正曲線生成アルゴリズムを構築する(#05)。なお、画像補正曲線生成アルゴリズムがニューラルネットワークの場合、その学習過程において、画像補正曲線を規定する係数は教師値と呼ばれ、第1モザイク処理画像の画像特徴量群を入力データとするとともに粗画像補正曲線を規定する係数を教師値として数千回以上の反復学習を行い、粗画像ニューラルネットワークの入出力関係を構築する。
Next, a first image feature quantity group: α0... Αn is calculated from the first mosaic processed image that is the original image (# 04). The image feature quantity group includes feature quantities that depend on the image area such as the average density value, maximum density value, and minimum density value in the entire or partial area of the image, and the integrated frequency value of the gradation value partial area obtained from the histogram of each color. A feature quantity that does not depend on the image area is used. The coefficient defining the coarse image correction curve obtained in
さらに、ステップ#01aで生成された第2モザイク処理画像を元画像として、上述したステップ#02からステップ#04の処理と同じ処理を行う(#02a〜#04a)。そして、ステップ#04aで得られた第2画像特徴量群(γ0・・・γn)を入力データとするとともにステップ#03aで得られた密画像補正曲線(δ0・・・δn)を出力データとする学習データを用いて密画像補正曲線生成アルゴリズム、好ましくは密画像ニューラルネットワークが構築される(#05a)。もちろん、さらに異なるサイズのサブマトリックスを用いて生成される更なるモザイク処理画像を元画像として、更なる画像補正曲線生成アルゴリズム、好ましくは画像ニューラルネットワークを構築してもよい。
Further, the second mosaic processing image generated in
このようにして入出力関係が決定された、粗画像補正曲線生成アルゴリズムと密画像補正曲線生成アルゴリズム、ここでの例では、大局的なバランスを重要視した粗画像ニューラルネットワークと詳細な領域でのバランスを重要視した密画像ニューラルネットワークが構築されたとすると、この2つのニューラルネットワークを用いて、補正すべき入力画像を適正画像に補正することができる。この画像補正の原理が図2に模式的に示されている。まず、補正目的で入力された画像から、必要に応じて、所定サイズまでの縮小処理を施して、補正演算用画像を生成する(#10)。そして、この入力画像又は補正演算用画像から第1サイズのサブマトリックスを用いてモザイク処理を行って第1モザイク処理画像を生成する(#11)。第1モザイク処理画像から第1画像特徴量群を算出する(#12)。この第1画像特徴量群を粗画像ニューラルネットワークに入力すること(#13)により、粗画像補正曲線を規定する係数、結果的には粗画像補正曲線が得られる(#14)。 The rough image correction curve generation algorithm and the dense image correction curve generation algorithm, in which the input / output relationship is determined in this way, in this example, the rough image neural network and the detailed area in which the global balance is important If a dense image neural network in which balance is regarded as important is constructed, the input image to be corrected can be corrected to an appropriate image using these two neural networks. The principle of this image correction is schematically shown in FIG. First, a correction calculation image is generated by performing a reduction process to a predetermined size as necessary from an image input for correction purposes (# 10). Then, a mosaic process is performed from the input image or the correction calculation image using the first size sub-matrix to generate a first mosaic processed image (# 11). A first image feature amount group is calculated from the first mosaic processed image (# 12). By inputting the first image feature quantity group to the coarse image neural network (# 13), a coefficient that defines the coarse image correction curve, and as a result, a coarse image correction curve is obtained (# 14).
同様に、前記入力画像又は補正演算用画像から第2サイズのサブマトリックスを用いてモザイク処理を行って第2モザイク処理画像を生成し(#11a)、この第2モザイク処理画像から第2画像特徴量群を算出する(#12a)。この第2画像特徴量群を密画像ニューラルネットワークに入力すること(#13a)により、密画像補正曲線規定する係数、結果的には密画像補正曲線が得られる(#14a)。 Similarly, a mosaic process is performed from the input image or the correction calculation image using a second-size sub-matrix to generate a second mosaic process image (# 11a), and the second image feature is generated from the second mosaic process image. A quantity group is calculated (# 12a). By inputting the second image feature quantity group to the dense image neural network (# 13a), a coefficient defining the dense image correction curve, and consequently, a dense image correction curve is obtained (# 14a).
次に、生成された粗画像補正曲線(粗画像補正曲線規定する係数)と密画像補正曲線(密画像補正曲線規定する係数)とを所定の融合率でもって融合して、融合補正曲線を得る(#15)。この融合率は固定でもよいし、好みによって任意に調整可能であってもよいが、入力画像の空間周波数分析値に基づいて自動調整することも可能である。次いで、作成された融合補正曲線が使用補正曲線として設定されることで(#16)、この融合補正曲線を用いて入力画像が画像補正される(#17)。さらに、この補正画像からプリントデータを生成し、このプリントデータをプリント部に転送することにより、画像プリントが出力される(#18)。 Next, the generated coarse image correction curve (coefficient defining the coarse image correction curve) and the dense image correction curve (coefficient defining the dense image correction curve) are fused at a predetermined fusion rate to obtain a fusion correction curve. (# 15). This fusion rate may be fixed or may be arbitrarily adjusted according to preference, but may be automatically adjusted based on the spatial frequency analysis value of the input image. Next, the created fusion correction curve is set as a use correction curve (# 16), and the input image is corrected using the fusion correction curve (# 17). Further, print data is generated from the corrected image, and the print data is transferred to the print unit, whereby an image print is output (# 18).
次に、上述したニューラルネットワークの具体的な構築手順の一例を図3から図6を用いて説明する。なお、粗画像ニューラルネットワークも密画像ニューラルネットワークもその構築手順は同じである。図3にニューラルネットワークの模式的な構造が示されている。このニューラルネットワークは89個の入力要素を有する入力層と45個の中間要素を有する中間層と60個の出力要素を有する出力層からなる。入力要素には入力画像の画像特徴量群:α0〜α88(第1画像特徴量群)、γ0〜γ88(第2画像特徴量群)が入力され、出力要素には、図4に示されるような、各色の補正曲線を規定するそれぞれ20個の代表点で示す画像補正曲線規定する係数としての出力値、つまりR成分用出力値β(1)〜β(20)(粗画像補正曲線)、δ(1)〜δ(20)(密画像補正曲線);G成分用出力値β(21)〜β(40)(粗画像補正曲線)、δ(21)〜δ(40)(密画像補正曲線);B成分用出力値β(41)〜β(60)、δ(41)〜δ(60)(密画像補正曲線)が出力される。この出力値を用いてスムーズな各色の補正曲線を作り出すアルゴリズムには公知の近似曲線作成アルゴリズムを用いることができる。 Next, an example of a specific procedure for constructing the above-described neural network will be described with reference to FIGS. The rough image neural network and the dense image neural network have the same construction procedure. FIG. 3 shows a schematic structure of the neural network. This neural network consists of an input layer having 89 input elements, an intermediate layer having 45 intermediate elements, and an output layer having 60 output elements. Image feature groups of input images: α0 to α88 (first image feature groups) and γ0 to γ88 (second image feature groups) are input to the input elements, and the output elements are as shown in FIG. The output value as a coefficient for defining the image correction curve indicated by 20 representative points each defining the correction curve for each color, that is, R component output values β (1) to β (20) (coarse image correction curve), δ (1) to δ (20) (dense image correction curve); G component output values β (21) to β (40) (rough image correction curve), δ (21) to δ (40) (dense image correction) Curve); B component output values β (41) to β (60), δ (41) to δ (60) (dense image correction curve) are output. A known approximate curve creation algorithm can be used as an algorithm for generating a smooth correction curve for each color using the output value.
このニューラルネットワークの学習時に採用されている第1画像特徴量群:α0〜α88と第2画像特徴量群:γ0〜γ88の定義内容は同じであり、対象となる画像が異なる(第1モザイク処理画像と第2モザイク処理画像との違い)だけなので、以下第1画像特徴量群についてのみ説明する。
α0:画像全体の平均濃度値
α1:画像中央部(図5の(a)参照)の平均濃度値
α2:画像周辺部(図5の(a)参照)の平均濃度値
α3:画像上側部(図5の(b)参照)の平均濃度値
α4:画像下側部(図5の(b)参照)の平均濃度値
α5:画像左側部(図5の(c)参照)の平均濃度値
α6:画像右側部(図5の(c)参照)の平均濃度値
α7:画像全体の最大濃度値
α8:画像中央部(図5の(a)参照)の最大濃度値
α9:画像周辺部(図5の(a)参照)の最大濃度値
α10:画像上側部(図5の(b)参照)の最大濃度値
α11:画像下側部(図5の(b)参照)の最大濃度値
α12:画像左側部(図5の(c)参照)の最大濃度値
α13:画像右側部(図5の(c)参照)の最大濃度値
α14:画像全体の最小濃度値
α15:画像中央部(図5の(a)参照)の最小濃度値
α16:画像周辺部(図5の(a)参照)の最小濃度値
α17:画像上側部(図5の(b)参照)の最小濃度値
α18:画像下側部(図5の(b)参照)の最小濃度値
α19:画像左側部(図5の(c)参照)の最小濃度値
α20:画像右側部(図5の(c)参照)の最小濃度値
α21:上下に隣接する画素の差分値(図5の(d)参照)の平均値
α22:画像全体の濃度標準偏差
α23:R色成分に関する画像全体の最大値
α24:G色成分に関する画像全体の最大値
α25:B色成分に関する画像全体の最大値
α26:R色成分に関する画像全体の最小値
α27:G色成分に関する画像全体の最小値
α28:B色成分に関する画像全体の最小値
α29〜α48:R色成分に関するヒストグラムの階調値軸を20分割した各領域(図6参照)に含まれる階調値の頻度を積算して得られるR積算頻度値
α49〜α68:G色成分に関するヒストグラムの階調値軸を20分割した各領域(図6参照)に含まれる階調値の頻度を積算して得られるG積算頻度値
α69〜α88:B色成分に関するヒストグラムの階調値軸を20分割した各領域(図6参照)に含まれる階調値の頻度を積算して得られるB積算頻度値
上記α0からα28までの画像特徴量は画像領域に依存する特徴量であり、上記α29からα88までの画像特徴量は画像領域に依存しない特徴量である。また、モザイク処理画像から第1画像特徴量群及び第2画像特徴量群の算出においては、モザイクブロック(サブマトリックスのサイズ)を1つの画素として演算される。なお、濃度値としては、R・G・B色成分の各画素の値を足して3で割った値を採用している。
The definition contents of the first image feature quantity group: α0 to α88 and the second image feature quantity group: γ0 to γ88 adopted at the time of learning of the neural network are the same, and the target images are different (first mosaic processing) Only the first image feature value group will be described below.
α0: Average density value of the entire image α1: Average density value of the central portion of the image (see FIG. 5A) α2: Average density value of the peripheral portion of the image (see FIG. 5A) α3: Upper portion of the image ( Average density value α4 in FIG. 5 (b)): Average density value α5 in the lower side of the image (see FIG. 5 (b)): Average density value α6 in the left side of the image (see FIG. 5 (c)) : Average density value α7 at the right side of the image (see FIG. 5C): Maximum density value α8 of the entire image α8: Maximum density value at the center of the image (see FIG. 5A) α9: Image peripheral part (see FIG. 5) 5) (see (a) of FIG. 5): maximum density value α11 of the upper side of the image (see (b) of FIG. 5): maximum density value α12 of the lower side of the image (see (b) of FIG. 5): Maximum density value α13 at the left side of the image (see FIG. 5C): Maximum density value α14 at the right side of the image (see FIG. 5C): Minimum density value α15 of the entire image: Central portion of the image (see FIG. 5) (See (a)) Density value α16: Minimum density value α17 at the peripheral portion of the image (see FIG. 5A): Minimum density value α18 at the upper side portion of the image (see FIG. 5B): Lower side portion of the image (see FIG. 5B) ))) Minimum density value α19: minimum density value α20 on the left side of the image (see FIG. 5C): minimum density value α21 on the right side of the image (see FIG. 5C): pixels adjacent vertically Mean value α22: density standard deviation α23 of the entire image α23: maximum value of the entire image regarding the R color component α24: maximum value of the entire image regarding the G color component α25: B color component The maximum value of the entire image relating to the R color component α27: The minimum value of the entire image relating to the G color component α28: The minimum value of the entire image relating to the B color component α29 to α48: The histogram level relating to the R color component Obtained by integrating the frequency of gradation values included in each area (see FIG. 6) obtained by dividing the gradation value axis into 20 parts. Integrated frequency values α49 to α68: G integrated frequency values α69 to α88 obtained by integrating the frequencies of the gradation values included in each region (see FIG. 6) obtained by dividing the gradation value axis of the histogram relating to the G color component into 20: B integrated frequency value obtained by integrating the frequency of the gradation value included in each region (see FIG. 6) obtained by dividing the gradation value axis of the histogram related to the B color component into 20 image features from α0 to α28 are images. The feature amount depends on the region, and the image feature amount from α29 to α88 is a feature amount independent of the image region. Further, in the calculation of the first image feature value group and the second image feature value group from the mosaic processed image, the mosaic block (sub-matrix size) is calculated as one pixel. As the density value, a value obtained by adding the values of each pixel of the R, G, and B color components and dividing by 3 is adopted.
以上のような入出力形態をもつニューラルネットワークの構築ルーチンが図7に示されている。
まず、用意しておいたサンプル画像を読み込み(#20)、そのサンプル画像から作り出されたモザイク処理画像を用いて前述した各画像特徴量を算出し(#21)、それらを画像特徴量群としてメモリに格納する(#22)。読み込んだサンプル画像をモニタ表示しながら熟練者によるマニュアルの画像補正を行う(#23)。必要に応じて補正された画像のプリント出力を行い(#24)、補正された画像が適正であるかどうかをチェックする(#25)。補正された画像が適正と判定されるまで、マニュアル補正を繰り返し、適正な補正画像が得られると、その画像補正に基づいて元画像の画素値を適正補正画像の画素値に変換する画像補正曲線(画像補正曲線を規定する係数)を作成してメモリに格納する(#26)。ステップ#20〜ステップ#26までの処理が用意されている全てのサンプル画像のための実行される(#27Yes分岐)。全てのサンプル画像に対する処理が完了すると(#27No分岐)、これまでに得られたモザイク処理画像の画像特徴量群と画像補正曲線がニューラルネットワークに適用される(#28)。ニューラルネットワークは、画像特徴量群を入力データ、画像補正曲線を教師データとして学習し、その入出力関係(結合係数やしきい値)を確定させる(#29)。このようなニューラルネットワーク構築ルーチンを用いて、粗画像ニューラルネットワークと密画像ニューラルネットワーク、必要時応じて更なる超粗画像又は超密画像ニューラルネットワークを構築する。
FIG. 7 shows a construction routine for a neural network having the above input / output configuration.
First, the prepared sample image is read (# 20), each image feature amount described above is calculated using the mosaic processing image created from the sample image (# 21), and these are used as an image feature amount group. Store in the memory (# 22). Manual image correction by an expert is performed while displaying the read sample image on the monitor (# 23). A printout of the corrected image is performed as necessary (# 24), and it is checked whether the corrected image is appropriate (# 25). Manual correction is repeated until the corrected image is determined to be appropriate, and when an appropriate corrected image is obtained, an image correction curve that converts the pixel value of the original image into the pixel value of the appropriate corrected image based on the image correction (Coefficient defining image correction curve) is created and stored in the memory (# 26). The processing from
次に、図1と図2を用いて説明した画像補正技術を用いた画像補正装置を搭載し、画像として撮影画像を取り扱う写真プリント装置を説明する。図8はその写真プリント装置を示す外観図であり、この写真プリント装置は、印画紙Pに対して露光処理と現像処理とを行う写真プリント部としてのプリントステーション1Bと、現像済み写真フィルム2aやデジタルカメラ用メモリカード2bなどの画像入力メディアから取り込んだ撮影画像を処理してプリントステーション1Bで使用されるプリントデータの生成・転送などを行う操作ステーション1Aとから構成されている。
Next, a photographic printing apparatus equipped with an image correction apparatus using the image correction technique described with reference to FIGS. 1 and 2 and handling captured images as images will be described. FIG. 8 is an external view showing the photographic printing apparatus. This photographic printing apparatus includes a
この写真プリント装置はデジタルミニラボとも称せられるものであり、図9からよく理解できるように、プリントステーション1Bは2つの印画紙マガジン11に納めたロール状の印画紙Pを引き出してシートカッター12でプリントサイズに切断すると共に、このように切断された印画紙Pに対し、バックプリント部13で色補正情報やコマ番号などのプリント処理情報を印画紙Pの裏面に印字するとともに、プリント露光部14で印画紙Pの表面に撮影画像の露光を行い、この露光後の印画紙Pを複数の現像処理槽を有した処理槽ユニット15に送り込んで現像処理する。乾燥の後に装置上部の横送りコンベア16からソータ17に送られた印画紙P、つまり写真プリントPは、このソータ17の複数のトレイにオーダ単位で仕分けられた状態で集積される(図8参照)。
This photo printing apparatus is also called a digital minilab. As can be understood from FIG. 9, the
上述した印画紙Pに対する各種処理に合わせた搬送速度で印画紙Pを搬送するために印画紙搬送機構18が敷設されている。印画紙搬送機構18は、印画紙搬送方向に関してプリント露光部14の前後に配置されたチャッカー式印画紙搬送ユニット18aを含む複数の挟持搬送ローラ対から構成されている。
A photographic
プリント露光部14には、副走査方向に搬送される印画紙Pに対して、主走査方向に沿って操作ステーション1Aからのプリントデータに基づいてR(赤)、G(緑)、B(青)の3原色のレーザ光線の照射を行うライン露光ヘッドが設けられている。処理槽ユニット15は、発色現像処理液を貯留する発色現像槽15aと、漂白定着処理液を貯留する漂白定着槽15bと、安定処理液を貯留する安定槽15cを備えている。
The
前記操作ステーション1Aのデスク状コンソールの上部位置には、写真フィルム2aの撮影画像コマから撮影画像データ(以下単に撮影画像と略称する)を2000dpiを超える解像度でもって取得することができるフィルムスキャナ20が配置されており、デジタルカメラ等に装着される画像記録媒体2bとして用いられている各種半導体メモリやCD−Rなどから撮影画像を取得するメディアリーダ21は、この写真プリント装置のコントローラ3として機能する汎用パソコンに組み込まれている。この汎用パソコンには、さらに各種情報を表示するモニタ23、各種設定や調整を行う際に用いる操作入力部として利用される操作入力デバイスとしてのキーボード24やマウス25も接続されている。
At the upper position of the desk-like console of the
この写真プリント装置のコントローラ3は、CPUを中核部材として、写真プリント装置の種々の動作を行うための機能部をハードウエア又はソフトウエアあるいはその両方で構築しているが、図10に示されているように、本発明に特に関係する機能部としては、フィルムスキャナ20やメディアリーダ21によって読み取られた撮影画像を取り込んで次の処理のために必要な前処理を行う画像入力部31と、各種ウインドウや各種操作ボタンなどを含むグラフィック操作画面の作成やそのようなグラフィック操作画面を通じてのユーザ操作入力(キーボード24やマウス25などによる)から制御コマンドを生成するグラフィックユーザインターフェース(以下GUIと略称する)を構築するGUI部33と、GUI部33から送られてきた制御コマンドや直接キーボード24等から入力された操作命令に基づいて所望のプリントデータを生成するために画像入力部31からメモリ30に転送された撮影画像に対する画像処理等を行うプリント管理部32と、色補正等のプレジャッジプリント作業時にプリントソース画像や予想仕上がりプリント画像としてのシミュレート画像さらにはGUI部33から送られてきたグラフィックデータをモニタ23に表示させるためのビデオ信号を生成するビデオ制御部35と、画像処理が完了した処理済み撮影画像に基づいてプリントステーション1Bに装備されているプリント露光部14に適したプリントデータを生成するプリントデータ生成部36と、顧客の要望に応じて生の撮影画像や画像処理が完了した処理済み撮影画像などをCD−Rに書き込むための形式にフォーマットするフォーマッタ部37などが挙げられる。
The
画像入力部31は、撮影画像記録媒体がフィルム2aの場合プレスキャンモードと本スキャンモードとのスキャンデータを別々にメモリ30に送り込み、それぞれの目的に合わせた前処理を行う。また、撮影画像記録媒体がメモリカード2bの場合取り込んだ撮影画像にサムネイル画像(低解像度データ)が含まれている場合はモニタ23での一覧表示などの目的で使用するため撮影画像の本データ(高解像度データ)とは別にメモリ30に送り込むが、もしサムネイル画像が含まれていない場合は本データから縮小画像を作り出してサムネイル画像としてメモリ30に送り込む。さらには、入力された撮影画像から上述した特徴量セットを高速に算出するために用いられる入力された撮影画像をより小さな画像サイズをもつ補正処理用撮影画像(例えば、256×384画素)に変換する機能やモザイク処理機能も有する。
When the photographic image recording medium is the
プリント管理部32は、プリントサイズやプリント枚数などを管理するプリント注文処理ユニット40、メモリ30に展開された撮影画像に対して各種画像処理を施す画像処理ユニット50を備えている。
The
画像処理ユニット50には、メモリ30に展開された撮影画像に対してマニュアルで各種画像処理などを行うためのフォトレタッチプログラムを実装している第1画像補正ユニット60と、前述したようなニューラルネットワーク画像補正技術を用いてメモリ30に展開された入力撮影画像に対する自動的な画像補正を行う第2画像補正ユニット70とが基本的にはプログラムの形で組み込まれている。
The
図11で示されているように、本発明による画像補正装置としての機能を有する第2画像補正ユニット70には、メモリ30に展開された入力撮影画像から作り出された補正演算用撮影画像(256×384の画像)対して第1サイズとしての24×16のサブマトリックスを用いて第1モザイク処理画像を生成するとともに、第2サイズとしての48×32のサブマトリックスを用いて第2モザイク処理画像を生成するモザイク処理部71と、第1モザイク処理画像から第1画像特徴量群を求めるとともに第2モザイク処理画像から第2画像特徴量群を求める画像特徴量演算部72と、第1画像特徴量群を入力することによって粗画像補正曲線を生成する粗画像ニューラルネットワーク部73aと、第2画像特徴量群を入力することによって密画像補正曲線を生成する密画像ニューラルネットワーク部73bと、生成された粗画像補正曲線と密画像補正曲線とを融合率調整部76で設定された融合率でもって融合させて融合補正曲線を生成する融合部75と、この融合補正曲線を用いて入力撮影画像を画像補正する画像補正部77が備えられている。画像補正部77は、補正曲線設定部77bによって設定された補正曲線に基づいて入力撮影画像を画像補正する画像補正実行部77aを備えている。融合率調整部76による融合率の調整は、GUI部33を通じてマニュアルで調整することができるが、入力撮影画像の空間周波数分析を通じて得られた空間周波数特性に基づいて自動的に調整することも可能である。
As shown in FIG. 11, the second
モザイク処理部71で用いられるモザイク処理のためのサブマトリックスのサイズはサブマトリックスサイズ設定部71aによって設定される。ここで用いられるサイズとしては、補正演算用撮影画像のサイズ(256×384の画像)を考慮すると、上記以外に12×8や36×24などが適している。
The size of the sub-matrix for the mosaic processing used in the
以上のように構成された写真プリント装置における写真プリント処理を図12のフローチャートを用いて説明する。まず、写真プリント出力を行うために入力された撮影画像を読み込み(#50)、その撮影画像から作り出された補正処理用撮影画像を用いてモザイク処理部71が第1モザイク処理画像と第2モザイク処理画像を生成する(#51)。画像特徴量演算部71が、第1モザイク処理画像から第1画像特徴量群:α0〜α88を算出し、第2モザイク処理画像から第2画像特徴量群:γ0〜γ88を算出する(#52)。第1画像特徴量群を粗画像ニューラルネットワーク部73aの入力要素に与えることで(#53)、粗画像に適した画像補正量:β(n)が出力値として出力され、粗画像補正曲線が作成される(#54)。同様に、第2画像特徴量群を密画像ニューラルネットワーク部73bの入力要素に与えることで(#55)、密画像に適した画像補正量:δ(n)が出力値として出力され、密画像補正曲線が作成される(#56)。
A photo print process in the photo printing apparatus configured as described above will be described with reference to the flowchart of FIG. First, a captured image input to perform a photographic print output is read (# 50), and the
粗画像補正曲線と密画像補正曲線とを融合するための融合率が決定される(#57)。この融合率は予め設定された定数であってもよいが、入力撮影画像の空間周波数特性などの画像特性に応じて変化する変数であってもよい。例えば、融合率=g(画像特性)で示されるような演算式で求めることができるが、その際の関数:gは非連続関数でも連続関数でもよい。また、その融合率も、シャドウ領域、中間領域、ハイライト領域等の領域別で異なるようにしてもよい。 A fusion rate for fusing the coarse image correction curve and the dense image correction curve is determined (# 57). The fusion rate may be a constant set in advance, or may be a variable that changes according to image characteristics such as a spatial frequency characteristic of the input photographed image. For example, it can be obtained by an arithmetic expression as shown by fusion rate = g (image characteristics), but the function at that time may be a discontinuous function or a continuous function. Further, the fusion rate may be different for each region such as a shadow region, an intermediate region, and a highlight region.
融合率が決定されると、その融合率で粗画像補正曲線と密画像補正曲線との融合補正曲線が作成される(#58)。この作成された融合補正曲線は、画像補正部77の補正曲線設定部77bに与えられる(#59)。続いて、画像補正実行部77aが設定された補正曲線(融合補正曲線又は個別補正曲線)を用いて入力撮影画像を画像補正し(#60)、この補正された撮影画像からプリントデータ生成部36がプリントデータを生成する(#61)。プリントデータがプリントステーション1Bに転送されることによりプリント処理が行われ(#62)、写真プリントが出力される(#63)。
When the fusion rate is determined, a fusion correction curve of the coarse image correction curve and the dense image correction curve is created with the fusion rate (# 58). The created fusion correction curve is given to the correction
上述した実施形態の説明では、本発明による画像補正技術が、DPショップに設置されているミニラボと呼ばれている写真プリント装置に組み込まれた例を取り上げたが、コンビニやDPショップの店頭に設置されているセルフサービス式の写真プリント装置など、種々の写真プリント装置に組み込んでもよいし、画像処理ソフトウエアの撮影画像補正機能の1つとして、この画像処理ソフトウエアのプログラムに組み込んでもよい。 In the description of the above-described embodiment, the example in which the image correction technology according to the present invention is incorporated in a photo printing apparatus called a minilab installed in a DP shop has been taken up. However, it is installed in a convenience store or a DP shop storefront. The image processing software may be incorporated into various photographic printing apparatuses such as a self-service photographic printing apparatus, or may be incorporated into a program of the image processing software as one of the photographed image correction functions of the image processing software.
なお、上述した実施の形態では、画像プリント出力部としてのプリントステーション1Bは、印画紙Pに対し、レーザ式露光エンジンを備えたプリント露光部14で撮影画像の露光を行い、この露光後の印画紙Pを現像処理する、いわゆる銀塩写真プリント方式を採用していたが、もちろん、本発明によって補正された撮影画像のプリント方式は、このような方式に限定されるわけではなく、例えば、フィルムや紙にインクを吐出して画像を形成するインクジェットプリント方式や感熱転写シートを用いた熱転写方式など、種々の写真プリント方式を含む。
In the above-described embodiment, the
1B:プリントステーション(プリント部)
31:画像入力部
36:プリントデータ生成部
70:第2画像補正ユニット(画像補正装置)
71:モザイク処理部
71a:サブマトリックスサイズ設定部
72:画像特徴量算出部
73a:粗画像ニューラルネットワーク部
73b:密画像ニューラルネットワーク部
74a:粗画像補正曲線作成部
74b:密画像補正曲線作成部
75:融合部
76:融合率調整部
77:画像補正部
77a:画像補正実行部
77b:補正曲線設定部
1B: Print station (print section)
31: Image input unit 36: Print data generation unit 70: Second image correction unit (image correction device)
71:
Claims (7)
前記入力画像に対応する補正演算用画像に対して第1サイズのサブマトリックスを用いて第1モザイク処理画像を生成するステップと、
前記第1モザイク処理画像から第1画像特徴量群を求めるステップと、
前記第1画像特徴量群に基づいて粗画像補正曲線を生成するステップと、
前記入力画像に対応する補正演算用画像に対して前記第1サイズより小さい第2サイズのサブマトリックスを用いて第2モザイク処理画像を生成するステップと、
前記第2モザイク処理画像から第2画像特徴量群を求めるステップと、
前記第2画像特徴量群に基づいて密画像補正曲線を生成するステップと、
前記粗画像補正曲線と前記密画像補正曲線とを融合させて融合補正曲線を生成するステップと、
前記融合補正曲線で前記入力画像を画像補正するステップと、
からなる画像補正方法。 In an image correction method for correcting an input image to a proper image using a correction curve,
Generating a first mosaiced image using a first-size sub-matrix for a correction calculation image corresponding to the input image;
Obtaining a first image feature quantity group from the first mosaic processed image;
Generating a coarse image correction curve based on the first image feature amount group;
Generating a second mosaic processed image using a sub-matrix of a second size smaller than the first size for the correction calculation image corresponding to the input image;
Obtaining a second image feature quantity group from the second mosaic processed image;
Generating a dense image correction curve based on the second image feature quantity group;
Fusing the coarse image correction curve and the dense image correction curve to generate a fusion correction curve;
Image correcting the input image with the fusion correction curve;
An image correction method comprising:
前記密画像補正曲線を生成するステップにおいて、前記サンプル画像に対して前記第2サイズのサブマトリックスを用いて生成された第2モザイク処理画像から得られる第2画像特徴量群を入力値とするとともに前記サンプル画像から適正画像を作り出す画像補正曲線を教師値として学習させた密画像ニューラルネットワーク部が用いられることを特徴とする請求項1に記載の画像補正方法。 In the step of generating the rough image correction curve, a first image feature amount group obtained from a first mosaic processed image generated using the first-size sub-matrix is input to a number of prepared sample images. A coarse image neural network unit that learns, as a teacher value, an image correction curve that creates an appropriate image from the sample image and generates a dense image correction curve in the step of generating the dense image correction curve. The second image feature amount group obtained from the second mosaic processed image generated using the second size sub-matrix is used as an input value, and an image correction curve for creating an appropriate image from the sample image is learned as a teacher value. 2. The image compensation according to claim 1, wherein a dense image neural network unit is used. Right way.
前記入力画像に対応する補正演算用画像に対して第1サイズのサブマトリックスを用いて第1モザイク処理画像を生成するとともに、前記第1サイズより小さい第2サイズのサブマトリックスを用いて第2モザイク処理画像を生成するモザイク処理部と、
前記第1モザイク処理画像から第1画像特徴量群を求めるとともに、前記第2モザイク処理画像から第2画像特徴量群を求める画像特徴量演算部と、
前記第1画像特徴量群に基づいて粗画像補正曲線を生成する粗画像補正曲線生成部と、
前記第2画像特徴量群に基づいて密画像補正曲線を生成する密画像補正曲線生成部と、
前記粗画像補正曲線と前記密画像補正曲線とを融合させて融合補正曲線を生成する融合部と、
前記融合補正曲線で前記入力画像を画像補正する画像補正部と、
からなる画像補正装置。 In an image correction apparatus that corrects an input image to a proper image using a correction curve,
A first mosaic processed image is generated using a first size sub-matrix for the correction calculation image corresponding to the input image, and a second mosaic is generated using a second size sub-matrix smaller than the first size. A mosaic processing unit for generating a processed image;
An image feature quantity computing unit for obtaining a first image feature quantity group from the first mosaic processed image and obtaining a second image feature quantity group from the second mosaic processed image;
A coarse image correction curve generation unit for generating a coarse image correction curve based on the first image feature quantity group;
A dense image correction curve generating unit for generating a dense image correction curve based on the second image feature amount group;
A fusion unit for fusing the coarse image correction curve and the dense image correction curve to generate a fusion correction curve;
An image correction unit that corrects the input image with the fusion correction curve;
An image correction apparatus comprising:
前記密画像補正曲線生成部が、前記サンプル画像に対して前記第2サイズのサブマトリックスを用いて生成された第2モザイク処理画像から得られる第2画像特徴量群を入力値とするとともに前記サンプル画像から適正画像を作り出す画像補正曲線を教師値として学習させた密画像ニューラルネットワーク部であることを特徴とする請求項6に記載の画像補正装置。 The coarse image correction curve generation unit uses, as an input value, a first image feature amount group obtained from a first mosaic processed image generated using the first size sub-matrix for a large number of prepared sample images. And a coarse image neural network unit that learns, as a teacher value, an image correction curve that creates an appropriate image from the sample image, and the dense image correction curve generation unit has a sub-size of the second size with respect to the sample image. A dense image neural network unit having a second image feature amount group obtained from a second mosaic processed image generated using a matrix as an input value and learning an image correction curve for creating an appropriate image from the sample image as a teacher value The image correction apparatus according to claim 6, wherein the image correction apparatus is an image correction apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007161560A JP2009004887A (en) | 2007-06-19 | 2007-06-19 | Image correction method and image correction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007161560A JP2009004887A (en) | 2007-06-19 | 2007-06-19 | Image correction method and image correction device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009004887A true JP2009004887A (en) | 2009-01-08 |
Family
ID=40320831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007161560A Pending JP2009004887A (en) | 2007-06-19 | 2007-06-19 | Image correction method and image correction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009004887A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105931209A (en) * | 2016-04-07 | 2016-09-07 | 重庆邮电大学 | Discrete orthogonal polynomial transformation-based multi-focus image fusion method |
CN109410123A (en) * | 2018-10-15 | 2019-03-01 | 深圳市能信安科技股份有限公司 | The method, apparatus and electronic equipment of removal mosaic based on deep learning |
CN113379661A (en) * | 2021-06-15 | 2021-09-10 | 中国工程物理研究院流体物理研究所 | Infrared and visible light image fused double-branch convolution neural network and fusion method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001126075A (en) * | 1999-08-17 | 2001-05-11 | Fuji Photo Film Co Ltd | Method and device for picture processing, and recording medium |
JP2002008033A (en) * | 2000-06-16 | 2002-01-11 | Canon Inc | Pattern detection device and method, image processing device and method, and neural network device |
WO2006036027A1 (en) * | 2004-09-30 | 2006-04-06 | Fujifilm Corporation | Image processing device, method, and image processing program |
JP2006338296A (en) * | 2005-06-01 | 2006-12-14 | Noritsu Koki Co Ltd | Image processing method and program for suppressing small noise and noise suppression module for executing the method |
-
2007
- 2007-06-19 JP JP2007161560A patent/JP2009004887A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001126075A (en) * | 1999-08-17 | 2001-05-11 | Fuji Photo Film Co Ltd | Method and device for picture processing, and recording medium |
JP2002008033A (en) * | 2000-06-16 | 2002-01-11 | Canon Inc | Pattern detection device and method, image processing device and method, and neural network device |
WO2006036027A1 (en) * | 2004-09-30 | 2006-04-06 | Fujifilm Corporation | Image processing device, method, and image processing program |
JP2006338296A (en) * | 2005-06-01 | 2006-12-14 | Noritsu Koki Co Ltd | Image processing method and program for suppressing small noise and noise suppression module for executing the method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105931209A (en) * | 2016-04-07 | 2016-09-07 | 重庆邮电大学 | Discrete orthogonal polynomial transformation-based multi-focus image fusion method |
CN109410123A (en) * | 2018-10-15 | 2019-03-01 | 深圳市能信安科技股份有限公司 | The method, apparatus and electronic equipment of removal mosaic based on deep learning |
CN109410123B (en) * | 2018-10-15 | 2023-08-18 | 深圳市能信安科技股份有限公司 | Deep learning-based mosaic removing method and device and electronic equipment |
CN113379661A (en) * | 2021-06-15 | 2021-09-10 | 中国工程物理研究院流体物理研究所 | Infrared and visible light image fused double-branch convolution neural network and fusion method |
CN113379661B (en) * | 2021-06-15 | 2023-03-07 | 中国工程物理研究院流体物理研究所 | Double-branch convolution neural network device for fusing infrared and visible light images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4998794B2 (en) | Image correction method and image correction apparatus | |
JP4780374B2 (en) | Image processing method and program for suppressing granular noise, and granular suppression processing module for implementing the method | |
JP2005141477A (en) | Image sharpening process and image processor implementing this process | |
JP4591784B2 (en) | Method for creating conversion table for photographed image correction and photo printing apparatus for implementing this method | |
JP2009027254A (en) | Image correcting method and image correcting device | |
JP2009004887A (en) | Image correction method and image correction device | |
JP4366634B2 (en) | Noise pixel map creation method, apparatus and program for implementing the method, and photo print apparatus | |
JP4798446B2 (en) | Photographed image correction method and photographed image correction module | |
JP4655210B2 (en) | Density correction curve generation method and density correction curve generation module | |
JP4385964B2 (en) | Photo image processing method and photo image processing apparatus | |
JP4661659B2 (en) | Photo image processing apparatus and photo image processing method | |
JP2009004888A (en) | Image correction method and image correction device | |
JP2005159387A (en) | Method of determining density characteristic curve and density correction management apparatus for executing this method | |
JP2008306365A (en) | Image correction method and image correction device | |
JP4731202B2 (en) | Color correction processing method and color correction processing apparatus using the same | |
JP4284604B2 (en) | Contrast adjustment method and contrast adjustment apparatus for implementing the method | |
JP4793648B2 (en) | Image correction unit and image correction program | |
JP4655211B2 (en) | Generation method, generation program and generation module of correction characteristics used for contrast correction | |
JP2009010853A (en) | Image correction method and image correction apparatus | |
JP2005072850A (en) | Adjusting method of three dimensional lut and color conversion system equipped with three dimensional lut | |
JP4645896B2 (en) | Image processing method and program for suppressing minute noise, and noise suppressing module for implementing the method | |
JP2008079196A (en) | Image correcting method, image correcting program and image correcting module | |
JP4324870B2 (en) | Image processing method, image processing program, and apparatus for implementing the image processing method | |
JP4835900B2 (en) | Image processing method and image processing apparatus for image data from a digital camera | |
JP4775289B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100423 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20110223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111110 |