JP5539561B2 - Image processing apparatus and method - Google Patents
Image processing apparatus and method Download PDFInfo
- Publication number
- JP5539561B2 JP5539561B2 JP2013052404A JP2013052404A JP5539561B2 JP 5539561 B2 JP5539561 B2 JP 5539561B2 JP 2013052404 A JP2013052404 A JP 2013052404A JP 2013052404 A JP2013052404 A JP 2013052404A JP 5539561 B2 JP5539561 B2 JP 5539561B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- display
- processing apparatus
- raw
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Studio Devices (AREA)
Description
本発明は、撮影画像の画像処理に関する。 The present invention relates to image processing of captured images.
近年、ディジタルカメラの進歩は目覚しく、高画素、高感度、手振れ補正など様々な機能面の高度化が進んでいる。また、ディジタル一眼レフカメラの低価格化が進み、ディジタルカメラの更なる普及を後押ししている。 In recent years, digital cameras have made remarkable progress, and various functional aspects such as high pixels, high sensitivity, and camera shake correction have been advanced. In addition, the price of digital single-lens reflex cameras has been reduced, and further popularization of digital cameras has been promoted.
フィルムカメラに対するディジタルカメラの利点の一つとして、画像をディジタルデータとして扱うため撮影後のレタッチが容易であることが挙げられる。ディジタルカメラは、CCD、CMOSなどの撮像素子に焦点を結んだ光を電気信号に変換し、カメラ内部で画像処理した撮影画像をディジタルデータとして記録媒体に保存する。データ形式としては、JPEGなどのデータ圧縮した形式が一般的である。近年は、よりレタッチの自由度が高い撮影データの形式のディジタルデータの保存も可能である。 One advantage of a digital camera over a film camera is that the image is handled as digital data, so that it can be easily retouched after shooting. A digital camera converts light focused on an image sensor such as a CCD or CMOS into an electric signal, and saves a photographed image processed in the camera as digital data in a recording medium. A data compression format such as JPEG is generally used as the data format. In recent years, it is also possible to store digital data in the form of shooting data with a higher degree of freedom of retouching.
撮影画像のデータは、撮像素子が出力する信号をディジタル化したデータ(以下、RAWデータ)であり、デモザイキング(demosicking/demosaicing)などが行われていない。従って、そのままでは通常の画像として表示することはできない。 The data of the captured image is data obtained by digitizing a signal output from the image sensor (hereinafter referred to as RAW data), and demosaicing / demosaicing or the like is not performed. Therefore, it cannot be displayed as a normal image as it is.
ここでRAWデータについて簡単に説明する。ディジタルカメラやディジタルビデオカメラなどの撮像装置の多くは、CCDやCMOSなどの光電変換デバイスの前に特定の色のフィルタを配置し、被写体の色情報を取得する。この方式を単板式と呼ぶ。図8は単板式のディジタルカメラやディジタルビデオカメラに用いる典型的なカラーフィルタ配列として知られるベイヤ配列を示す図である。単板式の撮像装置の場合、特定の色のフィルタが存在する素子からは、他の色の信号を得ることはできない。そこで、他の色の信号は、近隣の素子の信号から補間によって求める。この補間処理をデモザイキングと呼ぶ。 Here, RAW data will be briefly described. Many imaging apparatuses such as digital cameras and digital video cameras obtain a subject's color information by placing a filter of a specific color in front of a photoelectric conversion device such as a CCD or CMOS. This method is called a single plate type. FIG. 8 is a diagram showing a Bayer array known as a typical color filter array used in a single-plate digital camera or digital video camera. In the case of a single-plate imaging device, signals of other colors cannot be obtained from an element having a filter of a specific color. Therefore, signals of other colors are obtained by interpolation from signals of neighboring elements. This interpolation process is called demosaicing.
カラーフィルタが図8に示すベイヤ配列の場合を例としてデモザイキングを説明する。まず、光電変換デバイスから得られるRGBが混在したセンサ信号を三つのプレーン、すなわちR、G、Bプレーンに分割する。図9はセンサ信号をプレーン分割した結果を示す図で、図9(a)はRプレーンを、図9(b)はGプレーンを、図9(c)はBプレーンをそれぞれ表す。なお、各プレーンにおいて、値が不明な画素(当該色以外の色のフィルタが配置された素子に対応する画素)には略ゼロを挿入する。 Demosaicing will be described by taking the case where the color filter has the Bayer arrangement shown in FIG. 8 as an example. First, a sensor signal mixed with RGB obtained from a photoelectric conversion device is divided into three planes, that is, R, G, and B planes. FIG. 9 is a diagram showing the result of dividing the sensor signal into planes, FIG. 9 (a) shows the R plane, FIG. 9 (b) shows the G plane, and FIG. 9 (c) shows the B plane. In each plane, substantially zero is inserted into a pixel whose value is unknown (a pixel corresponding to an element in which a filter of a color other than the color is arranged).
図10はコンボリューションフィルタを示し、当該フィルタにより各プレーンを補間することでデモザイキングを行う。図10(a)はR、Bプレーンの補間用フィルタ、図10(b)はGプレーンの補間用フィルタである。 FIG. 10 shows a convolution filter, and demosaicing is performed by interpolating each plane with the filter. FIG. 10A shows an R and B plane interpolation filter, and FIG. 10B shows a G plane interpolation filter.
図11はGプレーンのデモザイキングの様子を示す図である。図11(a)は、デモザイキング前のGプレーンの状態を示し、中央は値が不明な画素であり、ゼロが挿入されている。図11(b)はデモザイキング後のGプレーンの状態を示し、中央の値が不明な画素に対して、上下左右に隣接する画素の値の平均値が割り当てられてる。R、Bプレーンについても、Gプレーンと同様、値が不明な画素は、周囲の画素の値によって補間される。 FIG. 11 is a diagram showing the G-plane demosaicing. FIG. 11 (a) shows the state of the G plane before demosaicing, where the center is a pixel whose value is unknown and zero is inserted. FIG. 11 (b) shows the state of the G plane after demosaicing, and the average value of the adjacent pixels in the vertical and horizontal directions is assigned to the pixel whose central value is unknown. As for the R and B planes, similarly to the G plane, pixels whose values are unknown are interpolated by the values of surrounding pixels.
なお、デモザイキングは、上記の方法以外にも様々な方法があり、例えば、上下左右に隣接する画素の値の平均値ではなく、適応的に上下に隣接する画素の値の平均値、または、左右に隣接する画素の値の平均値に補間する方法もある。 Note that there are various methods other than the above method for demosaicing, for example, not the average value of pixels adjacent vertically and horizontally, but the average value of pixels adjacent vertically and adaptively, or There is also a method of interpolating to the average value of the values of pixels adjacent to the left and right.
RAWデータは、撮影時に、一旦、記録媒体に保存し、その後、パーソナルコンピュータ(PC)上で動作するソフトウェアなどによってデモザイキング処理などの画像処理を行う。画像処理後の画像は、表示したり、JPEGなどの汎用データ形式に変換して記録媒体に保存することができる。つまり、ディジタルカメラにおけるRAWデータの利用するための処理は、フィルムカメラにおける撮影処理と現像処理に例えることができる。 The RAW data is temporarily stored in a recording medium at the time of shooting, and thereafter, image processing such as demosaicing processing is performed by software that operates on a personal computer (PC). The image after image processing can be displayed or converted into a general-purpose data format such as JPEG and stored in a recording medium. In other words, processing for using RAW data in a digital camera can be compared to shooting processing and development processing in a film camera.
RAWデータを利用すれば、現像に対応する画像処理(以下、現像処理)のユーザ調整が可能になり、レタッチの自由度が高くなる。また、RAWデータは一画素当りのビット数が大きく、ロスレス圧縮されているため、画質の劣化が少ない現像処理が可能である。 If RAW data is used, user adjustment of image processing corresponding to development (hereinafter referred to as development processing) becomes possible, and the degree of freedom of retouching is increased. In addition, since RAW data has a large number of bits per pixel and is losslessly compressed, development processing with little deterioration in image quality is possible.
現像処理を行うソフトウェア(以下、現像ソフト)は、一般に、現像処理後の画像を表示する表示機能のインタフェイスと、現像処理のパラメータを調整する調整機能のインタフェイスを備える。ユーザ調整が可能な現像処理パラメータにはエッジ強調処理のパラメータ、ぼかし処理のパラメータ、色の調整パラメータ、デモザイキングに関わるパラメータなどが含まれる。ユーザは、表示された画像を観察しながら現像処理パラメータを調整し、調整した現像処理パラメータによって表示画像を更新する。ユーザは、この手順を繰り返して、所望する表示画像になるように現像処理パラメータを決定する。 Software for performing development processing (hereinafter referred to as development software) generally includes a display function interface for displaying an image after development processing and an adjustment function interface for adjusting development processing parameters. The development processing parameters that can be adjusted by the user include edge enhancement processing parameters, blurring processing parameters, color adjustment parameters, demosaicing parameters, and the like. The user adjusts the development processing parameter while observing the displayed image, and updates the display image with the adjusted development processing parameter. The user repeats this procedure to determine development processing parameters so as to obtain a desired display image.
RAWデータが利用可能なディジタルカメラは、ディジタル一眼レフカメラなどのハイエンド機が殆どである。ハイエンド機は、一般に撮像画素数が多いためRAMデータのデータ量が膨大になる。そのため、現像処理の演算負荷は大きく、ユーザが現像処理パラメータを調整し、再度画像処理を施された画像を表示するまでの時間は長くなる。特許文献1の技術は、撮影画像の一部領域の画像に画像処理を施して表示することで、処理効率を高めている。
Most digital cameras that can use RAW data are high-end devices such as digital single-lens reflex cameras. High end machines generally have a large amount of RAM data because of the large number of imaging pixels. For this reason, the computation load of the development processing is large, and the time until the user adjusts the development processing parameters and displays the image subjected to the image processing again becomes long. The technique of
しかし、特許文献1の技術は、撮影画像の一部領域(以下、参照領域)を参照して現像処理パラメータを決定するため、現像処理パラメータを調整した後の現像処理が参照領域以外の領域にどのように影響するかが不明である。言い換えれば、現像処理パラメータを調整した後の現像処理を画像全体に適用した場合、参照領域ではユーザが意図するとおりの画像が得られても、参照領域外ではユーザが意図する画像が得られない場合がある。
However, since the technique of
本発明は、現像処理における処理効率を向上するとともに、ユーザが意図する処理結果が得られるようにすることを目的とする。 An object of the present invention is to improve the processing efficiency in development processing and to obtain a processing result intended by a user.
本発明は、前記の目的を達成する一手段として、以下の構成を備える。 The present invention has the following configuration as one means for achieving the above object.
本発明にかかる画像処理は、RAW画像から表示画像を生成し、前記表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力し、予め指定された画像から、前記RAW画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出し、前記参照領域に対応するRAW画像および前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記表示画像の上に表示し、前記予め指定された画像は、画像の中央部で空間周波数が低く、画像周辺部ほど空間周波数が高いテストチャートであることを特徴とする。 Image processing according to the present invention generates a display image from the RAW image, an instruction indicating a reference region in said displayed image, and inputs an instruction of the development processing parameters for the reference area, the pre-specified image An image region having a high correlation with the reference region in the RAW image is extracted as a similar region, and is generated by applying the development processing parameters to the RAW image corresponding to the reference region and the RAW image corresponding to the similar region The pre-designated image is a test chart having a lower spatial frequency at the center of the image and a higher spatial frequency at the periphery of the image .
本発明によれば、現像処理における処理効率を向上するとともに、ユーザが意図する処理結果が得られるようになる。 According to the present invention, the processing efficiency in the development process is improved, and the processing result intended by the user can be obtained.
以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。 Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.
[装置の構成]
図1は画像処理装置の構成例を示すブロック図である。
[Device configuration]
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus.
CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)105に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI (peripheral component interconnect)バスなどのシステムバス1114を介して各構成を制御する。さらに、後述する現像処理アプリケーションを含む各種プログラムを実行する。
The
CPU101は、システムバス1114およびシリアルATAインタフェイス(SATA I/F)103を介してHDD105にアクセスする。また、ネットワークI/F104を介してローカルエリアネットワーク(LAN)などのネットワーク1113にアクセスする。
The
以下では、現像処理アプリケーション、画像データなどをHDD105から読み出すとして説明するが、ネットワーク1113上のサーバから読み出すこともできる。
In the following description, it is assumed that the development processing application, image data, and the like are read from the
また、CPU101は、後述する処理のユーザインタフェイスや処理結果をグラフィックアクセラレータ106を介してモニタ107に表示し、ユーザ指示をキーボード/マウスコントローラ110に接続されたキーボード1111、マウス1112を介して入力する。
Further, the
また、CPU101は、画像データをUSB (Universal Serial Bus)コントローラ108を介してプリンタ109に出力して、例えばユーザが指示する画像を印刷する。
Further, the
[画像処理]
図2は実施例1の現像処理アプリケーションによる処理の概要を示す図で、現像処理は、処理1、処理2、処理3に大別される。
[Image processing]
FIG. 2 is a diagram showing an outline of processing by the development processing application of the first embodiment. Development processing is roughly divided into
詳細は後述するが、処理1において、表示画像113上で指定された、現像処理パラメータを調整する際の参照領域121のRAWデータ114を取得する。次に、処理2において、参照領域121と他の領域の間で相関を算出する。そして、処理3において、相関が高い画像領域を表示する。
Although details will be described later, in
図3は実施例1の現像処理を説明するフローチャートで、CPU101が実行する処理である。
FIG. 3 is a flowchart for explaining the developing process according to the first embodiment, which is a process executed by the
CPU101は、現像処理すべきRAWデータ111を取得し(S101)、RAWデータ111をデモザイキングした画像112を生成する(S102)。なお、例えば3CCDや、RGB画像を順次撮影する、単板式のディジタルカメラなどはデモザイキングを行う必要はなく、ステップS102の処理は省略してよい。
The
次に、CPU101は、デモザイキングした画像112に画像処理130を施して表示画像113を生成し、モニタ107に表示する(S103)。そして、表示画像113上の参照領域121を示すユーザ指示を取得し(S104)、RAWデータ111から参照領域121に対応する参照RAWデータ114を取得する(S105)。
Next, the
次に、CPU101は、現像処理パラメータに対するユーザの調整指示を入力し(S106)、調整後の現像処理パラメータを使用して参照RAWデータ114を現像処理する。そして、現像処理後の参照領域121の画像を表示画像113上に表示する(S107)。その際、参照領域121に枠を表示するなど、ユーザが参照領域121を認識し易いように表示することが好ましい。
Next, the
つまり、ステップS101からS107が処理1に対応する。
That is, steps S101 to S107 correspond to
次に、CPU101は、参照領域121以外の領域を相関の検出対象の領域122とし、相関の検出対象の領域122に対応するRAWデータ115をRAWデータ111から取得する(S108)。そして、参照領域121以外の各領域においてRAWデータ115と参照RAWデータ114との相関を算出する(S109)。
Next, the
つまり、ステップS108、S109が処理2に対応する。 That is, steps S108 and S109 correspond to process 2.
次に、CPU101は、参照領域121において調整された現像処理パラメータを用いて、参照領域121と相関が高い(類似する)領域116(以下、類似領域)のRAWデータを現像処理する。そして、現像処理後の類似領域116の画像を表示画像113上に表示する(S110)。その際、類似領域116に枠を表示するなど、ユーザが類似領域116を認識し易いように表示することが好ましい。
Next, the
つまり、ステップS110が処理3に対応する。 That is, step S110 corresponds to process 3.
次に、CPU101は、例えばユーザが終了を示すボタンを押して終了を指示したなど、現像処理パラメータの調整が終了したか否かを判定し(S111)、未了の場合は処理をステップS104に戻す。
Next, the
[相関の算出]
図4は相関の算出(S109)を説明するフローチャートである。
[Calculation of correlation]
FIG. 4 is a flowchart for explaining the calculation of correlation (S109).
CPU101は、相関を算出する領域(以下、比較領域)を決定する(S201)。なお、相関の検出対象のRAWデータ115の全域で相関を計算することが望ましいが、所定の画素間隔で相関を計算してもよい。あるいは、相関を算出する領域をユーザが指定するなど、必要に応じて相関を算出する領域を限定してもよい。なお、相関を算出する領域のサイズは、参照領域121と同じサイズにする。
The
次に、CPU101は、相関の検出対象の領域に対応するRAWデータ115から、比較領域のRAWデータを抽出して比較RAWデータとする(S202)。例えば参照領域121が5×5画素の場合、比較領域も5×5画素である。
Next, the
次に、CPU101は、参照RAWデータ114と比較RAWデータの相関を算出する(S203)。相関の算出は式(1)により行う。
Corr = ΣiΣjIref(i, j)Icomp(i, j) …(1)
ここで、Corrは相関値、
iは縦方向の画素位置を表すインデックス、
jは横方向の画素位置を表すインデックス、
Irefは参照RAWデータの画素(i, j)の値、
Icompは比較RAWデータの画素(i, j)の値。
Next, the
Corr = Σ i Σ j Iref (i, j) Icomp (i, j)… (1)
Where Corr is the correlation value,
i is an index representing the pixel position in the vertical direction,
j is an index indicating the pixel position in the horizontal direction,
Iref is the value of pixel (i, j) of the reference RAW data,
Icomp is the pixel (i, j) value of the comparative RAW data.
相関の算出に式(2)やその他の算出方法を用いてもよい。さらに、撮像機器が単板式でなく、例えばベイヤ配列のRGBデータをRAWデータとして記録する方式の場合は、Gに対応する画素のみを対象として相関を算出してもよい。
Corr = ΣiΣj{Iref(i, j) - Irefave}{Icomp(i, j) - Icompave} …(2)
ここで、Corrは相関値、
Irefaveは参照RAWデータの平均値、
Icompaveは比較RAWデータの平均値。
Equation (2) or other calculation methods may be used for calculating the correlation. Further, when the imaging device is not a single-plate type, for example, a method of recording Bayer array RGB data as RAW data, the correlation may be calculated only for pixels corresponding to G.
Corr = Σ i Σ j {Iref (i, j)-Iref ave } {Icomp (i, j)-Icomp ave }… (2)
Where Corr is the correlation value,
Iref ave is the average value of the reference RAW data,
Icomp ave is the average value of comparative RAW data.
次に、CPU101は、相関を算出すべき領域の相関を算出したか否かを判定し(S204)、相関の算出が未了の領域がなくなるまでステップS201からS203の処理を繰り返す。
Next, the
相関の算出が終了すると、CPU101は、相関値が所定値を超える領域を類似領域116に決定する(S205)。なお、類似領域116は、参照領域121と同じサイズになるとは限らない。つまり、隣接する比較領域がともに類似領域であれば、それらを結合した領域を類似領域116にする。
When the calculation of the correlation is completed, the
図2には示さないが、CPU101は、調整後の現像処理パラメータを使用して現像処理した参照領域121の画像と、類似領域116の画像を表示画像113上に表示する。従って、ユーザは、調整後の現像処理パラメータが参照領域121に対して適切か否かを知ることができる。その上、参照領域112との相関が高い類似領域116と、類似領域116の画像に当該現像処理パラメータがどう影響するか(または影響しないか)を目視で評価することができる。その際、CPU101は、参照領域112との相関が低い領域に対しては画像処理を行わないため、当該現像処理パラメータを用いてRAWデータ111(画像全体)を処理する場合に比べて処理効率を向上することができる。
Although not shown in FIG. 2, the
例えば、人物の頭髪部(参照領域)など空間周波数が高い画像領域をエッジ強調する際、頭上の空(非類似領域)などの比較的空間周波数が低い画像領域の処理効果を確認する必要は少ない。参照領域121および類似する領域116を提示し、当該領域の現像処理結果を表示することで、CPU101の処理負荷を低減することができる。
For example, when edge enhancement is performed on an image region having a high spatial frequency such as a human hair (reference region), there is little need to confirm the processing effect of an image region having a relatively low spatial frequency such as an overhead sky (dissimilar region). By presenting the
類似領域116の検出を、現像後の画像同士の比較ではなく、RAWデータの比較に基づき行うメリットを説明する。そのため、まず、現像処理による画質劣化について説明する。
The merit of detecting the
現像処理による画質劣化として、実際の被写体には存在しない模様が発生する場合がある。モアレも現像処理による画質劣化の一つである。また、モアレ以外にも現像処理の方法によっては「ラーメンノイズ」と呼ばれる画質劣化が発生する場合がある。「ラーメンノイズ」は、図12(a)に示すような細線が密集する被写体を撮影した場合、現像後の画像において、図12(b)に示すように、細線同士が画素レベルで渦巻き状につながる画質劣化である。 A pattern that does not exist in an actual subject may occur as image quality degradation due to development processing. Moire is one of the image quality degradations caused by development processing. In addition to moire, image quality degradation called “ramen noise” may occur depending on the development processing method. `` Ramen noise '' means that when a subject with dense lines as shown in Fig. 12 (a) is photographed, the fine lines are spiraled at the pixel level as shown in Fig. 12 (b) in the developed image. It is connected image quality degradation.
このような現像処理による画質劣化は、現像後の画像から検出することは困難である。何故ならば、現像後の画像を観察した場合、被写体がそもそも「ラーメンノイズ」に類似する模様を有するのか、現像処理によって「ラーメンノイズ」が発生したのか、の区別がつかないからである。現像後の画像から類似領域116を検出するのではなく、RAWデータで類似領域116を検出すれば上記の問題は解決する。つまり、RAWデータの時点で類似していれば、現像処理を施した結果も類似するためである。
Such image quality degradation due to development processing is difficult to detect from an image after development. This is because, when an image after development is observed, it cannot be distinguished whether the subject has a pattern similar to “ramen noise” in the first place or “ramen noise” is generated by the development process. If the
以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。 The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.
実施例1では、一つの撮影画像に対して現像処理パラメータを調整する例を説明した。実施例2では、複数の撮影画像に共通する現像処理パラメータを調整する方法を説明する。複数の撮影画像に共通する現像処理パラメータを使用する場合、類似領域は一つの撮影画像に限らず、他の撮影画像にも含まれる。 In the first embodiment, the example in which the development processing parameter is adjusted for one captured image has been described. In the second embodiment, a method for adjusting development processing parameters common to a plurality of captured images will be described. When using development processing parameters common to a plurality of captured images, the similar region is not limited to one captured image, but is included in other captured images.
図5は実施例2の現像処理アプリケーションによる処理の概要を示す図で、現像処理は、処理1、処理2、処理3に大別される。
FIG. 5 is a diagram showing an outline of processing by the development processing application of the second embodiment. The development processing is roughly divided into
処理1、3は実施例1と同様である。処理2において、現像処理する複数の撮影画像に含まれ、参照領域121を含む画像(以下、参照画像)とは異なる撮影画像132との間で相関を算出する。
図6は実施例2の現像処理を説明するフローチャートで、CPU101が実行する処理である。
FIG. 6 is a flowchart for explaining the developing process according to the second embodiment, which is a process executed by the
ステップS101からS107の処理1は図3に示す実施例1の処理と同様である。
次に、CPU101は、現像処理する複数の撮影画像に含まれ、参照画像とは異なる撮影画像(以下、比較画像)を選択して、比較画像のRAWデータ131を取得する(S301)。そして、比較画像の各領域においてRAWデータ131と参照RAWデータ114の相関を算出する(S302)。なお、比較画像は、例えば、ユーザ入力などに基づき選択すればよい。
Next, the
つまり、ステップS301、S302が処理2に対応する。 That is, steps S301 and S302 correspond to process 2.
次に、CPU101は、参照領域121において調整された現像処理パラメータを用いて、類似領域116のRAWデータを現像処理する。そして、現像処理後の類似領域116の画像を別ウィンドウに表示した表示画像132上に表示する(S303)。その際、類似領域116に枠を表示するなど、ユーザが類似領域116を認識し易いように表示することが好ましい。また、比較画像が複数有る場合は、比較画像の数分のウィンドウに類似領域116を示す表示画像132を表示するか、ユーザがスクロールバーなどを操作して複数の比較画像を観察できるようにすればよい。
Next, the
つまり、ステップS303が処理3に対応する。 That is, step S303 corresponds to process 3.
次に、CPU101は、例えばユーザが終了を示すボタンを押して終了を指示したなど、現像処理パラメータの調整が終了したか否かを判定し(S111)、未了の場合は処理をステップS104に戻す。
Next, the
なお、詳細な説明は省略するが、現像処理アプリケーションは、実施例1の同一画像内の類似領域の処理も実行することは言うまでもない。 Although a detailed description is omitted, it goes without saying that the development processing application also executes processing of similar regions in the same image of the first embodiment.
[変形例]
実施例2においては、例えばユーザが指定する比較画像を取得し、比較画像の参照領域121と相関が高い類似領域116に、参照画像において調整した現像処理パラメータを適用する例を説明した。ここで、比較画像を、例えば図7に示すテストチャートなどの予め指定されたRAWデータにすることもできる。図7に示すテストチャートは、画像中央部で空間周波数が低く、画像周辺部で空間周波数が高い画像の一例である。なお、様々な空間周波数のパターンが記録されたテストチャートがあり、テスチャートの撮影、現像処理によって、画像処理の特性が一目で把握できる。
[Modification]
In the second embodiment, for example, a comparative image designated by the user is acquired, and the development processing parameter adjusted in the reference image is applied to the
このようなテストチャートを用いれば、ユーザは、現像処理パラメータを調整する際に、参照領域121と類似する空間周波数領域をテストチャートから知ることができる。言い換えれば、テストチャートにおける類似領域116を参照しつつ、現像処理パラメータを調整すれば、汎用的な現像処理パラメータを得ることができる。つまり、風景写真、ポートレートなど、通常の撮影画像における領域が、テストチャートの領域とどのように対応するかが把握できるため、汎用的な現像処理パラメータを効率的に調整することができる。
By using such a test chart, the user can know a spatial frequency region similar to the
[他の実施例]
なお、本発明は、複数の機器(例えばコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置、制御装置など)に適用してもよい。
[Other embodiments]
Note that the present invention can be applied to a system including a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), but an apparatus (for example, a copier, a facsimile machine, a control device) including a single device Etc.).
また、本発明の目的は、上記実施例の機能を実現するコンピュータプログラムを記録した記録媒体または記憶媒体をシステムまたは装置に供給する。そして、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記コンピュータプログラムを実行することでも達成される。この場合、記録媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのコンピュータプログラムと、そのコンピュータプログラムを記憶する、コンピュータが読み取り可能な記録媒体は本発明を構成する。 Another object of the present invention is to supply a recording medium or a recording medium recording a computer program for realizing the functions of the above embodiments to a system or apparatus. This can also be achieved by the computer (CPU or MPU) of the system or apparatus executing the computer program. In this case, the software read from the recording medium itself realizes the functions of the above embodiments, and the computer program and the computer-readable recording medium storing the computer program constitute the present invention. .
また、前記コンピュータプログラムの実行により上記機能が実現されるだけではない。つまり、そのコンピュータプログラムの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)および/または第一の、第二の、第三の、…プログラムなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。 Further, the above functions are not only realized by the execution of the computer program. That is, according to the instruction of the computer program, the operating system (OS) and / or the first, second, third,... This includes the case where the above function is realized.
また、前記コンピュータプログラムがコンピュータに接続された機能拡張カードやユニットなどのデバイスのメモリに書き込まれていてもよい。つまり、そのコンピュータプログラムの指示により、第一の、第二の、第三の、…デバイスのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。 The computer program may be written in a memory of a device such as a function expansion card or unit connected to the computer. That is, it includes the case where the CPU of the first, second, third,... Device performs part or all of the actual processing according to the instructions of the computer program, thereby realizing the above functions.
本発明を前記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応または関連するコンピュータプログラムが格納される。 When the present invention is applied to the recording medium, the recording medium stores a computer program corresponding to or related to the flowchart described above.
Claims (10)
前記表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力する入力手段と、
予め指定された画像から、前記RAW画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出する抽出手段と、
前記参照領域に対応するRAW画像および前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記表示画像の上に表示する前記表示手段とを有し、
前記予め指定された画像は、画像の中央部で空間周波数が低く、画像周辺部ほど空間周波数が高いテストチャートである画像処理装置。 Image processing means for generating a display image from a RAW image;
An input means for inputting an instruction indicating a reference area in the display image, and an instruction of a development processing parameter for the reference area;
Extraction means for extracting an image area having a high correlation with the reference area in the RAW image as a similar area from a pre-designated image;
Have a said display means for displaying an image generated by applying the development process parameters RAW image corresponding to the RAW image and the similar region corresponding to the reference region on the display image,
The image processing apparatus is a test chart in which the predesignated image has a lower spatial frequency in the center of the image and a higher spatial frequency in the periphery of the image.
前記表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力し、
予め指定された画像から、前記RAW画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出し、
前記参照領域に対応するRAW画像および前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記表示画像の上に表示し、
前記予め指定された画像は、画像の中央部で空間周波数が低く、画像周辺部ほど空間周波数が高いテストチャートである画像処理方法。 Generate display image from RAW image,
Input an instruction indicating a reference area in the display image, and an instruction of a development processing parameter for the reference area,
From the image specified in advance, an image area having a high correlation with the reference area in the RAW image is extracted as a similar area,
An image generated by applying the development processing parameter to a RAW image corresponding to the reference area and a RAW image corresponding to the similar area is displayed on the display image ,
The image processing method, wherein the pre-designated image is a test chart having a lower spatial frequency in the center of the image and a higher spatial frequency in the periphery of the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013052404A JP5539561B2 (en) | 2013-03-14 | 2013-03-14 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013052404A JP5539561B2 (en) | 2013-03-14 | 2013-03-14 | Image processing apparatus and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008186503A Division JP2010026734A (en) | 2008-07-17 | 2008-07-17 | Image processor and its method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013127819A JP2013127819A (en) | 2013-06-27 |
JP5539561B2 true JP5539561B2 (en) | 2014-07-02 |
Family
ID=48778263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013052404A Expired - Fee Related JP5539561B2 (en) | 2013-03-14 | 2013-03-14 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5539561B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020241855A1 (en) * | 2019-05-31 | 2020-12-03 | 富士フイルム株式会社 | Image processing device, image processing method, and image processing program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3657769B2 (en) * | 1998-03-19 | 2005-06-08 | 富士写真フイルム株式会社 | Image processing method and image processing apparatus |
JP4115177B2 (en) * | 2002-07-04 | 2008-07-09 | 富士フイルム株式会社 | Image processing method, image processing apparatus, and image processing program |
JP4551270B2 (en) * | 2005-04-27 | 2010-09-22 | 富士フイルム株式会社 | Image processing apparatus, image processing method, image processing program, and camera |
JP4665731B2 (en) * | 2005-11-25 | 2011-04-06 | 株式会社ニコン | Camera and image management program |
JP2007189426A (en) * | 2006-01-12 | 2007-07-26 | Fujifilm Corp | Image output apparatus and image output method |
-
2013
- 2013-03-14 JP JP2013052404A patent/JP5539561B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013127819A (en) | 2013-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8941749B2 (en) | Image processing apparatus and method for image synthesis | |
US9538085B2 (en) | Method of providing panoramic image and imaging device thereof | |
JP5984493B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and program | |
JP6711396B2 (en) | Image processing device, imaging device, image processing method, and program | |
JP2008022240A (en) | Photographing device, image processor, image file generating method, image processing method, and image processing program | |
JP2015197745A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6319972B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
US8922681B2 (en) | Image processing device that performs image processing to correct target pixels in a region surrounding a defective pixel | |
EP2219366A1 (en) | Image capturing device, image capturing method, and image capturing program | |
JP6071419B2 (en) | Image processing apparatus and image processing method | |
CN113905219B (en) | Image processing apparatus and method, image processing system, control method, and medium | |
JP6656035B2 (en) | Image processing apparatus, imaging apparatus, and control method for image processing apparatus | |
JP2007074578A (en) | Image processor, photography instrument, and program | |
JP2010026734A (en) | Image processor and its method | |
JP2019110430A (en) | Control apparatus, imaging apparatus, control method, and program | |
US8837866B2 (en) | Image processing apparatus and method for controlling image processing apparatus | |
JP5539561B2 (en) | Image processing apparatus and method | |
JP2016111568A (en) | Image blur correction control device, imaging apparatus, control method and program thereof | |
JP2011199407A (en) | Imaging device, image processor, and image processing method | |
JP6218520B2 (en) | Image processing apparatus, image processing method, and program | |
JP6245847B2 (en) | Image processing apparatus and image processing method | |
JP7183015B2 (en) | Image processing device, image processing method, and program | |
JP7057159B2 (en) | Image processing equipment, image processing methods and programs | |
JP5417920B2 (en) | Image processing apparatus, image processing method, electronic camera, and image processing program | |
JP6818585B2 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140331 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5539561 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140430 |
|
LAPS | Cancellation because of no payment of annual fees |