[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011151627A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2011151627A
JP2011151627A JP2010011374A JP2010011374A JP2011151627A JP 2011151627 A JP2011151627 A JP 2011151627A JP 2010011374 A JP2010011374 A JP 2010011374A JP 2010011374 A JP2010011374 A JP 2010011374A JP 2011151627 A JP2011151627 A JP 2011151627A
Authority
JP
Japan
Prior art keywords
image
imaging
recovery
difference
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010011374A
Other languages
Japanese (ja)
Other versions
JP5534832B2 (en
Inventor
Chie Kikuchi
智恵 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010011374A priority Critical patent/JP5534832B2/en
Publication of JP2011151627A publication Critical patent/JP2011151627A/en
Application granted granted Critical
Publication of JP5534832B2 publication Critical patent/JP5534832B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To change later a strength of recovery processing for an image for which the recovery processing is performed once. <P>SOLUTION: A photographed image obtained by imaging, and a correction filter to be used for performing processing of correcting blurring resulting from aberration of an optical system of an imaging apparatus used for the imaging to the photographed image are acquired. A corrected image is generated by applying the correction filter to the photographed image. A difference image between the photographed image and the corrected image is generated. The photographed image or the corrected image, and the difference image are stored. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像を補正する技術に関する。   The present invention relates to a technique for correcting an image.

ズームレンズ等の光学系によって撮像素子上に結像された被写体像は、元の被写体に比べて劣化する(ボケる)ことが知られている。これは、光学系の収差が原因である。理想的な像を得るために、このような光学系に起因するボケを取り除く技術は、「画像回復処理」あるいは「復元処理」などと呼ばれている。   It is known that a subject image formed on an image sensor by an optical system such as a zoom lens is deteriorated (blurred) compared to the original subject. This is due to the aberration of the optical system. In order to obtain an ideal image, a technique for removing the blur caused by such an optical system is called “image restoration processing” or “restoration processing”.

画像回復技術をデジタルカメラに適用した例が、特許文献1及び特許文献2に開示されている。特許文献1には、撮像装置により得られるボケた画像に対して画像処理を行い、劣化の少ない画像を生成する方法が開示されている。特許文献1の方法では、撮影条件(絞り、焦点距離、被写体までの距離)及び撮像装置の特性情報(レンズの光学特性、撮像装置の識別情報など)を考慮して画像処理を行う。   Examples in which the image restoration technique is applied to a digital camera are disclosed in Patent Document 1 and Patent Document 2. Patent Document 1 discloses a method of performing image processing on a blurred image obtained by an imaging apparatus and generating an image with little deterioration. In the method of Patent Literature 1, image processing is performed in consideration of imaging conditions (aperture, focal length, distance to a subject) and imaging device characteristic information (lens optical characteristics, imaging device identification information, etc.).

特許文献2は、各画素に対して撮影条件を考慮して劣化関数を定め、この劣化関数を用いて画像回復を行う方法を開示している。特許文献2の方法によれば、演算処理の簡素化のために、まず代表的な画素について劣化関数が求められ、他の画素の劣化関数は補間によって求められる。   Patent Document 2 discloses a method of determining a degradation function in consideration of shooting conditions for each pixel and performing image restoration using the degradation function. According to the method of Patent Document 2, in order to simplify the arithmetic processing, first, a degradation function is obtained for a representative pixel, and the degradation functions of other pixels are obtained by interpolation.

特開2000−20691号公報JP 2000-20691 A 特開2001−197354号公報JP 2001-197354 A

しかしながら、特許文献1と特許文献2とのいずれにおいても、回復処理の程度を調整する仕組みは開示されていない。被写体や撮影モードに合わせて、回復処理の強さが変更可能なことが望ましい。たとえば、撮影画像に顔が大きく写っている場合(例えば顔が画像の大部分を占めることを顔検出により検知した場合)、弱い回復処理を行ってボケを残すことにより、画像に柔らかい印象を持たせることができる。また、ポートレートを撮影した場合(例えばポートレートモードで撮影した場合)、風景を撮影した場合(例えば風景モードで撮影した場合)よりも、弱い回復処理を行うことが好ましい。   However, neither of Patent Document 1 and Patent Document 2 discloses a mechanism for adjusting the degree of recovery processing. It is desirable that the strength of the recovery process can be changed according to the subject and the shooting mode. For example, when a face appears large in a captured image (for example, when it is detected by face detection that the face occupies most of the image), a soft impression is given to the image by performing weak recovery processing and leaving blur. Can be made. Further, it is preferable to perform weak recovery processing when shooting a portrait (for example, shooting in portrait mode) than when shooting a landscape (for example, shooting in landscape mode).

さらに、回復処理の強さは任意に(無段階に)変更できることが好ましい。とりわけ、一度回復処理を行って得た画像に対して、さらに回復処理の強さを変更することが好ましい。すると、例えば撮像装置が一律に回復処理を行って得た画像に不満がある場合に、ユーザは回復処理の強さを変更して望みの画像を得ることができる。   Furthermore, it is preferable that the strength of the recovery process can be changed arbitrarily (steplessly). In particular, it is preferable to further change the strength of the recovery process for an image obtained by performing the recovery process once. Then, for example, if the image obtained by the imaging device uniformly performing the recovery process is dissatisfied, the user can change the strength of the recovery process and obtain a desired image.

本発明は、一度回復処理が行われた画像に対して、後に回復処理の強さを変更することを可能とする。   The present invention makes it possible to later change the strength of the recovery process for an image that has been subjected to the recovery process.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。すなわち、
撮像により得られた撮影画像と、前記撮像に用いた撮像装置の光学系の収差に起因するボケを補正する処理を当該撮影画像に対して行うために用いる補正フィルタと、を取得する取得手段と、
前記補正フィルタを前記撮影画像に適用することで補正画像を生成する補正手段と、
前記撮影画像と前記補正画像との差分画像を生成する差分算出手段と、
前記撮影画像若しくは前記補正画像と、前記差分画像とを保存する保存手段と
を備えることを特徴とする。
In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is,
Acquisition means for acquiring a captured image obtained by imaging, and a correction filter used for performing processing for correcting the blur caused by the aberration of the optical system of the imaging apparatus used for the imaging on the captured image; ,
Correction means for generating a corrected image by applying the correction filter to the captured image;
Difference calculating means for generating a difference image between the captured image and the corrected image;
A storage unit that stores the photographed image or the corrected image and the difference image is provided.

一度回復処理が行われた画像に対して、後に回復処理の強さを変更することが可能になる。   It is possible to later change the strength of the recovery process for an image that has been subjected to the recovery process.

実施例1〜9に係る画像処理装置の一例を示すブロック図。1 is a block diagram illustrating an example of an image processing apparatus according to Embodiments 1 to 9. FIG. 信号処理部103の構成の一例を示すブロック図。4 is a block diagram illustrating an example of a configuration of a signal processing unit 103. FIG. 実施例1に係る処理のフローチャート。5 is a flowchart of processing according to the first embodiment. 実施例10に係る画像処理装置の一例を示すブロック図。FIG. 10 is a block diagram illustrating an example of an image processing apparatus according to a tenth embodiment. 実施例3に係る処理のフローチャート。10 is a flowchart of processing according to the third embodiment. 実施例4に係るトリミング座標を説明する図。FIG. 10 is a diagram illustrating trimming coordinates according to the fourth embodiment. 実施例7に係る処理のフローチャート。10 is a flowchart of processing according to the seventh embodiment. 実施例10に係る処理のフローチャート。10 is a flowchart of processing according to Embodiment 10; 位相成分の補正による点像の変化を示す図。The figure which shows the change of the point image by correction | amendment of a phase component. 異なる色成分についてのMTFを示す図。The figure which shows MTF about a different color component.

以下、本発明の実施例を図面に基づいて説明する。ただし、本発明の範囲は以下の実施例に限定されるものではない。以下において回復処理とは、画像に対する補正処理である。以下の各実施例での回復処理では、点像分布関数(PSF)に基づいて、撮像装置の光学系の収差に起因するボケ、とりわけレンズの収差に起因するボケを取り除く。もっとも、他の画像補正処理について本実施例の方法を用いることも可能である。   Embodiments of the present invention will be described below with reference to the drawings. However, the scope of the present invention is not limited to the following examples. Hereinafter, the recovery process is a correction process for an image. In the recovery processing in each of the following embodiments, blur caused by aberration of the optical system of the imaging apparatus, particularly blur caused by lens aberration, is removed based on the point spread function (PSF). However, it is possible to use the method of this embodiment for other image correction processes.

ここでPSFに基づく回復処理について簡単に説明する。撮影された像の強度分布gは、元の物体の輝度分布fと、光学系の結像性能を表す点像分布関数(PSF: Point spread function)hとの畳み込みに、ノイズnを加えたものとして表される。
g = f * h + n (*は畳み込み積分)
g , h, nを既知とすると、元の物体の輝度分布fを求めることができる。
Here, the recovery process based on the PSF will be briefly described. The intensity distribution g of the photographed image is a convolution of the luminance distribution f of the original object and a point spread function (PSF: Point spread function) h representing the imaging performance of the optical system, plus noise n. Represented as:
g = f * h + n (* is a convolution integral)
If g, h, and n are known, the luminance distribution f of the original object can be obtained.

[実施例1]
本実施例では主に、デジタルカメラが撮影した画像を、画像データとして出力する場合について説明する。回復処理に必要なフィルタ等の情報を持たない別の情報処理装置は、画像データに含まれている情報を用いて画像データに対して回復処理を行い、表示又は出力をすることができる。もちろん本実施例で説明する処理を、回復処理に必要な情報を有する情報処理装置が行うこともできる。この場合、回復処理に必要な情報を持たない他の情報処理装置は、画像データに含まれている情報を用いて画像データに対して回復処理を行い、表示又は出力をすることができる。
[Example 1]
In the present embodiment, a case where an image captured by a digital camera is output as image data will be mainly described. Another information processing apparatus that does not have information such as a filter necessary for the restoration process can perform the restoration process on the image data by using the information included in the image data, and can display or output the image data. Of course, the processing described in this embodiment can be performed by an information processing apparatus having information necessary for the recovery processing. In this case, another information processing apparatus that does not have the information necessary for the recovery process can perform the recovery process on the image data using the information included in the image data, and display or output it.

以下で説明するように本実施例では、デモザイク処理後のデータを出力する場合、撮影画像に回復処理前後の差分画像を付加する。特に圧縮した場合、差分画像のデータ量は概して小さい。本実施例の方法によれば、少ないデータ量の増加のみで、後から回復処理の程度を自由に変化させることができる。   As described below, in this embodiment, when outputting data after demosaic processing, a difference image before and after the recovery processing is added to the captured image. In particular, when compressed, the data amount of the difference image is generally small. According to the method of the present embodiment, the degree of recovery processing can be freely changed later with only a small increase in the amount of data.

本実施例においては、画像に対する回復処理の強度を後から変更できるように、レンズ交換式の一眼レフカメラが画像データを作成する。本実施例の一眼レフカメラは、画質優先モード又はデータサイズ優先モードの何れかで、撮像画像を保存することができる。画質優先モードの場合には、撮像画像をRAWデータとして保存する。データサイズ優先モードの場合には、撮像画像をJPEGデータとして保存する。撮像画像の保存形式はこれらに限られず、BMP又はTIFFのような保存形式でもよい。また、3種類以上から選択された保存形式で画像を保存してもよい。   In this embodiment, the lens interchangeable single-lens reflex camera creates image data so that the strength of the recovery process for the image can be changed later. The single-lens reflex camera of the present embodiment can store captured images in either the image quality priority mode or the data size priority mode. In the image quality priority mode, the captured image is stored as RAW data. In the data size priority mode, the captured image is saved as JPEG data. The storage format of the captured image is not limited to these, and may be a storage format such as BMP or TIFF. Further, the image may be stored in a storage format selected from three or more types.

図1は、本実施例における画像処理装置の一例である。撮像部101は、ズームレンズ、フォーカスレンズ、絞り、シャッター、光学ローパスフィルタ、iRカットフィルタ、カラーフィルタ、並びにCMOS及びCCDを含む撮像素子から構成される。撮像部101は、被写体の光量を検知する。A/D変換部102は、撮像部101が検知した被写体の光量を、デジタル値に変換する。信号処理部103は、A/D変換部102が生成したデジタル値に対して、デモザイク処理、ホワイトバランス処理、γ処理、回復処理、及びサムネイル画像作成のための縮小処理のような種々の画像処理を行うことで、デジタル画像を生成する。D/A変換部104は、信号処理部103が生成したデジタル画像に対してアナログ変換を行う。エンコード部105は、信号処理部103が生成したデジタル画像を、JPEGやTIFFなどのファイルフォーマットに変換する。   FIG. 1 is an example of an image processing apparatus according to this embodiment. The imaging unit 101 includes a zoom lens, a focus lens, a diaphragm, a shutter, an optical low-pass filter, an iR cut filter, a color filter, and an imaging device including a CMOS and a CCD. The imaging unit 101 detects the amount of light of the subject. The A / D conversion unit 102 converts the amount of light of the subject detected by the imaging unit 101 into a digital value. The signal processing unit 103 performs various image processing such as demosaic processing, white balance processing, γ processing, recovery processing, and reduction processing for creating thumbnail images on the digital value generated by the A / D conversion unit 102. To generate a digital image. The D / A conversion unit 104 performs analog conversion on the digital image generated by the signal processing unit 103. The encoding unit 105 converts the digital image generated by the signal processing unit 103 into a file format such as JPEG or TIFF.

メディアインターフェース106は、本実施例における画像処理装置に対し、記憶媒体(例えば、ハードディスク、メモリカード、CFカード、SDカード、又はUSBメモリ)を接続するためのインタフェースである。CPU107は、本実施形態における画像処理装置が有する各部の動作を制御する。CPU107は、ROM108又はRAM109に格納された命令を順に読み込み及び解釈し、そして解釈の結果に従って処理を実行する。ROM108及びRAM109は、CPU107の処理に必要なプログラム、データ、及び作業領域を提供する。複数の撮影条件の各々に対応する、回復処理に使用されるフィルタデータもROM108に格納されている(格納手段)。   The media interface 106 is an interface for connecting a storage medium (for example, a hard disk, a memory card, a CF card, an SD card, or a USB memory) to the image processing apparatus in this embodiment. The CPU 107 controls the operation of each unit included in the image processing apparatus according to this embodiment. The CPU 107 sequentially reads and interprets the instructions stored in the ROM 108 or the RAM 109, and executes processing according to the interpretation result. The ROM 108 and the RAM 109 provide programs, data, and work areas necessary for the processing of the CPU 107. Filter data used for recovery processing corresponding to each of a plurality of imaging conditions is also stored in the ROM 108 (storage means).

撮像制御部110は、CPU107の指示に従って撮像系の制御を行う。撮像制御部110は、例えばフォーカスを合わせる、シャッターを開く、絞りを調節するといった動作を制御する。操作部111は、入力されたユーザ指示を受け取る。操作部111は例えば、ボタン及びモードダイヤルを含む。キャラクタジェネレータ112は文字及びグラフィックを生成できる。表示部113は、キャラクタジェネレータ112又はD/A変換部114から受け取った撮影画像又は文字の表示を行う。表示部113は、一般的な液晶ディスプレイを用いることができる。表示部113はタッチスクリーン機能を有していても良い。この場合、表示部113に対するユーザ指示を、操作部111に対する入力と同等に扱うことも可能である。   The imaging control unit 110 controls the imaging system according to instructions from the CPU 107. The imaging control unit 110 controls operations such as focusing, opening a shutter, and adjusting an aperture. The operation unit 111 receives the input user instruction. The operation unit 111 includes, for example, a button and a mode dial. The character generator 112 can generate characters and graphics. The display unit 113 displays captured images or characters received from the character generator 112 or the D / A conversion unit 114. As the display unit 113, a general liquid crystal display can be used. The display unit 113 may have a touch screen function. In this case, a user instruction to the display unit 113 can be handled in the same way as an input to the operation unit 111.

図2は、信号処理部103の内部を概略的に示す。切り替え部201は、信号処理部103が出力するデータを、RAWデータと、JPEGデータのようなデモザイク後のデータとの間で切り替える。すなわち切り替え部201は、RAWデータ(撮像データ)を出力する(第1のモード)か、デモザイク後のデータを出力する(第2のモード)かを設定する。デモザイク処理部203は、A/D変換部102から取得した撮影画像に対してデモザイク処理を行う(取得手段)。すなわちデモザイク処理部203は、ベイヤ配列になっているRGBデータを補間することによって、撮像画像からRGB画像を作成する。デモザイク処理部203は、ホワイトバランス処理又はγ処理のような画像処理を行っても良い。   FIG. 2 schematically shows the inside of the signal processing unit 103. The switching unit 201 switches data output from the signal processing unit 103 between RAW data and demosaiced data such as JPEG data. That is, the switching unit 201 sets whether to output RAW data (imaging data) (first mode) or to output demosaic data (second mode). The demosaic processing unit 203 performs demosaic processing on the captured image acquired from the A / D conversion unit 102 (acquisition unit). That is, the demosaic processing unit 203 creates an RGB image from the captured image by interpolating the RGB data in the Bayer array. The demosaic processing unit 203 may perform image processing such as white balance processing or γ processing.

回復処理部204は、デモザイク処理部203が生成したRGBデータに対して、フィルタデータ202を用いて回復処理を行う(補正手段)。フィルタデータ202は、レンズのOTFから導出され、回復処理に用いられるデータである。ROM108には、1以上のフィルタデータ202が保存されている。回復処理部204は、撮影時のレンズの種類、ズーム位置、絞り、被写体距離、及び撮影モードのような条件に応じて、フィルタデータ202をROM108から選択する。差分算出部205は、回復処理部204が生成した画像(補正画像)と、デモザイク処理部203が生成した画像との差分を計算する(差分算出手段)。条件取得部206は、デモザイク処理部203が取得した画像データの、撮像時の撮影条件を取得する。撮影条件には、レンズの種類、ズーム位置、絞り値、被写体距離、撮影モード、出力する画像タイプ(RAWまたはJPEG)等が含まれる。   The recovery processing unit 204 performs recovery processing on the RGB data generated by the demosaic processing unit 203 using the filter data 202 (correction unit). The filter data 202 is data derived from the lens OTF and used for the recovery process. The ROM 108 stores one or more filter data 202. The recovery processing unit 204 selects the filter data 202 from the ROM 108 according to conditions such as the type of lens at the time of shooting, the zoom position, the aperture, the subject distance, and the shooting mode. The difference calculating unit 205 calculates a difference between the image (corrected image) generated by the recovery processing unit 204 and the image generated by the demosaic processing unit 203 (difference calculating unit). The condition acquisition unit 206 acquires imaging conditions at the time of imaging of the image data acquired by the demosaic processing unit 203. The shooting conditions include the lens type, zoom position, aperture value, subject distance, shooting mode, output image type (RAW or JPEG), and the like.

本実施例の画像処理装置がRAWデータを保存する場合、切り替え部201は、A/D変換部102から取得したデモザイク前のRAWデータと、フィルタデータ202とを、エンコード部105に送る。するとエンコード部105は、RAWデータとフィルタデータ202とを、RAWフォーマットで出力する。また、本実施例の画像処理装置がJPEGデータを保存する場合、切り替え部201は、デモザイク処理部203が出力したデータと、差分算出部205が出力した差分データとを、エンコード部105に送る。するとエンコード部105は、デモザイク処理部203が出力したデータをJPEG規格に従って圧縮する。そしてエンコード部105は、圧縮したデータに対してJPEGフォーマットに従って差分データを付加し、生成したデータをJPEGデータとして出力することにより保存する(保存手段)。   When the image processing apparatus according to the present exemplary embodiment stores RAW data, the switching unit 201 sends the demosaic RAW data acquired from the A / D conversion unit 102 and the filter data 202 to the encoding unit 105. Then, the encoding unit 105 outputs the RAW data and the filter data 202 in the RAW format. When the image processing apparatus according to the present exemplary embodiment stores JPEG data, the switching unit 201 sends the data output from the demosaic processing unit 203 and the difference data output from the difference calculation unit 205 to the encoding unit 105. Then, the encoding unit 105 compresses the data output from the demosaic processing unit 203 according to the JPEG standard. The encoding unit 105 adds difference data to the compressed data according to the JPEG format, and saves the generated data by outputting it as JPEG data (storing means).

図3は、本実施例の画像処理装置の処理を示すフローチャートである。本実施例の画像処理装置は、図3のフローチャートに従って、撮像データを受信して、画像ファイルとして出力する。ステップS301で信号処理部103は、入力された撮像データを受信する。撮像データはベイヤ配列になったRGBデータである。このデータを以下RAW画像データと呼ぶ。ステップS302で条件取得部206は、ステップS301で受信された撮影データの撮影条件を取得する。ステップS303で回復処理部204は、ステップS302で取得した撮影条件に合致する回復フィルタを、ROM108から読み込む。   FIG. 3 is a flowchart illustrating processing of the image processing apparatus according to the present exemplary embodiment. The image processing apparatus according to the present embodiment receives imaging data and outputs it as an image file according to the flowchart of FIG. In step S301, the signal processing unit 103 receives the input imaging data. The imaging data is RGB data in a Bayer array. This data is hereinafter referred to as RAW image data. In step S302, the condition acquisition unit 206 acquires the shooting condition of the shooting data received in step S301. In step S303, the recovery processing unit 204 reads from the ROM 108 a recovery filter that matches the imaging condition acquired in step S302.

ステップS304で回復処理部204は、ステップS302で取得された撮影条件から、出力する画像タイプがRAWデータであるかどうかを判断する。画像タイプがRAWデータであれば、処理はステップS305へ進む。画像タイプがJPEGデータであれば、処理はステップS306へ進む。ステップS305で切り替え部201は、ステップS301で取得されたRAWデータと、ステップS303で取得された回復フィルタのフィルタ係数とを、エンコード部105に送信する。エンコード部105は、ステップS301で取得されたRAWデータと、ステップS303で取得された回復フィルタのフィルタ係数とを保存する。そして、この処理は終了する。   In step S304, the recovery processing unit 204 determines whether or not the image type to be output is RAW data based on the imaging conditions acquired in step S302. If the image type is RAW data, the process proceeds to step S305. If the image type is JPEG data, the process proceeds to step S306. In step S305, the switching unit 201 transmits the RAW data acquired in step S301 and the filter coefficient of the recovery filter acquired in step S303 to the encoding unit 105. The encoding unit 105 stores the RAW data acquired in step S301 and the filter coefficient of the recovery filter acquired in step S303. Then, this process ends.

一方、ステップS306でデモザイク処理部203は、ステップS301で取得されたベイヤ配列の画像を補間することにより、補間画像を作成する。ステップS307で回復処理部204は、ステップS303で取得された回復フィルタを、ステップS306で作成された補間画像データに適用することにより、回復画像を作成する。具体的な例としては、回復処理部204はコンボリューション処理を行う。ステップS308で差分算出部205は、ステップS307で取得された回復画像と、ステップS306で取得された補間画像との差分画像を取得する。具体的には差分算出部205は、各画像の対応する画素値の差分を計算することにより、差分画像を計算する。この差分画像は、回復処理における補正量を示す。そしてこの差分画像が、後に回復処理の強さを調整する際に用いられる。具体的な回復処理の強さの調整方法は、実施例10において説明する。   On the other hand, in step S306, the demosaic processing unit 203 creates an interpolation image by interpolating the Bayer array image acquired in step S301. In step S307, the restoration processing unit 204 creates a restored image by applying the restoration filter acquired in step S303 to the interpolated image data created in step S306. As a specific example, the recovery processing unit 204 performs a convolution process. In step S308, the difference calculation unit 205 acquires a difference image between the restored image acquired in step S307 and the interpolated image acquired in step S306. Specifically, the difference calculation unit 205 calculates a difference image by calculating a difference between corresponding pixel values of each image. This difference image indicates the correction amount in the recovery process. This difference image is used later when adjusting the strength of the recovery process. A specific method for adjusting the strength of the recovery process will be described in the tenth embodiment.

ステップS309でエンコード部105は、ステップS306で取得した補間画像をJPEG圧縮する。ステップS310でエンコード部105は、ステップS309で得られたJPEG画像と、ステップS308で取得した差分画像とを保存する。そして、この処理は終了する。   In step S309, the encoding unit 105 performs JPEG compression on the interpolated image acquired in step S306. In step S310, the encoding unit 105 stores the JPEG image obtained in step S309 and the difference image acquired in step S308. Then, this process ends.

本実施例においては、JPEG出力とRAW出力との何れかを選択することが可能である。しかしながら、本実施形態のデジタルカメラは、JPEG出力のみが可能であってもよいし、RAW出力のみが可能であってもよい。また、JPEG出力を行う場合、差分画像がJPEG画像とは別のファイルとして出力されてもよい。代わりに、差分画像がJPEG画像のファイルに含めて出力されてもよい。具体的には、ステップS310においてエンコード部105がExifファイルフォーマットに準拠したフォーマットで画像を保存することが考えられる。この場合、差分画像を、APP1マーカ内Exif IFDの中にあるMakernotesタグの中に保存すればよい。   In this embodiment, it is possible to select either JPEG output or RAW output. However, the digital camera of this embodiment may be capable of only JPEG output or only RAW output. When JPEG output is performed, the difference image may be output as a file different from the JPEG image. Instead, the difference image may be included in the JPEG image file and output. Specifically, it is conceivable that the encoding unit 105 stores an image in a format that conforms to the Exif file format in step S310. In this case, the difference image may be stored in the Makernotes tag in the Exif IFD in the APP1 marker.

一方RAWデータについても、フィルタ係数はRAWデータのファイルとは別のファイルとして保存されてもよい。あるいは、フィルタ係数がRAWデータのファイルに含めて出力されてもよい。統一されたRAWデータのファイルフォーマットは存在しない。そのため、RAWデータとフィルタ係数とは、どのように保存されても良い。   On the other hand, for RAW data, the filter coefficient may be stored as a separate file from the RAW data file. Alternatively, the filter coefficient may be included in the RAW data file and output. There is no unified RAW data file format. Therefore, the RAW data and the filter coefficient may be stored in any way.

本実施例では、デジタルカメラが撮像データをJPEG圧縮し、そしてJPEG画像と差分画像とを保存する。しかしながら、差分画像と共に保存する撮影画像は、デモザイク後の画像であれば、圧縮されていても、圧縮されていなくてもよい。例えば撮影画像は、Exifファイルフォーマットに準拠した非圧縮のTIFFファイルとして保存されてもよい。TIFF形式が用いられる場合、JPEGの時と同様に、Exif IFDの中にあるMakernotesタグの中に差分画像が保存されればよい。また、撮影画像をJPEG2000形式で圧縮してもよい。このとき撮影画像がJP2ファイルに保存されるのであれば、エンコード部105は差分データを書き込むBOXを一つ作成し、このBOXの中に差分データを書き込めばよい。撮影画像がPNG形式で保存される場合、エンコード部105は独自チャンクを用意し、そのチャンクの中に差分データを書き込めばよい。その他のファイルフォーマットが採用される場合にも、エンコード部105はそれぞれのフォーマットに準拠した方法を採用すればよい。   In this embodiment, the digital camera compresses the captured data using JPEG, and stores the JPEG image and the difference image. However, the captured image stored together with the difference image may be compressed or not compressed as long as it is a demosaiced image. For example, the captured image may be stored as an uncompressed TIFF file conforming to the Exif file format. When the TIFF format is used, the difference image may be stored in the Makernotes tag in the Exif IFD as in the case of JPEG. The captured image may be compressed in the JPEG2000 format. At this time, if the captured image is stored in the JP2 file, the encoding unit 105 may create one BOX into which the difference data is written, and write the difference data in the BOX. When the captured image is stored in the PNG format, the encoding unit 105 prepares a unique chunk and writes the difference data in the chunk. Even when other file formats are adopted, the encoding unit 105 may adopt a method that complies with each format.

本実施例ではエンコード部105は、デモザイク処理部203が生成した補間画像をJPEG圧縮する。しかしながらエンコード部105は、回復処理部204が生成した回復画像をJPEG圧縮してもよい。この場合エンコード部105は、圧縮された回復画像と、差分算出部205が生成した差分画像とを保存する。回復画像と差分画像とを用いることによっても、回復処理の強さを後から調整することができる。すなわちエンコード部105は、圧縮されていてもいなくてもよい撮影画像若しくは補正画像(補間画像若しくは回復画像)と、差分画像とを出力すればよい。   In this embodiment, the encoding unit 105 performs JPEG compression on the interpolated image generated by the demosaic processing unit 203. However, the encoding unit 105 may JPEG compress the recovered image generated by the recovery processing unit 204. In this case, the encoding unit 105 stores the compressed restored image and the difference image generated by the difference calculation unit 205. By using the restored image and the difference image, the strength of the restoration process can be adjusted later. That is, the encoding unit 105 may output a captured image or a corrected image (interpolated image or restored image) that may or may not be compressed, and a difference image.

[実施例2]
実施例1では、RAWデータにフィルタ係数を付加して保存した。本実施例では、RAWデータにはOTFデータを付加して保存する。実施例1に記載のように付加したフィルタ係数を用いて、処理装置がRAWデータの回復処理の強さを変更する方法は2つある。1つ目の方法は、フィルタ係数を直接変更する方法である。例えば処理装置は、フィルタの中央の値から、フィルタ係数の総和(通常は1)を引く。続いて処理装置は、各々のフィルタ係数を一律x倍する。最後に処理装置は、フィルタの中央の値に先ほど引いた値(つまり、1)を足す。このようにして、新しいフィルタ係数が作成されうる。(簡単のため、1次元フィルタを例にすると、元の係数が[−2 5 −2]であり、xが0.5である場合には、新しいフィルタ係数は[−1 3 −1]となる。)2つ目の方法では、処理装置はフィルタ係数をフーリエ変換により周波数空間に変換する。次に処理装置はフィルタゲインを変更する。最後に、処理装置は逆フーリエ変換を行い、新しいフィルタ係数を得る。
[Example 2]
In Example 1, a filter coefficient is added to RAW data and stored. In this embodiment, OTF data is added to RAW data and stored. There are two methods by which the processing device changes the strength of the RAW data recovery processing using the added filter coefficient as described in the first embodiment. The first method is to directly change the filter coefficient. For example, the processing device subtracts the sum (usually 1) of the filter coefficients from the central value of the filter. Subsequently, the processing apparatus uniformly multiplies each filter coefficient by x. Finally, the processing device adds the value (i.e., 1) previously subtracted to the central value of the filter. In this way, new filter coefficients can be created. (For simplicity, taking a one-dimensional filter as an example, if the original coefficient is [−2 5 −2] and x is 0.5, the new filter coefficient is [−1 3 −1]. In the second method, the processing device converts the filter coefficient into a frequency space by Fourier transform. Next, the processing device changes the filter gain. Finally, the processor performs an inverse Fourier transform to obtain new filter coefficients.

前者の方法を用いると、処理装置は簡単な計算を用いることでフィルタの強度を変えることができる。しかしながらこの方法では、変更後のフィルタの周波数特性を知ることができない。後者の方法を用いると、フィルタの周波数特性がより高精度に制御されうる。しかしながら、フーリエ変換および逆フーリエ変換という複雑な処理が用いられるために、処理が重くなる。また、フィルタ係数からフィルタの周波数特性を求めることはできるが、レンズのOTFを算出することはできない。したがって、回復フィルタの算出方法が変更された場合、例えばRAW画像データの補間方法が変更された場合に、正しく対応できない。   When the former method is used, the processing apparatus can change the strength of the filter by using a simple calculation. However, with this method, the frequency characteristics of the changed filter cannot be known. When the latter method is used, the frequency characteristics of the filter can be controlled with higher accuracy. However, since complicated processes such as Fourier transform and inverse Fourier transform are used, the process becomes heavy. In addition, the frequency characteristic of the filter can be obtained from the filter coefficient, but the OTF of the lens cannot be calculated. Therefore, when the calculation method of the recovery filter is changed, for example, when the interpolation method of the RAW image data is changed, it cannot be correctly handled.

そこで本実施例では、RAWデータとともに、回復フィルタを作成するための情報、すなわちレンズのOTFデータを保存する。本実施例での処理は実施例1とほぼ同様である。以下では図3を参照しながら、実施例1と異なる点についてのみ説明する。ステップS303で回復処理部204は、回復フィルタを取得する代わりに、レンズのOTFデータをROM108から読み込む。ここで回復処理部204は、ステップS302で取得された撮影条件に対応するOTFデータを読み込む。実施例1と同様に、ステップ305はRAWデータが保存される場合に行われる。このとき切り替え部201は、RAW画像データとステップS303で読み込んだOTFデータとをエンコード部105に出力する。エンコード部105は、RAWデータOTFデータとを保存する。   In this embodiment, information for creating a recovery filter, that is, lens OTF data is stored together with the RAW data. The processing in this embodiment is almost the same as that in the first embodiment. Hereinafter, only differences from the first embodiment will be described with reference to FIG. In step S303, the recovery processing unit 204 reads the lens OTF data from the ROM 108 instead of acquiring the recovery filter. Here, the recovery processing unit 204 reads the OTF data corresponding to the imaging condition acquired in step S302. As in the first embodiment, step 305 is performed when RAW data is stored. At this time, the switching unit 201 outputs the RAW image data and the OTF data read in step S303 to the encoding unit 105. The encoding unit 105 stores RAW data OTF data.

ステップS307は、実施例1と同様に、JPEGデータが保存される場合に行われる。このとき回復処理部204は、ステップS303で読み込んだOTFデータから回復フィルタを生成する。そして、生成した回復フィルタを用いて、実施例1と同様に補間画像から回復画像を生成する。回復フィルタを作成するためには、ウィナーフィルタなど既存の方法を用いればよい。   Step S307 is performed when JPEG data is stored, as in the first embodiment. At this time, the recovery processing unit 204 generates a recovery filter from the OTF data read in step S303. Then, using the generated recovery filter, a recovered image is generated from the interpolated image as in the first embodiment. In order to create a recovery filter, an existing method such as a Wiener filter may be used.

本実施例の方法によれば、RAW画像データと共に、レンズのOTFデータを保存することができる。このため、フィルタの算出方法及びフィルタの周波数特性を自由に変更することができる。フィルタを自由に変更することができるため、RAW画像データに対する回復処理をより適切に調節することが可能である。   According to the method of the present embodiment, the OTF data of the lens can be stored together with the RAW image data. For this reason, the calculation method of a filter and the frequency characteristic of a filter can be changed freely. Since the filter can be freely changed, the recovery process for the RAW image data can be adjusted more appropriately.

[実施例3]
実施例1の方法に従うと、撮影画像に対する回復処理の強さを後に変更することができる。しかしながら、回復処理の強さを変更できないようにすることも可能である。例えば、回復処理を調整した撮影者は、画像がそれ以上に調整されることを望まないことがある。この場合、JPEG画像に対して差分画像を付加しなければよい。しかしながら差分画像のないJPEG画像を取得した場合、その画像に対して既に回復処理の調整が行われているのか、それとも回復処理の調整は行われていないのか、を判別することは困難である。第三者から回復フィルタを入手することにより、回復処理の調整が行われていない画像に対して、回復処理を行うことも可能である。しかし、もし回復処理の調整が行われている画像に回復処理を行った場合、撮影者の意図が損なわれる上に、リンギングなどの弊害が発生する。
[Example 3]
According to the method of the first embodiment, the strength of the recovery process for the captured image can be changed later. However, it is possible not to change the strength of the recovery process. For example, a photographer who has adjusted the recovery process may not want the image to be adjusted further. In this case, the difference image need not be added to the JPEG image. However, when a JPEG image without a difference image is acquired, it is difficult to determine whether restoration processing has already been adjusted for the image or whether restoration processing has been adjusted. By obtaining a recovery filter from a third party, it is possible to perform recovery processing on an image that has not been adjusted for recovery processing. However, if the recovery process is performed on an image for which the recovery process is adjusted, the photographer's intention is impaired and a problem such as ringing occurs.

従って、回復処理が既に調整されている画像データには、回復処理が調整されていることを示すマークが付されることが望ましい。そこで本実施例では、回復処理の調整が禁止されたJPEG画像に対してはマークを付す。以下で、本実施例の方法を図5を参照して説明する。本実施例の方法は実施例1と類似しており、同様の工程は説明を省略する。図5において、実施例1と同様の動作が行われるステップは、図3と同じ番号が付されている。   Therefore, it is desirable that a mark indicating that the recovery process is adjusted is attached to the image data whose recovery process has already been adjusted. Therefore, in this embodiment, a mark is attached to a JPEG image in which adjustment of recovery processing is prohibited. Hereinafter, the method of this embodiment will be described with reference to FIG. The method of this example is similar to that of Example 1, and the description of the same steps is omitted. In FIG. 5, steps in which operations similar to those in the first embodiment are performed are assigned the same numbers as in FIG. 3.

実施例1と同様に、ステップS307において回復処理部204は回復画像を生成する。本実施例においてはステップS307で、回復フィルタの係数を調整することにより、回復処理の強さを調節してもよい。フィルタ係数の調整は、撮影条件に従って行われてもよいし、画像認識の結果に基づいて行われてもよいし、ユーザによって行われてもよい。ステップS501で差分算出部205は、回復処理の強さの調整を可能にするか否かを判断する。この判断は、ステップS302で取得された撮影条件に基づいて行われてもよいし、ユーザの指示に基づいて行われてもよい。   Similar to the first embodiment, the recovery processing unit 204 generates a recovered image in step S307. In this embodiment, the strength of the recovery process may be adjusted by adjusting the coefficient of the recovery filter in step S307. The adjustment of the filter coefficient may be performed according to the shooting conditions, may be performed based on the result of image recognition, or may be performed by the user. In step S501, the difference calculation unit 205 determines whether or not the strength of the recovery process can be adjusted. This determination may be made based on the shooting conditions acquired in step S302, or may be made based on a user instruction.

回復処理の強さの調整を可能にする場合、処理はステップS501からステップS308に進む。ステップS308及びステップS309の処理は実施例1と同様である。そしてステップS502においてエンコード部105は、回復フラグFrに、回復処理が可能なことを示す値(本実施例では0)をセットする。ステップS503でエンコード部105は、ステップS309で作成された回復前のJPEG画像と、ステップS502で作成された回復フラグと、ステップS308で作成された差分画像とを保存する。   When it is possible to adjust the strength of the recovery process, the process proceeds from step S501 to step S308. The processing in step S308 and step S309 is the same as that in the first embodiment. In step S502, the encoding unit 105 sets a value (0 in this embodiment) indicating that recovery processing is possible in the recovery flag Fr. In step S503, the encoding unit 105 stores the pre-recovery JPEG image created in step S309, the recovery flag created in step S502, and the difference image created in step S308.

回復処理の強さの調整を不可能にする場合、処理はステップS501からステップS504に進む。ステップS504でエンコード部105は、ステップS307で取得された回復画像をJPEG圧縮する。ステップS505でエンコード部105は、回復フラグFrに、回復処理が不可能なことを示す値(本実施例では1)をセットする。ステップS506でエンコード部105は、ステップS504で作成されたJPEG画像と、ステップS505で作成された回復フラグとを保存する。   When it is impossible to adjust the strength of the recovery process, the process proceeds from step S501 to step S504. In step S504, the encoding unit 105 performs JPEG compression on the recovered image acquired in step S307. In step S505, the encoding unit 105 sets a value (1 in this embodiment) indicating that the recovery process is impossible in the recovery flag Fr. In step S506, the encoding unit 105 stores the JPEG image created in step S504 and the recovery flag created in step S505.

こうして、回復用の差分画像がないJPEG画像を扱う際に、回復処理が調整されているJPEG画像と、回復処理が調整されていないJPEG画像とを区別することができる。これによって、回復処理を2重に行うことによって画質を劣化させることを防止できる。本実施例ではデジタルカメラが画像を保存する際に回復フラグを付加する。しかしながら情報処理装置が、実施例1に従って生成したJPEG画像を読み込み、回復処理の強さを調整して再び保存する場合にも、本実施例の方法を用いることができる。   In this way, when a JPEG image without a recovery differential image is handled, it is possible to distinguish between a JPEG image for which recovery processing has been adjusted and a JPEG image for which recovery processing has not been adjusted. Thereby, it is possible to prevent the image quality from being deteriorated by performing the recovery process twice. In this embodiment, a recovery flag is added when the digital camera stores an image. However, the method of this embodiment can also be used when the information processing apparatus reads a JPEG image generated according to the first embodiment, adjusts the strength of the recovery process, and saves it again.

[実施例4]
本実施例ではJPEG画像に対して、回復用の差分画像と共に、トリミング情報を付加する。JPEG画像には通常、トリミングされたことを示す情報が存在しない。トリミングが行われた場合、回復用の差分画像と元のJPEG画像との間で画像サイズが異なることがある。この場合、JPEG画像と差分画像との各画素値を足し合わせることで回復処理された画像を得ることはできない。JPEG画像と差分画像との位置を合わせる処理が必要となる。
[Example 4]
In this embodiment, trimming information is added to a JPEG image together with a recovery difference image. JPEG images usually do not contain information indicating that they have been trimmed. When trimming is performed, the image size may differ between the restoration difference image and the original JPEG image. In this case, the restored image cannot be obtained by adding the pixel values of the JPEG image and the difference image. A process for matching the positions of the JPEG image and the difference image is required.

収差の回復処理を行う場合、差分画像は通常エッジ情報を示す。したがって、JPEG画像からエッジ情報を取得し、取得したエッジ情報を用いて差分画像とJPEG画像との位置を合わせることも可能である。しかしながら、このようなパターンマッチングには時間がかかる。また例えば、多数の細かいエッジを含む画像、類似の繰り返しパターンを含む画像、又はエッジ情報が非常に少ない画像を用いる場合に、位置合わせは難しくなる。   When the aberration recovery process is performed, the difference image normally indicates edge information. Therefore, it is also possible to acquire edge information from a JPEG image and match the positions of the difference image and the JPEG image using the acquired edge information. However, such pattern matching takes time. Further, for example, when using an image including a large number of fine edges, an image including a similar repetitive pattern, or an image having very little edge information, alignment becomes difficult.

以下で、本実施例の方法を図3を参照して説明する。本実施例の方法は実施例1と類似しており、同様の工程は説明を省略する。ステップS310においてエンコード部105は、トリミング情報を取得する。トリミング情報は、トリミングの有無を示すフラグFt、トリミング前の画像の画素数(W,H)、及びトリミング画像位置Ptを含む。図6に、トリミング画像602のトリミング情報を示す。601はトリミング前の画像を示す。また、602はトリミング後の画像を示す。本実施例では、トリミング前の画素数は(W,H)=(1600,1200)である。トリミング画像602はトリミングされているから、フラグFtはトリミングされていることを示す値(本実施例の場合は1)を持つ。トリミング画像位置Ptは例えば、トリミング前の画像における、トリミング領域の左上の座標であればよい。本実施例においては、トリミング画像602のPt(X,Y)は、(300,300)となる。その後エンコード部105は、ステップS309で作成されたJPEG画像と、ステップS308で作成された差分データと、上述のトリミング情報とを保存する。   Hereinafter, the method of this embodiment will be described with reference to FIG. The method of this example is similar to that of Example 1, and the description of the same steps is omitted. In step S310, the encoding unit 105 acquires trimming information. The trimming information includes a flag Ft indicating the presence / absence of trimming, the number of pixels (W, H) of an image before trimming, and a trimmed image position Pt. FIG. 6 shows the trimming information of the trimmed image 602. Reference numeral 601 denotes an image before trimming. Reference numeral 602 denotes an image after trimming. In this embodiment, the number of pixels before trimming is (W, H) = (1600, 1200). Since the trimmed image 602 is trimmed, the flag Ft has a value (1 in this embodiment) indicating that trimming has been performed. The trimming image position Pt may be, for example, the upper left coordinates of the trimming area in the image before trimming. In the present embodiment, Pt (X, Y) of the trimmed image 602 is (300, 300). Thereafter, the encoding unit 105 stores the JPEG image created in step S309, the difference data created in step S308, and the above-described trimming information.

本実施例によれば、JPEG画像をトリミングした場合にも、トリミング情報を参照することにより、JPEG画像に対して差分画像を正しく用いることができる。本実施例ではデジタルカメラが画像を保存する際にトリミングを行う。しかしながら情報処理装置が、実施例1に従って生成したJPEG画像を読み込み、トリミングを行って再び保存する場合にも、本実施例の方法を用いることができる。   According to the present embodiment, even when a JPEG image is trimmed, the difference image can be correctly used for the JPEG image by referring to the trimming information. In this embodiment, trimming is performed when the digital camera stores an image. However, the method of this embodiment can also be used when the information processing apparatus reads a JPEG image generated according to the first embodiment, performs trimming, and saves it again.

[実施例5]
本実施例では、差分画像に加えて、回復処理の強さも、JPEG画像と一緒に保存する。実施例1〜4では、JPEG画像と差分画像とが保存される。一方、回復処理の強さが調整された後で、調整後のデータを保存できることが好ましい。実施例1〜4に従うと、調整後のデータを保存する場合、差分画像が書き換えられるだろう。しかしながら、データを調整した後に、このデータをさらに調整する場合、最後に保存された画像を調整することになる。この場合、調整の基準が変わるため、調整が難しくなるかもしれない。
[Example 5]
In this embodiment, in addition to the difference image, the strength of the recovery process is also stored together with the JPEG image. In the first to fourth embodiments, a JPEG image and a difference image are stored. On the other hand, it is preferable that the adjusted data can be stored after the strength of the recovery process is adjusted. According to the first to fourth embodiments, when the adjusted data is stored, the difference image will be rewritten. However, if the data is further adjusted after adjusting the data, the last stored image is adjusted. In this case, adjustment may be difficult because the adjustment reference changes.

例えば、ユーザが回復処理の強さを「0.5」にして保存した後で、ユーザはもう少し回復処理を強くしたいと思うかもしれない。この場合、ユーザは回復処理の強さを例えば「0.6」にするのではなく、「1.2」にしなければならない。この特性は、ユーザの直感的な操作を困難にする。さらには、調整時に切り捨て処理が発生することにより、差分画像が次第に劣化していく可能性がある。そこで、本実施例では、回復処理の強さを差分画像と一緒に保存する。   For example, after the user saves the recovery process with a strength of “0.5”, the user may want to make the recovery process a little stronger. In this case, the user has to set the strength of the recovery process to “1.2” instead of “0.6”, for example. This characteristic makes the user's intuitive operation difficult. Furthermore, there is a possibility that the difference image gradually deteriorates due to the truncation process occurring during adjustment. Therefore, in this embodiment, the strength of the recovery process is stored together with the difference image.

本実施例の方法を、図3を用いて説明する。本実施例の方法は実施例1と類似しており、同様の工程は説明を省略する。ステップS310においてエンコード部105は、回復処理の強さを決定する。この際エンコード部105は、ステップS302で取得された撮影条件、ユーザの指示、等を考慮する。例えば、レンズの種類、撮影距離、ズーム位置、絞り、及び光源が同じ場合、撮影モードがポートレートモードである時には、風景モードである時よりも回復処理の強さを弱くしてもよい。一例として、風景モードであれば調整値を1.0に、ポートレートモードであれば調整値を0.75にしてもよい。実施例10で説明するが、調整値は回復処理の強さを示す。その後エンコード部105は、ステップS309で取得されたJPEG画像と、ステップS308で取得された差分画像と、以上の調整値とを保存する。   The method of the present embodiment will be described with reference to FIG. The method of this example is similar to that of Example 1, and the description of the same steps is omitted. In step S310, the encoding unit 105 determines the strength of the recovery process. At this time, the encoding unit 105 considers the imaging conditions acquired in step S302, user instructions, and the like. For example, when the lens type, the shooting distance, the zoom position, the aperture, and the light source are the same, the strength of the recovery process may be weaker when the shooting mode is the portrait mode than when the shooting mode is the landscape mode. As an example, the adjustment value may be set to 1.0 in the landscape mode, and the adjustment value may be set to 0.75 in the portrait mode. As will be described in Example 10, the adjustment value indicates the strength of the recovery process. Thereafter, the encoding unit 105 stores the JPEG image acquired in step S309, the difference image acquired in step S308, and the above adjustment values.

本実施例では、撮影モードを考慮して調整値が決定された。しかしながら、デジタルカメラが撮影画像を解析し、エンコード部105は解析結果に従って調整値を決定してもよい。例えば、顔検出により検出された1つの顔が、撮影画像の大きさに対して所定以上の比率を占める場合、調整値を小さくしてもよい。撮影画像のシーン解析によって、画像が室内で撮影されていると判断された場合、ノイズが大きい可能性を考慮して調整値を小さくしてもよい。   In this embodiment, the adjustment value is determined in consideration of the shooting mode. However, the digital camera may analyze the captured image, and the encoding unit 105 may determine the adjustment value according to the analysis result. For example, when one face detected by face detection occupies a predetermined ratio or more with respect to the size of the captured image, the adjustment value may be decreased. If it is determined by scene analysis of the captured image that the image is captured indoors, the adjustment value may be decreased in consideration of the possibility of large noise.

本実施例ではデジタルカメラが画像を保存する際に調整値を決定する。しかしながら情報処理装置が、本実施例に従って生成したJPEG画像を読み込み、回復処理の再調整を行って再び保存する場合にも、本実施例の方法を用いることができる。すなわち、回復処理を再調整することで得られた調整値を、保存されている調整値に上書きすればよい。本実施例によれば、回復処理の強さを再調整する場合に、調整の基準を一定にすることができる。前出の例によれば、回復処理の強さを「0.5」よりも強くしたいときに、ユーザは「0.6」を指定すればよい。   In this embodiment, the adjustment value is determined when the digital camera stores an image. However, the method of this embodiment can also be used when the information processing apparatus reads a JPEG image generated according to this embodiment, performs readjustment of recovery processing, and saves it again. That is, the adjustment value obtained by readjusting the recovery process may be overwritten on the stored adjustment value. According to the present embodiment, when the strength of the recovery process is readjusted, the adjustment reference can be made constant. According to the previous example, when the strength of the recovery process is desired to be stronger than “0.5”, the user may specify “0.6”.

[実施例6]
実施例1〜5では、OTFデータから算出された回復フィルタを使用する補正処理について説明した。実施例1〜5の方法で回復処理を行うと、画像の位相成分(PTF成分)と振幅成分(MTF成分)との両方が補正される。したがって、実施例1〜5の方法で差分データを用いた回復処理の調整を行うと、PTF成分とMTF成分との回復処理は同じ強さとなる。回復処理を弱くするほど、倍率色収差による色ずれ、及びコマ収差による像の流れ、のように非対称なボケが多く出現する。
[Example 6]
In the first to fifth embodiments, the correction process using the recovery filter calculated from the OTF data has been described. When the restoration process is performed by the methods of the first to fifth embodiments, both the phase component (PTF component) and the amplitude component (MTF component) of the image are corrected. Therefore, when the recovery process is adjusted using the difference data by the methods of Embodiments 1 to 5, the recovery process of the PTF component and the MTF component has the same strength. The weaker the recovery process, the more asymmetric blur appears, such as color shift due to lateral chromatic aberration and image flow due to coma aberration.

図9は、位相ずれ(PTF成分)のみを補正した場合の、点像を示す。以下では、位相ずれの補正は、PTFの回復と称される。図9(C)に示される点像のMTF及びPTFが、図9(A)及び(B)にそれぞれ示される。また、図9(F)に示される点像のMTF及びPTFが、図9(D)及び(E)にそれぞれ示される。図9(F)の像は、図9(C)の像のPTFを補正することによって得られる。図9(C)の像も図9(F)の像もボケてはいるが、図9(F)の像においては、図9(C)の像と比べて、非対称性がよく補正されており、像流れがよりよく抑制されている。 図9(H)は、図9(G)の点像のPTFを補正することによって得られる。この場合にも、PTFを補正することによって非対称性が補正される。   FIG. 9 shows a point image when only the phase shift (PTF component) is corrected. Hereinafter, the correction of the phase shift is referred to as PTF recovery. The point images MTF and PTF shown in FIG. 9C are shown in FIGS. 9A and 9B, respectively. Also, the MTF and PTF of the point image shown in FIG. 9F are shown in FIGS. 9D and 9E, respectively. The image of FIG. 9F is obtained by correcting the PTF of the image of FIG. Although the image of FIG. 9C and the image of FIG. 9F are blurred, in the image of FIG. 9F, the asymmetry is corrected better than the image of FIG. 9C. The image flow is better suppressed. FIG. 9H is obtained by correcting the PTF of the point image of FIG. Also in this case, the asymmetry is corrected by correcting the PTF.

そこで本実施形態では、収差の非対称性に起因する位相ずれ(PTF)の回復補正の強さは固定され、MTFの回復処理の強さのみを調整できるようにする。本実施形態の方法は、第1の実施例と同様であり、図3のフローチャートを用いて説明される。第1の実施例と同じ処理については説明は省略される。   Therefore, in the present embodiment, the strength of the recovery correction of the phase shift (PTF) caused by the asymmetry of the aberration is fixed, and only the strength of the MTF recovery processing can be adjusted. The method of this embodiment is the same as that of the first example, and will be described using the flowchart of FIG. The description of the same processing as in the first embodiment is omitted.

ステップS303で回復処理部204は、ステップS302で取得された撮影条件に合致する回復フィルタを取得する。本実施形態で回復処理部204は、PTFの回復フィルタとMTFの回復フィルタとの双方を取得する。回復フィルタを、PTFの回復フィルタとMTFの回復フィルタとに分ける方法には、様々な方法がある。例えば、逆フィルタを応用する場合、以下の式を用いることができる。
(PTFの回復フィルタ)=(OTFの絶対値)/OTF = MTF/OTF
(MTFの回復フィルタ)=1/(OTFの絶対値) = 1/MTF
同様に、ウィナーフィルタを応用することにより、回復フィルタを分けることもできる。
In step S303, the recovery processing unit 204 acquires a recovery filter that matches the imaging condition acquired in step S302. In this embodiment, the recovery processing unit 204 acquires both the PTF recovery filter and the MTF recovery filter. There are various methods for dividing the recovery filter into a PTF recovery filter and an MTF recovery filter. For example, when applying an inverse filter, the following equation can be used.
(PTF recovery filter) = (absolute value of OTF) / OTF = MTF / OTF
(MTF recovery filter) = 1 / (absolute value of OTF) = 1 / MTF
Similarly, the recovery filter can be divided by applying a Wiener filter.

ステップS307で回復処理部204は、ステップS306で取得された補間画像に対して、ステップS303で取得されたPTFの回復フィルタを適用することにより、PTFのみが回復された画像Ipを作成する(前処理手段)。さらに回復処理部204は、画像Ipに対して、ステップS303で取得されたMTFの回復フィルタを適用することにより、MTFとPTFとの双方が回復された画像Ipmを作成する。回復処理部204が行う処理は、PTFの回復フィルタを適用して補間画像を更新する前処理を行うことと、PTFとMTFとの双方を回復した画像を取得することとに相当する。   In step S307, the recovery processing unit 204 applies the PTF recovery filter acquired in step S303 to the interpolated image acquired in step S306 to create an image Ip in which only the PTF is recovered (previous). Processing means). Further, the recovery processing unit 204 applies the MTF recovery filter acquired in step S303 to the image Ip to create an image Ipm in which both the MTF and the PTF are recovered. The processing performed by the recovery processing unit 204 corresponds to performing preprocessing for updating an interpolated image by applying a PTF recovery filter and acquiring an image in which both the PTF and the MTF are recovered.

ステップS308で回復処理部204は、各画素について画像Ipmと画像Ipとの差分を求めることによって、差分画像を作成する。本実施形態の差分画像は、MTF補正の補正量を示す。ステップS309でエンコード部105は、画像IpをJPEG圧縮する。ステップS310でエンコード部105は、ステップS309で作成されたJPEG画像と、ステップS308で作成された差分画像とを保存する。このときエンコード部105は、保存されている差分画像が、PTFとMTFの両方が回復された画像と、PTFのみが回復された画像との差分であることを示すフラグ情報を、JPEG画像及び差分画像と共に保存する。本実施例の方法を用いれば、MTF回復処理を弱くしても、収差の非対称性に由来する像流れのような画質劣化を抑えることができる。   In step S308, the recovery processing unit 204 creates a difference image by obtaining a difference between the image Ipm and the image Ip for each pixel. The difference image of the present embodiment indicates the amount of MTF correction. In step S309, the encoding unit 105 performs JPEG compression on the image Ip. In step S310, the encoding unit 105 stores the JPEG image created in step S309 and the difference image created in step S308. At this time, the encoding unit 105 displays flag information indicating that the stored difference image is a difference between an image in which both the PTF and the MTF are recovered and an image in which only the PTF is recovered, the JPEG image and the difference Save with image. By using the method of this embodiment, even if the MTF recovery processing is weakened, it is possible to suppress image quality deterioration such as image flow due to aberration asymmetry.

[実施例7]
本実施例の処理においては、色収差が考慮される。図10において、(a)及び(b)は、回復前の、異なる色成分のMTFである。MTF(a)及び(b)を補正することにより、MTF(c)が得られる。回復処理を弱くすると、色成分に応じてMTF(c)はMTF(a)又は(b)に近づく。すなわち、回復処理が弱い場合、異なる色成分の間でMTFにずれが生じる。すると、ボケの形が色成分ごとに異なるために、色収差が発生する。そこで本実施例では、色収差を補正した後に差分画像を生成する。また、色成分間でPTFがずれていると、ボケの形状が色成分ごとに異なるため、この場合にも色収差が生じる。そこで本実施例では、PTFの補正及び色収差の補正が行われた後に、MTF補正前後の差分画像が作成される。もっとも、実施例6のようにPTFの回復処理とMTFの回復処理とが独立に行われる必要はなく、色収差の補正が行われた後で実施例1のように差分画像が生成されればよい。
[Example 7]
In the processing of the present embodiment, chromatic aberration is considered. In FIG. 10, (a) and (b) are MTFs of different color components before recovery. By correcting MTFs (a) and (b), MTF (c) is obtained. When the recovery process is weakened, MTF (c) approaches MTF (a) or (b) depending on the color component. That is, when the recovery process is weak, the MTF shifts between different color components. Then, since the blur shape differs for each color component, chromatic aberration occurs. Therefore, in this embodiment, the difference image is generated after correcting the chromatic aberration. Further, if the PTF is deviated between the color components, the shape of the blur is different for each color component, so that chromatic aberration also occurs in this case. Therefore, in this embodiment, after the PTF correction and the chromatic aberration correction are performed, a difference image before and after the MTF correction is created. However, the PTF restoration process and the MTF restoration process do not need to be performed independently as in the sixth embodiment, and a difference image may be generated as in the first embodiment after chromatic aberration correction is performed. .

実施例7における処理は、図7に示される。図7のフローチャートにおいて、実施例1でも同様に行われる工程には同じ参照番号が付されている。ステップS301及びS302では、実施例1と同様に処理が行われる。ステップS303で回復処理部204は、位相ズレを補正するPTFの回復フィルタと、色収差を補正するフィルタと、MTFの回復フィルタとを取得する。色収差を補正するフィルタとは、各色成分間でのMTFのずれが小さくなるように画像を補正する。この色収差を補正するフィルタは例えば、図10におけるMTF(a)を、MTF(b)に近づけることができる。   The processing in the seventh embodiment is shown in FIG. In the flowchart of FIG. 7, the same reference numerals are assigned to steps performed in the same manner in the first embodiment. In steps S301 and S302, processing is performed as in the first embodiment. In step S <b> 303, the recovery processing unit 204 acquires a PTF recovery filter that corrects phase shift, a filter that corrects chromatic aberration, and an MTF recovery filter. The filter that corrects chromatic aberration corrects an image so that the MTF shift between the color components is small. For example, the filter for correcting the chromatic aberration can bring MTF (a) in FIG. 10 closer to MTF (b).

色収差を補正するフィルタの作成方法は、様々である。例えば、逆フィルタを応用して、以下のようにフィルタを作成することができる。
色収差補正フィルタ=((b)のMTF)/((a)のMTF)
この他に、ウィナーフィルタを応用してフィルタを作成することもできる。
There are various methods for creating a filter for correcting chromatic aberration. For example, an inverse filter can be applied to create a filter as follows.
Chromatic aberration correction filter = (MTF of (b)) / (MTF of (a))
In addition, a filter can be created by applying a Wiener filter.

ステップS304で回復処理部204は、実施例1と同様に、出力する画像タイプを判断する。RAWデータが出力される場合、処理はステップS1207に進み、ステップS301で取得された撮像データのRAW画像データと、ステップS303で取得されたPTF回復フィルタ、色収差補正フィルタ、及びMTF回復フィルタが保存される。JPEGデータが出力される場合、処理はステップS306に進む。   In step S304, the recovery processing unit 204 determines the image type to be output, as in the first embodiment. When RAW data is output, the process proceeds to step S1207, and the RAW image data of the imaging data acquired in step S301 and the PTF recovery filter, chromatic aberration correction filter, and MTF recovery filter acquired in step S303 are stored. The If JPEG data is output, the process proceeds to step S306.

ステップS306では実施例1と同様に補間画像が取得される。次にステップS1201において回復処理部204は、ステップS303で取得されたPTF回復フィルタを使って、PTFが回復された画像Ipを作成する。ステップS1202で回復処理部204は、画像Ipに対して色収差補正フィルタを適用することにより、画像Ipcを作成する。画像Ipcは、位相ズレと色収差とが補正された画像である。ステップS1203で回復処理部204は、画像Ipcに対してMTF回復フィルタを適用することにより、画像Ipcmを作成する。画像Ipcmは、位相ズレ、色収差、及びMTFの低下が補正された画像である。   In step S306, an interpolated image is acquired as in the first embodiment. In step S1201, the recovery processing unit 204 uses the PTF recovery filter acquired in step S303 to create the image Ip from which the PTF has been recovered. In step S1202, the recovery processing unit 204 creates an image Ipc by applying a chromatic aberration correction filter to the image Ip. The image Ipc is an image in which the phase shift and chromatic aberration are corrected. In step S1203, the recovery processing unit 204 creates an image Ipcm by applying an MTF recovery filter to the image Ipc. The image Ipcm is an image in which phase shift, chromatic aberration, and reduction in MTF are corrected.

ステップS1204で回復処理部204は、画素ごとに画素値の差分を計算することにより、画像Ipcmと画像Ipcとの差分画像を作成する。すなわち差分画像は、位相ズレと色収差とが補正された画像についての、MTF補正前後の画素値の差分を示す。ステップS1205でエンコード部105は、画像IpcをJPEG圧縮する。   In step S1204, the recovery processing unit 204 creates a difference image between the image Ipcm and the image Ipc by calculating a difference between pixel values for each pixel. That is, the difference image indicates a difference between pixel values before and after MTF correction for an image in which phase shift and chromatic aberration are corrected. In step S1205, the encoding unit 105 performs JPEG compression on the image Ipc.

ステップS310でエンコード部105は、ステップS1205で生成されたJPEG画像と、ステップS1204で作成された差分画像とを保存する。ここでエンコード部105はさらに、保存されている差分画像が、PTFとMTFと色収差とが回復された画像と、PTFと色収差とが回復された画像との差分であることを示すフラグ情報を、JPEG画像及び差分画像とともに保存する。本実施例の方法によれば、色収差の少ない画像に対して、MTFの回復処理の強さを調整することが可能になる。また、回復処理を弱くしても、色収差が目立つことはない。   In step S310, the encoding unit 105 stores the JPEG image generated in step S1205 and the difference image created in step S1204. Here, the encoding unit 105 further displays flag information indicating that the stored difference image is a difference between an image in which PTF, MTF, and chromatic aberration are recovered, and an image in which PTF and chromatic aberration are recovered. Save with JPEG image and difference image. According to the method of the present embodiment, it is possible to adjust the strength of the MTF recovery process for an image with little chromatic aberration. Even if the recovery process is weakened, chromatic aberration does not stand out.

[実施例8]
実施例6のようにPTFのみを回復した点像は、点対称ではあっても、円形にならないことが多い。例えば、図9(F)や図9(H)のような点像が得られる。点像が円形とならないのは、アジムス方向のMTF形状がそれぞれ異なるためである。2つのアジムス方向は例えば、サジタル方向およびメリジオナル方向であってもよい。アジムス方向とは全方向の総称であり、サジタル方向、メリジオナル方向、及び任意の角度θの方向をも含む。例えば、サジタル方向及びメリジオナル方向のMTFが、それぞれ図10における(a)及び(b)の形状をしている場合、図9(F)に類似した点像が得られる。サジタル方向及びメリジオナル方向のMTFが一致していれば、点像は円になる。
[Example 8]
In many cases, the point image obtained by recovering only the PTF as in the sixth embodiment does not become circular even though it is point-symmetric. For example, a point image as shown in FIG. 9F or FIG. 9H is obtained. The point images are not circular because the MTF shapes in the azimuth direction are different. The two azimuth directions may be, for example, a sagittal direction and a meridional direction. The azimuth direction is a general term for all directions and includes a sagittal direction, a meridional direction, and a direction at an arbitrary angle θ. For example, when the MTFs in the sagittal direction and the meridional direction have the shapes of (a) and (b) in FIG. 10, respectively, a point image similar to FIG. 9 (F) is obtained. If the MTFs in the sagittal direction and the meridional direction match, the point image becomes a circle.

本実施例では、アジムス方向のMTFの不一致(アジムス方向のMTF収差)を補正する。そして、MTFの不一致を補正した後に、回復処理を行い、回復処理前後の差分画像を作成する。本実施例の処理は、実施例7の処理とほぼ同じである。図7のステップS303で回復処理部204は、色収差補正フィルタの代わりに、アジムス方向のMTFの不一致を補正するフィルタ(以下アジムス補正フィルタと称する)を取得する。そしてステップS1202で回復処理部204は、画像Ipに対してアジムス補正フィルタを適用することにより、画像Ipcを作成すればよい。   In this embodiment, the mismatch of MTF in the azimuth direction (MTF aberration in the azimuth direction) is corrected. Then, after correcting the mismatch of the MTF, recovery processing is performed, and difference images before and after the recovery processing are created. The process of the present embodiment is almost the same as the process of the seventh embodiment. In step S303 in FIG. 7, the recovery processing unit 204 acquires a filter (hereinafter referred to as an azimuth correction filter) that corrects the mismatch of the MTFs in the azimuth direction instead of the chromatic aberration correction filter. In step S1202, the recovery processing unit 204 may create the image Ipc by applying an azimuth correction filter to the image Ip.

代わりの方法として、ステップS303で回復処理部204は、色収差補正フィルタとともに、アジムス補正フィルタを取得することもできる。そしてステップS1202で回復処理部204は、画像Ipに対して色収差補正フィルタ及びアジムス補正フィルタを適用することにより、画像Ipcを作成してもよい。   As an alternative method, the recovery processing unit 204 can acquire an azimuth correction filter together with the chromatic aberration correction filter in step S303. In step S1202, the recovery processing unit 204 may create the image Ipc by applying a chromatic aberration correction filter and an azimuth correction filter to the image Ip.

アジムス補正フィルタは、実施例7と同様に、逆フィルタを応用することで作成することができる。例えば、(目標とするMTF)/(補正する角度のMTF)のように求めればよい。また、ウィナーフィルタなどを応用してアジムス補正フィルタを作成することもできる。本実施例の方法によれば、JPEG画像が円形のボケを持つ画像となるため、後の編集によってユーザが回復処理を弱くしても綺麗なボケの画像を得ることができる。   The azimuth correction filter can be created by applying an inverse filter as in the seventh embodiment. For example, it may be obtained as (target MTF) / (MTF of angle to be corrected). An azimuth correction filter can also be created by applying a Wiener filter or the like. According to the method of the present embodiment, the JPEG image becomes an image having a circular blur. Therefore, a beautiful blurred image can be obtained even if the user weakens the recovery process by the subsequent editing.

[実施例9]
実施例1〜8においては、2種類の形式(RAWデータ及びJPEG)でデータが保存できた。しかしながら、デモザイク後の画像は、圧縮画像として保存されても、非圧縮画像として保存されても良い。そこで本実施例では、3種類の形式(RAWデータ、JPEG、及び非圧縮画像を格納したTIFF)で画像を保存する方法が説明される。本実施例で説明される方法は、実施例1の方法が、デモザイク後の非圧縮画像を保存可能なように修正されたものである。しかしながら、実施例2〜8のいずれの方法もが同様に修正可能であることは、当業者には明らかであろう。
[Example 9]
In Examples 1 to 8, data could be saved in two types of formats (RAW data and JPEG). However, the demosaiced image may be stored as a compressed image or an uncompressed image. Therefore, in this embodiment, a method for saving an image in three types of formats (RAW data, JPEG, and TIFF storing an uncompressed image) will be described. The method described in the present embodiment is a modification of the method of the first embodiment so that an uncompressed image after demosaic can be stored. However, it will be apparent to those skilled in the art that any of the methods of Examples 2-8 can be similarly modified.

本実施例の方法が、図3を参照して説明される。ステップS301〜ステップS308は、実施例1と同様に行うことができる。ステップS309でエンコード部105は、ステップS302で取得された撮影条件から、画像がJPEG形式で保存されるかTIFF形式で保存されるかを判断する。画像がJPEG形式で保存される場合は、エンコード部105は実施例1と同様にJPEG圧縮を行えばよい。そして、ステップS310でJPEG画像と差分画像とが保存される。   The method of this embodiment will be described with reference to FIG. Steps S301 to S308 can be performed in the same manner as in the first embodiment. In step S309, the encoding unit 105 determines whether the image is stored in the JPEG format or the TIFF format from the shooting condition acquired in step S302. When the image is stored in the JPEG format, the encoding unit 105 may perform JPEG compression as in the first embodiment. In step S310, the JPEG image and the difference image are saved.

ステップS309で画像がTIFF形式で保存されると判断した場合は、ステップS310でエンコード部105は、TIFF形式でデータを保存する。具体的にはエンコード部105は、ステップS306で得られた補間画像の非圧縮データと、ステップS308で得られた差分データとを、TIFFファイルフォーマット形式で保存すればよい。本実施例では非圧縮画像の例としてTIFF形式が採用されたが、他の非圧縮画像形式が採用されてもよい。また、1以上の非圧縮画像形式と、1以上の圧縮画像形式と、RAWデータ形式との中から、保存形式が決定されてもよい。   If it is determined in step S309 that the image is stored in the TIFF format, the encoding unit 105 stores the data in the TIFF format in step S310. Specifically, the encoding unit 105 may store the uncompressed data of the interpolated image obtained in step S306 and the difference data obtained in step S308 in the TIFF file format format. In this embodiment, the TIFF format is adopted as an example of an uncompressed image, but other uncompressed image formats may be adopted. The storage format may be determined from one or more uncompressed image formats, one or more compressed image formats, and a RAW data format.

[実施例10]
本実施例では、実施例1で保存された画像データを用いて、回復処理の強さを調整する方法が説明される。本実施例の処理は、例えば現像処理アプリケーションなどの画像処理ソフトウェアが行うこともできるし、一般的な画像処理装置が行うこともできる。本実施例の方法は、図8のフローチャートに示される。本実施例では、図4に示される画像処理装置が処理を行うものとして説明する。
[Example 10]
In the present embodiment, a method for adjusting the strength of the recovery process using the image data stored in the first embodiment will be described. The processing in this embodiment can be performed by image processing software such as a development processing application, or can be performed by a general image processing apparatus. The method of this embodiment is shown in the flowchart of FIG. In this embodiment, description will be made assuming that the image processing apparatus shown in FIG. 4 performs processing.

ステップS1401で入力部402は、実施例1で保存された画像データ401を取得する。そして判別部403は、画像データ401が、RAW形式であるかJPEG形式であるかを判別する。データ形式を判断するためには、様々な方法を用いることができる。例えば、拡張子によってデータ形式を判別することができるし、ファイルの先頭に格納されている形式情報を読み取ることによってデータ形式を判別することもできる。また、画像データ401が本実施例の処理においてサポートされていない形式である場合には、ユーザに警告を発することもできる。   In step S1401, the input unit 402 acquires the image data 401 stored in the first embodiment. Then, the determination unit 403 determines whether the image data 401 is in RAW format or JPEG format. Various methods can be used to determine the data format. For example, the data format can be determined by the extension, or the data format can be determined by reading the format information stored at the beginning of the file. Further, when the image data 401 has a format that is not supported in the processing of this embodiment, a warning can be issued to the user.

画像データ401がRAW形式である場合には、処理はステップS1402に進む。ステップS1402において現像部404は、画像データ401に含まれるRAWデータに対してデモザイク処理を行うことによって、補間画像を生成する。ステップS1403で現像部404は、画像データ401に含まれる回復フィルタを取得する。ステップS1404で回復部406は、補間画像に対して回復フィルタを適用することにより得られる画像を、回復画像として生成する。   If the image data 401 is in the RAW format, the process proceeds to step S1402. In step S1402, the developing unit 404 generates an interpolated image by performing demosaic processing on the RAW data included in the image data 401. In step S1403, the developing unit 404 acquires a recovery filter included in the image data 401. In step S1404, the recovery unit 406 generates an image obtained by applying a recovery filter to the interpolated image as a recovered image.

一方、画像データがJPEG形式である場合には、処理はステップS1401からステップS1405に進む。ステップS1405で復号部405は、画像データ401に含まれるJPEG画像をデコードすることにより、復号画像を生成する。本実施例においては、この復号画像は、第1の実施例における回復処理(ステップS307)を行う前の補間画像に相当する。しかしながら復号画像は、補間画像がJPEG圧縮され、さらに復号されることによって得られたものである。JPEG圧縮は非可逆圧縮であるから、復号画像は補間画像に完全には一致しない。ステップS1406で復号部405は、画像データ401に含まれる差分画像を取得する。ステップS1407で回復部406は、復号画像と差分画像との各画素値を加算することによって得られる合成画像を、回復画像として取得する。この回復画像は、実施例1のステップS307で生成された回復画像に相当する。   On the other hand, if the image data is in JPEG format, the process proceeds from step S1401 to step S1405. In step S1405, the decoding unit 405 generates a decoded image by decoding the JPEG image included in the image data 401. In the present embodiment, this decoded image corresponds to an interpolated image before performing the recovery process (step S307) in the first embodiment. However, the decoded image is obtained by JPEG compression of the interpolation image and further decoding. Since JPEG compression is lossy compression, the decoded image does not completely match the interpolated image. In step S1406, the decoding unit 405 acquires a difference image included in the image data 401. In step S1407, the recovery unit 406 acquires a composite image obtained by adding the pixel values of the decoded image and the difference image as a recovered image. This restored image corresponds to the restored image generated in step S307 of the first embodiment.

ステップS1408において回復部1408は、回復処理の強さを変更するかどうかを判断する。例えば、回復部1408は、非図示の表示部を介して回復画像を表示し、回復処理の強さを変更するか否かを指示するユーザの入力を取得してもよい。また、回復部1408は、回復画像を画像解析することによって判断を行うこともできる。回復処理の強さを変更しない場合は、ステップS1413において、回復部406は回復画像を調整された画像として出力する。様々な画像出力方法を採用することが可能である。たとえば回復部406は、回復画像を圧縮して又は圧縮しないで保存することができる。また回復部406は、画像データ401に含まれるJPEG画像(またはステップS1402で得られた補間画像)を、ステップS1409で取得された回復係数とともに保存してもよい。   In step S1408, the recovery unit 1408 determines whether to change the strength of the recovery process. For example, the recovery unit 1408 may display a recovery image via a display unit (not shown) and acquire a user input indicating whether to change the strength of the recovery process. The recovery unit 1408 can also make a determination by performing image analysis on the recovered image. If the strength of the recovery process is not changed, the recovery unit 406 outputs the recovered image as an adjusted image in step S1413. Various image output methods can be employed. For example, the recovery unit 406 can store the recovered image with or without compression. The recovery unit 406 may store the JPEG image (or the interpolated image obtained in step S1402) included in the image data 401 together with the recovery coefficient acquired in step S1409.

回復処理の強さを変更する場合には、処理はステップS1409へ進む。ステップS1409で回復部406は、回復処理の強さを取得する。回復処理の強さは、例えば係数として表すことができる。係数が0より大きい1未満の値である場合には回復処理は弱められ、1より大きい値である場合には回復処理は強められる。回復処理の強さは、ステップS1418と同様にユーザによって入力されてもよいし、画像解析によって決定されてもよい。   In the case of changing the strength of the recovery process, the process proceeds to step S1409. In step S1409, the recovery unit 406 acquires the strength of the recovery process. The strength of the recovery process can be expressed as a coefficient, for example. When the coefficient is less than 1 greater than 0, the recovery process is weakened. When the coefficient is greater than 1, the recovery process is strengthened. The strength of the recovery processing may be input by the user as in step S1418, or may be determined by image analysis.

ステップS1410で回復部406は、画像データ401がRAWデータであるかJPEGデータであるかを判断する。画像データ401がRAWデータである場合、ステップS1411で回復部406は、ステップS1403で取得された回復フィルタを修正する。回復フィルタの修正は、実施例2記載した方法で行うことができる。そして、処理はステップS1404に戻る。ステップS1404では、修正された回復フィルタと補間画像とを用いて回復画像が生成される。   In step S1410, the recovery unit 406 determines whether the image data 401 is RAW data or JPEG data. When the image data 401 is RAW data, the recovery unit 406 corrects the recovery filter acquired in step S1403 in step S1411. The recovery filter can be corrected by the method described in the second embodiment. Then, the process returns to step S1404. In step S1404, a recovered image is generated using the corrected recovery filter and the interpolated image.

ステップS1410において画像データ401がJPEGデータであると判断された場合、ステップS1412で回復部406は、ステップS1406で取得された差分画像を修正する。具体的には、差分画像の各画素値に対して、ステップS1409で取得された係数をかければよい。例えば係数が0.5であれば、差分画像の各画素値を半分にすればよい。係数が2であれば、差分画像の各画素値を半分にすればよい。そして、処理はステップS1407へ戻る。処理を戻す。ステップS1407では、修正された差分画像と復号画像とを用いて回復画像が生成される。   If it is determined in step S1410 that the image data 401 is JPEG data, the recovery unit 406 corrects the difference image acquired in step S1406 in step S1412. Specifically, the coefficient acquired in step S1409 may be applied to each pixel value of the difference image. For example, if the coefficient is 0.5, each pixel value of the difference image may be halved. If the coefficient is 2, each pixel value of the difference image may be halved. Then, the process returns to step S1407. Return processing. In step S1407, a restored image is generated using the corrected difference image and the decoded image.

本実施例によれば、RAWデータで保存されている画像データに対しても、JPEG圧縮された画像データに対しても、回復処理の強さを簡単に調整することができる。本実施例では、デモザイク後の画像に対して回復処理を行った。しかしながら、回復処理の種類によっては、デモザイク前の画像に対する回復処理を組み込むこともできるし、デモザイク処理の中に回復処理を組み込むこともできる。   According to this embodiment, it is possible to easily adjust the strength of the recovery process for both image data saved as RAW data and JPEG-compressed image data. In this embodiment, the recovery process is performed on the demosaiced image. However, depending on the type of recovery process, a recovery process for an image before demosaicing can be incorporated, or a recovery process can be incorporated in the demosaic process.

実施例4のように、JPEG画像にトリミング情報がついている場合には、回復部406は、トリミング情報によって示される画素位置に対応する差分画像を抽出すればよい。そして、抽出された差分画像と復号画像とから、回復画像を生成すればよい。また実施例5のように、差分画像又はフィルタ係数と共に、回復処理の強さが保存されている場合がある。この場合は、ステップS1403において現像部404は、回復処理の強さを読み出し、そしてステップS1411のように回復フィルタ係数を修正すればよい。また、ステップS1406において復号部405は、回復処理の強さを読み出し、そしてステップS1412のように差分画像を修正すればよい。本実施例では、実施例1で作成された画像データを用いて、回復処理の強さを調整する方法を説明した。しかしながら当業者には明らかであるように、実施例2〜9の方法で作成された画像データを用いても、同様の処理によって、画像データを読み出し、回復処理の強さを調整することができる。   When the trimming information is attached to the JPEG image as in the fourth embodiment, the recovery unit 406 may extract a difference image corresponding to the pixel position indicated by the trimming information. Then, a recovered image may be generated from the extracted difference image and decoded image. Further, as in the fifth embodiment, the strength of the recovery process may be stored together with the difference image or the filter coefficient. In this case, the developing unit 404 reads the strength of the recovery process in step S1403, and corrects the recovery filter coefficient as in step S1411. In step S1406, the decoding unit 405 may read the strength of the recovery process and correct the difference image as in step S1412. In the present embodiment, the method of adjusting the strength of the recovery process using the image data created in the first embodiment has been described. However, as will be apparent to those skilled in the art, even if the image data created by the methods of Embodiments 2 to 9 is used, the image data can be read and the strength of the recovery process can be adjusted by the same processing. .

[その他の実施例]
実施例1〜9においては、RAWデータと共に、回復フィルタ又はOTFが保存された。しかしながら、回復フィルタ又はOTFの格納先を示す情報を保存することもできる。例えば、RAWデータに対応する回復フィルタの格納場所を示すURLを保存してもよい。この場合、例えば実施例10のステップS1403において現像部404は、URLが示す位置から回復フィルタを読み込めばよい。
[Other Examples]
In Examples 1-9, a recovery filter or OTF was saved along with the RAW data. However, information indicating the storage destination of the recovery filter or OTF can also be saved. For example, a URL indicating the storage location of the recovery filter corresponding to the RAW data may be saved. In this case, for example, in step S1403 of the tenth embodiment, the developing unit 404 may read the recovery filter from the position indicated by the URL.

また、実施例1〜9のファイル作成方法を組み合わせることもできる。例えば、実施例6、7、及び8が組み合わされる場合、JPEG画像として保存される画像は、位相ずれと、色成分間のMTFの相違と、アジムス方向のMTFの相違と、を補正した画像である。そして、この補正された画像に対して回復処理(具体的には、MTFの低下を補正する処理)を行うことにより得られる画像と、この補正された画像との差分が、差分画像として保存される。   Also, the file creation methods of the first to ninth embodiments can be combined. For example, when the sixth, seventh, and eighth embodiments are combined, an image stored as a JPEG image is an image in which a phase shift, a difference in MTF between color components, and a difference in MTF in the azimuth direction are corrected. is there. Then, the difference between the image obtained by performing the recovery process (specifically, the process of correcting the decrease in MTF) on the corrected image and the corrected image is stored as a difference image. The

実施例1〜9では、説明を簡単にするために、画像形式は、RAW、JPEG、及びTIFFの中から選択された。しかしながら、RAW形式の画像データと、JPEG形式(又はTIFF形式)の画像データとを同時に保存することもできる。この場合、RAWデータと、JPEGデータ(又はTIFFデータ)と、回復フィルタ(またはOTFデータ)と、差分データと、を保存すればよい。   In Examples 1-9, the image format was selected from RAW, JPEG, and TIFF for ease of explanation. However, RAW format image data and JPEG format (or TIFF format) image data can also be saved simultaneously. In this case, RAW data, JPEG data (or TIFF data), a recovery filter (or OTF data), and difference data may be stored.

実施例1〜9においては、差分画像を圧縮し、圧縮された差分画像を保存することもできる。回復処理はボケの補正処理であるから、差分画像の情報量は被写体のエッジ部分で大きくなる。言い換えれば、エッジ部分以外においては差分画像の画素値は0に近くなる。したがって、差分画像を圧縮する場合、可逆圧縮が採用されたとしても、圧縮率は大きくなると考えられる。差分画像を圧縮することにより、回復処理を後から調整できるようにする場合の、ファイルサイズの増加量を抑えることができる。非可逆圧縮された差分データを保存することもまた可能である。この場合、ファイルサイズはさらに小さくなる。   In the first to ninth embodiments, the difference image can be compressed and the compressed difference image can be stored. Since the recovery process is a blur correction process, the information amount of the difference image becomes large at the edge portion of the subject. In other words, the pixel value of the difference image is close to 0 except for the edge portion. Therefore, when compressing a differential image, it is considered that the compression rate increases even if lossless compression is employed. By compressing the difference image, it is possible to suppress an increase in the file size when the recovery process can be adjusted later. It is also possible to store irreversibly compressed difference data. In this case, the file size is further reduced.

ROM108に保存されている回復フィルタ202もまた、何らかの形式で圧縮されていても良い。この場合回復処理部204が、圧縮されている回復フィルタを展開すればよい。ROM108には、回復フィルタではなく、回復フィルタを算出するために必要なOTFデータ又はPSFデータが保存されていても良い。この場合回復処理部204が、OTFデータ又はPSFデータから回復フィルタを算出すればよい。さらに、RAWデータと共にフィルタ係数が保存されるのではなく、撮影条件に合致するOTFデータ(若しくはMTF及びPTFデータ)又はPSFデータが保存されてもよい。   The recovery filter 202 stored in the ROM 108 may also be compressed in some form. In this case, the recovery processing unit 204 may expand the compressed recovery filter. The ROM 108 may store OTF data or PSF data necessary for calculating the recovery filter instead of the recovery filter. In this case, the recovery processing unit 204 may calculate a recovery filter from the OTF data or PSF data. Further, the filter coefficient is not stored together with the RAW data, but OTF data (or MTF and PTF data) or PSF data matching the imaging conditions may be stored.

実施例1〜9では、デジタルカメラのような撮像装置の信号処理部103が処理を行う。しかしながら、コンピュータ全体を制御するCPUと、データを格納するメモリとを有するコンピュータが、実施例1〜9及び実施例10の処理を行ってもよい。このコンピュータにおいて各実施例の機能を実行するためには、各機能を現像処理アプリケーションなどのコンピュータプログラムにより表現し、このコンピュータに読み込ませればよい。具体的には、記憶媒体等に格納されたプログラムがメモリにロードされ、CPUはロードされたプログラムを実行する。   In the first to ninth embodiments, the signal processing unit 103 of an imaging apparatus such as a digital camera performs processing. However, a computer having a CPU that controls the entire computer and a memory that stores data may perform the processes of the first to ninth and tenth embodiments. In order to execute the functions of the embodiments in this computer, each function may be expressed by a computer program such as a development processing application and read into the computer. Specifically, a program stored in a storage medium or the like is loaded into the memory, and the CPU executes the loaded program.

現像処理アプリケーションを用いる場合、撮影画像を格納するファイルが入力される。Exifファイルフォーマットに準拠したファイルが用いられる場合、撮影条件はExifファイルフォーマットに従って格納されていればよい。こうして、現像処理アプリケーションは撮影条件を取得することができる。例えば絞り値は、Exif IFD内の、ApertureValueタグ又はFnumberタグを参照して取得されうる。被写体距離は、Exif IFD内のSubjectDistanceタグを参照して取得されうる。レンズの焦点距離は、FocalLengthタグを参照して取得されうる。また、カメラの機種情報はExif IFD内のModelタグを参照して取得されうる。標準的なExif IFD内では、レンズの種類情報のタグは規定されていないので、レンズの種類情報はMakernotesタグ等を参照して取得されうる。また、SceneCaptureTypeタグを参照することで取得された撮影シーンタイプに応じて、デフォルトの回復処理の強さを決定しても良い。これらの情報を用いて回復フィルタを取得することにより、実施例1〜8と同様の画像データファイルを作成することが可能になる。   When using the development processing application, a file for storing a photographed image is input. When a file conforming to the Exif file format is used, the shooting conditions may be stored according to the Exif file format. In this way, the development processing application can acquire the shooting conditions. For example, the aperture value can be acquired with reference to an ApproachValue tag or an Fnumber tag in the Exif IFD. The subject distance can be acquired with reference to the Subject Distance tag in the Exif IFD. The focal length of the lens can be acquired with reference to the FocalLength tag. The camera model information can be acquired by referring to the Model tag in the Exif IFD. In the standard Exif IFD, since the lens type information tag is not defined, the lens type information can be acquired with reference to the Makernotes tag or the like. Further, the strength of the default recovery process may be determined according to the shooting scene type acquired by referring to the SceneCaptureType tag. By acquiring a recovery filter using these pieces of information, it is possible to create an image data file similar to those in the first to eighth embodiments.

Claims (9)

撮像により得られた撮影画像と、前記撮像に用いた撮像装置の光学系の収差に起因するボケを補正する処理を当該撮影画像に対して行うために用いる補正フィルタと、を取得する取得手段と、
前記補正フィルタを前記撮影画像に適用することで補正画像を生成する補正手段と、
前記撮影画像と前記補正画像との差分画像を生成する差分算出手段と、
前記撮影画像若しくは前記補正画像と、前記差分画像とを保存する保存手段と
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring a captured image obtained by imaging, and a correction filter used for performing processing for correcting the blur caused by the aberration of the optical system of the imaging apparatus used for the imaging on the captured image; ,
Correction means for generating a corrected image by applying the correction filter to the captured image;
Difference calculating means for generating a difference image between the captured image and the corrected image;
An image processing apparatus comprising: a storage unit that stores the captured image or the corrected image and the difference image.
撮像によって撮像素子から出力された撮像データと、当該撮像データにデモザイク処理を行うことで得られる撮影画像と、前記撮像に用いた撮像装置の光学系の収差に起因するボケを補正する処理を当該撮影画像に対して行うために用いる補正フィルタと、を取得する取得手段と、
前記撮像データを保存する第1のモード、又は前記デモザイク処理後の画像を保存する第2のモードを設定する設定手段と、
前記補正フィルタを前記撮影画像に適用することで補正画像を生成する補正手段と、
前記撮影画像と前記補正画像との差分画像を生成する差分算出手段と、
前記第1のモードにおいては、前記撮像データと前記補正フィルタとを保存し、前記第2のモードにおいては、前記撮影画像若しくは前記補正画像と、前記差分画像とを保存する保存手段と
を備えることを特徴とする画像処理装置。
Imaging data output from the imaging element by imaging, a captured image obtained by performing demosaic processing on the imaging data, and processing for correcting blur caused by aberration of the optical system of the imaging apparatus used for the imaging An acquisition means for acquiring a correction filter used for performing on a captured image;
Setting means for setting a first mode for storing the imaging data or a second mode for storing the image after the demosaic processing;
Correction means for generating a corrected image by applying the correction filter to the captured image;
Difference calculating means for generating a difference image between the captured image and the corrected image;
In the first mode, the imaging data and the correction filter are stored, and in the second mode, storage means for storing the captured image or the correction image and the difference image is provided. An image processing apparatus.
前記保存手段は、前記差分画像を圧縮してから保存することを特徴とする、請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the storage unit compresses and stores the difference image. 複数の撮影条件の各々に対応する前記補正フィルタを格納する格納手段をさらに備え、
前記取得手段は、前記撮像時の撮影条件を取得し、当該撮影条件に対応する前記補正フィルタを前記格納手段から選択して取得する
ことを特徴とする、請求項1乃至3の何れか1項に記載の画像処理装置。
Storage means for storing the correction filter corresponding to each of a plurality of imaging conditions;
The acquisition unit acquires an imaging condition at the time of imaging, and selects and acquires the correction filter corresponding to the imaging condition from the storage unit. An image processing apparatus according to 1.
前記補正フィルタは、前記撮像装置の光学系の収差に起因するボケの振幅成分を補正するフィルタであり、
前記補正画像を生成する前に、前記撮像装置の光学系の収差に起因するボケの位相成分の補正を、前記取得手段が取得した前記撮影画像に対して行うことで、前記撮影画像を更新する前処理手段をさらに備えることを特徴とする、請求項1乃至4の何れか1項に記載の画像処理装置。
The correction filter is a filter that corrects an amplitude component of blur caused by the aberration of the optical system of the imaging device,
Before generating the corrected image, the phase of the blur caused by the aberration of the optical system of the imaging apparatus is corrected for the captured image acquired by the acquisition unit, thereby updating the captured image. The image processing apparatus according to claim 1, further comprising preprocessing means.
前記補正画像を生成する前に、アジムス方向のMTF収差の補正と、色収差の補正との少なくとも一方を、前記取得手段が取得した前記撮影画像に対して行うことで、前記撮影画像を更新する前処理手段をさらに備えることを特徴とする、請求項1乃至4の何れか1項に記載の画像処理装置。   Before the corrected image is generated, at least one of the correction of MTF aberration in the azimuth direction and the correction of chromatic aberration is performed on the captured image acquired by the acquisition unit, thereby updating the captured image. The image processing apparatus according to claim 1, further comprising a processing unit. 画像処理装置が行う画像処理方法であって、
撮像により得られた撮影画像と、前記撮像に用いた撮像装置の光学系の収差に起因するボケを補正する処理を当該撮影画像に対して行うために用いる補正フィルタと、を取得する取得工程と、
前記補正フィルタを前記撮影画像に適用することで補正画像を生成する補正工程と、
前記撮影画像と前記補正画像との差分画像を生成する差分算出工程と、
前記撮影画像若しくは前記補正画像と、前記差分画像とを保存する出力工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
An acquisition step of acquiring a captured image obtained by imaging, and a correction filter used for performing processing for correcting the blur caused by the aberration of the optical system of the imaging apparatus used for the imaging on the captured image; ,
A correction step of generating a corrected image by applying the correction filter to the captured image;
A difference calculating step of generating a difference image between the captured image and the corrected image;
An image processing method comprising: an output step of storing the photographed image or the corrected image and the difference image.
画像処理装置が行う画像処理方法であって、
撮像によって撮像素子から出力された撮像データと、当該撮像データにデモザイク処理を行うことで得られる撮影画像と、前記撮像に用いた撮像装置の光学系の収差に起因するボケを補正する処理を当該撮影画像に対して行うために用いる補正フィルタと、を取得する取得工程と、
前記撮像データを保存する第1のモード、又は前記デモザイク処理後の画像を保存する第2のモードを設定する設定工程と、
前記補正フィルタを前記撮影画像に適用することで補正画像を生成する補正工程と、
前記撮影画像と前記補正画像との差分画像を生成する差分算出工程と、
前記第1のモードにおいては、前記撮像データと前記補正フィルタとを出力し、前記第2のモードにおいては、前記撮影画像若しくは前記補正画像と、前記差分画像とを保存する出力工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
Imaging data output from the imaging element by imaging, a captured image obtained by performing demosaic processing on the imaging data, and processing for correcting blur caused by aberration of the optical system of the imaging apparatus used for the imaging An acquisition step of acquiring a correction filter used for performing on a captured image;
A setting step for setting a first mode for storing the imaging data or a second mode for storing the image after the demosaic processing;
A correction step of generating a corrected image by applying the correction filter to the captured image;
A difference calculating step of generating a difference image between the captured image and the corrected image;
In the first mode, the imaging data and the correction filter are output, and in the second mode, an output step of storing the captured image or the corrected image and the difference image is provided. An image processing method characterized by the above.
コンピュータを、請求項1乃至6の何れか1項に記載の画像処理装置が有する各手段として機能させるための、コンピュータプログラム。   The computer program for functioning a computer as each means which the image processing apparatus of any one of Claims 1 thru | or 6 has.
JP2010011374A 2010-01-21 2010-01-21 Image processing apparatus, image processing method, and program Active JP5534832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010011374A JP5534832B2 (en) 2010-01-21 2010-01-21 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010011374A JP5534832B2 (en) 2010-01-21 2010-01-21 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011151627A true JP2011151627A (en) 2011-08-04
JP5534832B2 JP5534832B2 (en) 2014-07-02

Family

ID=44538219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010011374A Active JP5534832B2 (en) 2010-01-21 2010-01-21 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5534832B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013062587A (en) * 2011-09-12 2013-04-04 Canon Inc Image processing method, image processing device, imaging device, and image processing program
JP2013153341A (en) * 2012-01-25 2013-08-08 Canon Inc Image processing device, image processing method and program
JP2014003550A (en) * 2012-06-20 2014-01-09 Fujitsu Ltd Image processing apparatus and program
KR101536162B1 (en) * 2011-09-26 2015-07-13 캐논 가부시끼가이샤 Image processing apparatus and method
JP2016052084A (en) * 2014-09-02 2016-04-11 キヤノン株式会社 Image processing system, imaging apparatus, image processing method, image processing program, and storage medium
US9357107B2 (en) 2013-03-28 2016-05-31 Fujifilm Corporation Image-processing device, image-capturing device, image-processing method, and recording medium
US9445069B2 (en) 2013-03-28 2016-09-13 Fujifilm Corporation Image-processing device, image-capturing device, image-processing method, and recording medium
US10567647B2 (en) 2015-12-17 2020-02-18 Fujifilm Corporation Image processing apparatus and image processing method
JP7527810B2 (en) 2020-02-26 2024-08-05 キヤノン株式会社 Image editing device and control method thereof, image generating device, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190979A (en) * 2000-12-20 2002-07-05 Nikon Corp Electronic camera, and recording medium of image processing program
JP2004127287A (en) * 2002-09-12 2004-04-22 Konica Minolta Holdings Inc Image storage method, image storage device, image processing method, image processing device, storage medium, and program
JP2008118547A (en) * 2006-11-07 2008-05-22 Canon Inc Video signal processing apparatus and method, and program and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190979A (en) * 2000-12-20 2002-07-05 Nikon Corp Electronic camera, and recording medium of image processing program
JP2004127287A (en) * 2002-09-12 2004-04-22 Konica Minolta Holdings Inc Image storage method, image storage device, image processing method, image processing device, storage medium, and program
JP2008118547A (en) * 2006-11-07 2008-05-22 Canon Inc Video signal processing apparatus and method, and program and storage medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013062587A (en) * 2011-09-12 2013-04-04 Canon Inc Image processing method, image processing device, imaging device, and image processing program
US20140028869A1 (en) * 2011-09-12 2014-01-30 Canon Kabushiki Kaisha Image processing method, image processing apparatus and image pickup apparatus
US9197792B2 (en) 2011-09-12 2015-11-24 Canon Kabushiki Kaisha Image processing method, image processing apparatus and image pickup apparatus
KR101536162B1 (en) * 2011-09-26 2015-07-13 캐논 가부시끼가이샤 Image processing apparatus and method
JP2013153341A (en) * 2012-01-25 2013-08-08 Canon Inc Image processing device, image processing method and program
JP2014003550A (en) * 2012-06-20 2014-01-09 Fujitsu Ltd Image processing apparatus and program
US9357107B2 (en) 2013-03-28 2016-05-31 Fujifilm Corporation Image-processing device, image-capturing device, image-processing method, and recording medium
US9445069B2 (en) 2013-03-28 2016-09-13 Fujifilm Corporation Image-processing device, image-capturing device, image-processing method, and recording medium
JP2016052084A (en) * 2014-09-02 2016-04-11 キヤノン株式会社 Image processing system, imaging apparatus, image processing method, image processing program, and storage medium
US10567647B2 (en) 2015-12-17 2020-02-18 Fujifilm Corporation Image processing apparatus and image processing method
JP7527810B2 (en) 2020-02-26 2024-08-05 キヤノン株式会社 Image editing device and control method thereof, image generating device, and program

Also Published As

Publication number Publication date
JP5534832B2 (en) 2014-07-02

Similar Documents

Publication Publication Date Title
JP5534832B2 (en) Image processing apparatus, image processing method, and program
US7990429B2 (en) Imaging device with blur enhancement
JP4844664B2 (en) Image processing apparatus, image processing method, and program
JP2015156615A (en) Image processing system, image processing method, control program, and recording medium
JP5653104B2 (en) Image processing apparatus, image processing method, and program
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP5589660B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US20150161771A1 (en) Image processing method, image processing apparatus, image capturing apparatus and non-transitory computer-readable storage medium
JP2017143354A (en) Image processing apparatus and image processing method
JP2004246644A (en) Apparatus, method, and program for image processing
JP2008288947A (en) Image processing apparatus and program thereof
KR101434897B1 (en) Image processing apparatus and method for controlling image processing apparatus
JP5202190B2 (en) Image processing method and image processing apparatus
JP2001292325A (en) Edge enhancement device, edge enhancement method and recording medium
JP2015156616A (en) Image processing system, image processing method, control program, and recording medium
JP2005269449A (en) Image processor, image processing method and program
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
JP5676972B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP2007184720A (en) Image photographing apparatus
JP4807315B2 (en) Development processing apparatus for undeveloped image data, development processing method, and computer program for executing development processing
JP6087720B2 (en) Imaging apparatus and control method thereof
JP6025555B2 (en) Image processing apparatus, image processing method, and program
JP6238673B2 (en) Image processing apparatus, imaging apparatus, imaging system, image processing method, image processing program, and storage medium
JP2019016222A (en) Image processing apparatus and control method therefor
JP2012133492A (en) Image processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140422

R151 Written notification of patent or utility model registration

Ref document number: 5534832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151