[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2014084022A1 - 画像処理装置、方法、記録媒体及びプログラム並びに撮像装置 - Google Patents

画像処理装置、方法、記録媒体及びプログラム並びに撮像装置 Download PDF

Info

Publication number
WO2014084022A1
WO2014084022A1 PCT/JP2013/080243 JP2013080243W WO2014084022A1 WO 2014084022 A1 WO2014084022 A1 WO 2014084022A1 JP 2013080243 W JP2013080243 W JP 2013080243W WO 2014084022 A1 WO2014084022 A1 WO 2014084022A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
pixels
mosaic
shift
Prior art date
Application number
PCT/JP2013/080243
Other languages
English (en)
French (fr)
Inventor
長谷川 亮
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014550105A priority Critical patent/JP5798696B2/ja
Publication of WO2014084022A1 publication Critical patent/WO2014084022A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Definitions

  • the present invention relates to an image processing device, a method, a recording medium, a program, and an imaging device, and more particularly to a technique for detecting an image shift between images that are continuously captured.
  • Patent Document 1 An image processing apparatus that obtains a composite image with appropriate exposure has been proposed.
  • the blur detection unit described in Patent Literature 1 performs matching processing between images while moving a block of a predetermined size in one image of two images to be detected in a blur within a search range in the other image. To detect blur between images.
  • the sum of squared differences or the sum of absolute differences is obtained while shifting the position by one pixel between the target block and the image to be referenced, and the position where the calculated value is the minimum can be matched. It is said.
  • the image used for the matching process is not a RAW image (mosaic image) corresponding to the color filter array of the image sensor, but is synchronized.
  • the image must be a demosaic (simultaneous) processed image generated by interpolating pixels of the missing color by processing (or “demosaic processing” hereinafter) with surrounding pixels of the same color. This is because when matching processing is performed while shifting one pixel at a time, pixels of the same color (including luminance pixels) must exist at all pixel positions in the image.
  • Patent Document 1 does not describe whether the image used for the matching process is a color image or not, the blur detection unit reads out the image processed by the image processing unit and stored in the memory. Matching processing is performed. On the other hand, in Patent Document 1, image processing is not performed on a synthesized image that is synthesized by correcting a shift between images.
  • the present invention has been made in view of such circumstances, and can reduce the amount of processing and the processing time from the time of continuous shooting to the detection of a shift between a plurality of images.
  • Image processing apparatus and method capable of detecting deviation between images in a short time and reducing processing amount and processing time such as correction of deviation between a plurality of images and synthesis of a plurality of images after correction
  • An object of the present invention is to provide a recording medium, a program, and an imaging apparatus.
  • an image processing device includes a plurality of pixels including photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • the image acquisition unit for acquiring the mosaic image and the second mosaic image, and the first mosaic image acquired by the image acquisition unit and the second mosaic image are relatively pixel-shifted for each minimum detection pixel pitch
  • a pixel extraction unit that extracts pixels that have the same color between overlapping pixels of the first mosaic image and the second mosaic image that have been pixel-shifted, and pixel values between pixels of the same color that are extracted by the pixel extraction unit
  • Base an evaluation value calculation unit that calculates an evaluation value indicating the degree of coincidence between the first mosaic image and the second mosaic image, an evaluation value calculated by the evaluation value calculation unit, and information on pixel shift by the pixel extraction unit.
  • An image shift detection unit configured to detect an image shift between the first mosaic image and the second mosaic image.
  • an image shift between mosaic images is detected at a stage of a mosaic image (first and second mosaic images) before image processing such as demosaic (simultaneous) processing is performed.
  • image processing such as demosaic (simultaneous) processing is performed.
  • pixel shift is relatively performed between mosaic images when detecting an image shift, all pixels that overlap at the pixel shifted position are not the same color pixel because of the mosaic image. Therefore, a pixel having the same color is extracted from the overlapping pixels between the first and second mosaic images shifted in pixel, and the first mosaic image and the second mosaic image are extracted based on the image values between the extracted pixels.
  • An evaluation value indicating the degree of coincidence with the mosaic image is calculated.
  • the minimum detection pixel pitch is the minimum pixel interval among the pixel intervals (pitch) in which the same color pixel can overlap for a specific color pixel when the pixel is shifted, and the pixel shift is performed at the minimum detection pixel pitch.
  • the image shift is detected at the stage of the mosaic image before the image processing such as the demosaic (simultaneous) processing, it is possible to detect the shift between a plurality of images from the time point when the images were shot continuously. The amount of processing and processing time can be reduced. Thereby, the shift
  • the image shift detection unit has the highest degree of coincidence between the first mosaic image and the second mosaic image based on the evaluation value calculated by the evaluation value calculation unit.
  • the information regarding the pixel shift by the pixel extraction unit at the time of becoming is acquired, and the image shift is detected based on the acquired information regarding the pixel shift.
  • the image shift detection unit includes a first pixel shift that maximizes the degree of coincidence between the first mosaic image and the second mosaic image, and the first pixel. Second relative to the first mosaic image and the second mosaic image so that the relative positional shift is close to the relative positional shift between the first mosaic image and the second mosaic image in the case of shifting.
  • the evaluation value calculation unit performs the first pixel shift and the second pixel shift to indicate the degree of coincidence between the first mosaic image and the second mosaic image when the first pixel shift is performed.
  • the image shift detection unit includes information on the first and second pixel shifts, 1 and 2 by the evaluation value calculation unit corresponding to the second pixel shift First issued, it is preferable that the degree of coincidence between the first mosaic image and the second mosaic image based on the second evaluation value is calculated image shift that maximizes. Thereby, an image shift within the minimum detection pixel pitch can be detected.
  • the first mosaic image and the second mosaic image are shifted by ⁇ n pixels (n: integer) in the first direction and in the second direction.
  • ⁇ n pixels integer
  • the image shift detection unit includes an image shift in the first direction, an image shift in the second direction, an image shift in the first direction, and an image shift in the second direction.
  • Image displacement combined with image displacement is detected with an accuracy within one pixel pitch between adjacent pixels. That is, the minimum detection pixel pitch is set to one pixel pitch, and an image shift between images can be detected within one pixel pitch.
  • the mosaic image has a basic arrangement pattern corresponding to N ⁇ N (N: an integer of 3 or more) pixels repeated in the first direction and the second direction. It is preferable that they are arranged.
  • N an integer of 3 or more
  • the mosaic image corresponds to 6 ⁇ 6 pixels obtained by combining a basic array pattern corresponding to 3 ⁇ 3 pixels or a sub-array pattern corresponding to 3 ⁇ 3 pixels. It is preferable that the basic arrangement pattern is repeatedly arranged in the first direction and the second direction.
  • the pixel extraction unit includes ⁇ n pixels (in the first direction) for shifting the first mosaic image and the second mosaic image acquired by the image acquisition unit.
  • n integer) pixel shift, ⁇ n pixel shift in the second direction, ⁇ n pixel shift in the first direction, and ⁇ n pixel shift in the second direction
  • the pixel positions corresponding to the pixel shifts of all the pixel shifts are the same color in the overlapping pixels of the pixel shifted first mosaic image and the second mosaic image.
  • the first mosaic image and the second mosaic image are shifted by ⁇ n pixels (n: even number) in the first direction and in the second direction.
  • ⁇ n pixels odd number
  • the image shift detection unit is configured to detect image shift in the first direction
  • An image shift in the second direction and an image shift combining the image shift in the first direction and the image shift in the second direction are detected at intervals of every other pixel.
  • the minimum detection pixel pitch in the first direction and the second direction is a two-pixel pitch.
  • the mosaic image is obtained from an image sensor having a Bayer array color filter.
  • an image shift correction unit that corrects an image shift between the first mosaic image and the second mosaic image based on the image shift detected by the image shift detection unit; It is preferable to include an image generation unit that generates a third mosaic image based on the first mosaic image and the second mosaic image in which the image shift is corrected by the image shift correction unit. Accordingly, a third mosaic image using the first and second mosaic images can be generated at the stage of the mosaic image before image processing such as demosaic (simultaneous) processing.
  • the image shift correction unit converts each pixel of at least one of the first mosaic image and the second mosaic image corrected for image shift to the other It is preferable to perform correction so as to match the color of the pixel at the corresponding position of the mosaic image. This is because when adding the first and second mosaic images to generate the third mosaic image, it is necessary to align the colors of the pixels to be added.
  • the evaluation value calculation unit calculates and calculates a difference absolute value sum or a sum of squared differences of each pixel value between pixels of the same color extracted by the pixel extraction unit. It is preferable to calculate the sum of absolute differences or the sum of squared differences as an evaluation value indicating the degree of coincidence between the first mosaic image and the second mosaic image.
  • the first mosaic image and the second mosaic image are for obtaining a luminance signal and a first filter corresponding to one or more first colors.
  • the pixel extraction unit is obtained from an image sensor in which a color filter having a second filter corresponding to a second color of two or more colors having a contribution rate lower than the first color is provided. It is preferable to extract pixels of the first color that have the same color in the overlapping pixels of the first mosaic image and the second mosaic image that have been pixel shifted.
  • the first mosaic image and the second mosaic image are for obtaining a luminance signal and a first filter corresponding to one or more first colors.
  • the pixel extraction unit is obtained from an image sensor in which a color filter having a second filter corresponding to a second color of two or more colors having a contribution rate lower than the first color is provided. It is preferable to extract pixels of the first color and the second color that have the same color in the overlapping pixels of the first mosaic image and the second mosaic image in which the pixels are shifted.
  • the evaluation value calculated based on the second color pixel is used for the degree of coincidence between the first mosaic image and the second mosaic image. It can be used for detection, and the reliability of detection of coincidence can be improved.
  • An imaging device includes at least one color on a plurality of pixels configured by photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • a color filter having a first filter corresponding to the first color and a second filter corresponding to a second color of two or more colors whose contribution rate for obtaining a luminance signal is lower than the first color.
  • An image pickup device provided and the above-described image processing device, and the image acquisition unit picks up a plurality of images continuously, and at least a first mosaic image and a second mosaic image from the image pickup device during image pickup Like to get.
  • an image processing method having three or more colors on a plurality of pixels formed of photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • the mosaic image corresponding to the filter arrangement of the color filter acquired from the imaging device in which the color filters are regularly arranged, and the first mosaic image and the second mosaic image that are continuously captured with respect to the same subject.
  • the image acquisition step of acquiring the mosaic image of the first, the first mosaic image acquired by the image acquisition step and the first mosaic image relative to each other for each minimum detection pixel pitch, the first mosaic image and the second mosaic image
  • a pixel extraction step of extracting pixels having the same color in the overlapping pixels of the mosaic image of the second and the second mosaic image, and the first pixel value based on each pixel value between the pixels of the same color extracted by the pixel extraction step
  • Based on the evaluation value calculation step for calculating an evaluation value indicating the degree of coincidence between the Zyke image and the second mosaic image, the evaluation value calculated in the evaluation value calculation step, and
  • An image processing program provides three or more colors on a plurality of pixels composed of photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • the mosaic image corresponding to the filter arrangement of the color filter acquired from the imaging device in which the color filters are regularly arranged, and the first mosaic image and the second mosaic image that are continuously captured with respect to the same subject
  • the image acquisition function for acquiring the mosaic image of the first image, the first mosaic image acquired by the image acquisition function, and the first mosaic image and the second mosaic image, which are pixel-shifted relatively for each minimum detection pixel pitch.
  • a pixel extraction function for extracting pixels that have the same color between overlapping pixels of the mosaic image and the second mosaic image, and based on pixel values between pixels of the same color extracted by the pixel extraction function
  • the computer is caused to execute an image shift detection function for detecting an image shift between the first mosaic image and the second mosaic image.
  • image misalignment between mosaic images captured continuously is detected at the stage of the mosaic image before performing image processing such as demosaic (simultaneous) processing. It is possible to reduce the amount of processing and the processing time required to detect a shift between images, and to detect a shift between images in a short time. Further, since the correction of the shift between the plurality of images and the combination of the plurality of images are performed at the stage of the mosaic image, the processing amount and the processing time for the correction of the shift and the image combination can be reduced.
  • FIG. 1 is a perspective view showing an embodiment of an imaging apparatus according to the present invention.
  • FIG. 2 is a rear view of the imaging device shown in FIG.
  • FIG. 3 is a principal block diagram of the imaging apparatus.
  • FIG. 4 is a diagram illustrating a first embodiment of a mosaic image output from the image sensor.
  • FIG. 5 is a diagram in which two mosaic images shifted by one pixel in the horizontal direction are superimposed on each mosaic image.
  • FIG. 6 is a diagram in which two mosaic images shifted by two pixels in the horizontal direction are superimposed on each mosaic image.
  • FIG. 7 is a diagram in which two mosaic images shifted by one pixel in the vertical direction are superimposed on each mosaic image.
  • FIG. 1 is a perspective view showing an embodiment of an imaging apparatus according to the present invention.
  • FIG. 2 is a rear view of the imaging device shown in FIG.
  • FIG. 3 is a principal block diagram of the imaging apparatus.
  • FIG. 4 is a diagram illustrating a first embodiment of a mosaic image output
  • FIG. 8 is a diagram illustrating G pixels and the like that overlap when images are shifted between images within a range of ⁇ 2 pixels in the horizontal direction (left-right direction) and the vertical direction (up-down direction).
  • FIG. 9 is a block diagram showing a detailed embodiment of the image processing unit shown in FIG.
  • FIG. 10 is a diagram illustrating blocks read from both images when detecting the degree of coincidence between two images.
  • FIG. 11 is a flowchart showing an embodiment of an image processing method according to the present invention.
  • FIG. 12 is a diagram illustrating a second embodiment of the color arrangement of the mosaic image.
  • FIG. 13A is a diagram illustrating a third embodiment of a color arrangement of a mosaic image.
  • FIG. 13B is a diagram illustrating a third embodiment of the color arrangement of the mosaic image.
  • FIG. 14A is a diagram illustrating a fourth embodiment of a color arrangement of a mosaic image.
  • FIG. 14B is a diagram illustrating a fifth embodiment of the color arrangement of the mosaic image.
  • FIG. 15 is a flowchart illustrating a method for detecting an image shift between mosaic images using the parabolic fitting method.
  • FIG. 16 is a graph used to explain the parabolic fitting method.
  • FIG. 17 is a flowchart showing a method for detecting an image shift between mosaic images using the first equiangular fitting method.
  • FIG. 18A is a graph used to explain the first conformal fitting method.
  • FIG. 18B is a graph used to explain the first conformal fitting method.
  • FIG. 19 is a flowchart illustrating a method for detecting an image shift between mosaic images using the first equiangular fitting method.
  • FIG. 20 is a graph used for explaining the second conformal fitting method.
  • FIG. 21 is a diagram illustrating a mosaic image of a Bayer array.
  • FIG. 22 is a diagram in which two mosaic images with a Bayer arrangement shifted by one pixel in the horizontal direction are superimposed on each mosaic image.
  • FIG. 23 is a diagram illustrating blocks and the like read from both images when detecting the degree of coincidence between two Bayer array mosaic images.
  • FIG. 24 is a diagram illustrating pixels that overlap when two mosaic images of the first embodiment are relatively shifted in the vertical and horizontal directions within a range of ⁇ 2 pixels.
  • FIG. 25 is an external view of a smartphone that is another embodiment of the imaging apparatus.
  • FIG. 26 is a block diagram illustrating a main configuration of the smartphone.
  • Imaging device 1 and 2 are a perspective view and a rear view, respectively, showing an embodiment of an imaging apparatus equipped with an image processing apparatus according to the present invention.
  • the imaging device 10 is a digital camera that receives light passing through a lens with an imaging device, converts the light into a digital signal, and records the image data as a still image or moving image data on a recording medium.
  • an imaging device 10 has a photographing lens 12, a flash light emitting unit 1 and the like disposed on the front surface thereof, and a shutter button 2, a power / mode switch 3, a mode dial 4 and the like disposed on an upper surface thereof.
  • a liquid crystal monitor 24 for 3D display, a zoom button 5, a cross button 6, a MENU / OK button 7, a playback button 8, a BACK button 9, and the like are disposed on the back of the camera. .
  • the taking lens 12 is a retractable zoom lens.
  • the photographing lens 12 is extended from the camera body by setting the camera mode to the photographing mode with the power / mode switch 3.
  • the flash light emitting unit 1 emits flash light toward the main subject.
  • the shutter button 2 is composed of a two-stroke switch composed of a so-called “half press” and “full press”.
  • the shutter button 2 is “half-pressed”, whereby AE (Automatic Exposure) / AF (Automatic Focus) is activated and “fully pressed”.
  • AE Automatic Exposure
  • AF Automatic Focus
  • shooting is performed.
  • the shutter button 2 is “fully pressed” to execute shooting.
  • the power / mode switch 3 has both a function as a power switch for turning on / off the power of the imaging apparatus 10 and a function as a mode switch for setting the mode of the imaging apparatus 10.
  • the power / mode switch 3 is slidably disposed between “OFF position”, “reproduction position”, and “shooting position”.
  • the image pickup apparatus 10 is turned on by sliding the power / mode switch 3 to the “reproduction position” or “shooting position”, and turned off by setting it to the “OFF position”. Then, the power / mode switch 3 is slid and set to “playback position” to set to “playback mode”, and to the “shooting position” to set to “shooting mode”.
  • the mode dial 4 functions as a shooting mode setting means for setting the shooting mode of the imaging device 10, and the shooting mode of the imaging device 10 is set to various modes depending on the setting position of the mode dial. For example, there are a “still image shooting mode” for performing still image shooting, a “moving image shooting mode” for moving image shooting, and the like.
  • the liquid crystal monitor 24 displays a live view image (through image) in the shooting mode, displays a still image or a moving image in the playback mode, displays a menu screen, and the like, thereby displaying a graphical user interface (GUI). It functions as a part.
  • GUI graphical user interface
  • the zoom button 5 functions as zoom instruction means for instructing zooming, and includes a tele button 5T for instructing zooming to the telephoto side and a wide button 5W for instructing zooming to the wide angle side.
  • the focal length of the photographic lens 12 is changed by operating the tele button 5T and the wide button 5W in the photographing mode. Further, when the tele button 5T and the wide button 5W are operated in the reproduction mode, the image being reproduced is enlarged or reduced.
  • the cross button 6 is an operation unit for inputting instructions in four directions, up, down, left, and right, and is a button (cursor moving operation means) for selecting an item from a menu screen or instructing selection of various setting items from each menu.
  • the left / right key functions as a frame advance (forward / reverse feed) button in the playback mode.
  • the MENU / OK button 7 has both a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 24 and a function as an OK button for instructing confirmation and execution of selection contents. Button.
  • the playback button 8 is a button for switching to a playback mode in which a captured still image or moving image is displayed on the liquid crystal monitor 24.
  • the BACK button 9 functions as a button for instructing to cancel the input operation or return to the previous operation state.
  • FIG. 3 is a principal block diagram of the imaging apparatus 10.
  • the imaging device 10 includes a photographing lens 12, an imaging element 14, a photographing processing unit 16, an image processing unit 18, a driving unit 20, a control unit 22, and the like.
  • the photographing lens 12 forms a subject image on the imaging surface of the image sensor 14.
  • the imaging element 14 includes a plurality of pixels configured by two-dimensionally arranged photoelectric conversion elements on the imaging surface, and a so-called three-color or more color filter provided above the light receiving surface of each pixel. This is a single-plate color image sensor.
  • the subject image formed on the image sensor 14 is converted into a signal charge corresponding to the amount of incident light by the photoelectric conversion element of each pixel.
  • the signal charge accumulated in each photoelectric conversion element is sequentially read out from the image sensor 14 as a voltage signal (image signal) corresponding to the signal charge based on a read command signal given from the drive unit 20 in accordance with a command from the control unit 22.
  • the image signal read from the image sensor 14 is a signal indicating a mosaic image of a color corresponding to the color filter array of the image sensor 14.
  • the image pickup device 14 may be another type of image pickup device such as a CCD (Charge-Coupled Device) -type image pickup device or a CMOS (Complementary-Metal-Oxide-Semiconductor) type image pickup device.
  • CCD Charge-Coupled Device
  • CMOS Complementary-Metal-Oxide-Semiconductor
  • the image signal read from the image sensor 14 is input to the imaging processing unit 16.
  • the photographing processing unit 16 includes a correlated double sampling circuit (CDS) for removing reset noise included in the image signal, and an AGC (Automatic Gain Control) circuit for amplifying the image signal and controlling it to a certain level. And an A / D converter.
  • the imaging processing unit 16 performs correlated double sampling processing on the input image signal and amplifies it, and then outputs RAW data converted to a digital image signal to the image processing unit 18.
  • CMOS Complementary Metal Oxide Semiconductor
  • the image processing unit 18 includes a first image processing unit 18A according to the present invention and a second image processing unit 18B that performs normal image processing.
  • the first image processing unit 18A uses the mode dial 4 (FIG. 2) to continuously shoot the same subject with a short exposure time that does not cause camera shake when the subject is dark, for example. Add (synthesize) while correcting, and in shooting mode to obtain a composite image with a long exposure time (appropriate exposure), or continuously shoot an image with proper exposure and an underexposure image, and shift between these images.
  • This is a processing unit that functions when a shooting mode or the like for obtaining a composite image with a wide dynamic range by combining after correction is selected. Details of the first image processing unit 18A will be described later.
  • the second image processing unit 18B includes a white balance (WB) correction unit 200, a gamma ( ⁇ ) correction unit 210, and a synchronization processing unit 220 (red (R) and green associated with the color filter array of the single-plate image sensor 14).
  • WB white balance
  • gamma
  • gamma
  • gamma
  • gamma
  • gamma
  • the second image processing unit 18B performs signal processing on the mosaic image (RAW data) input from the imaging processing unit 16 without passing through the processing in the first image processing unit 18A in the normal imaging mode. Needless to say, desired image data is generated.
  • the image data generated by the image processing unit 18 is subjected to compression processing conforming to the JPEG (Joint Photographic Experts Group) standard for still images by a compression / expansion processing circuit, and MPEG2 (Moving) for moving images. Compression processing conforming to the Picture (Experts Group) standard is applied.
  • the compressed image data is recorded on a recording medium (not shown) (for example, a memory card), and is output to the display means (FIG. 2) of the liquid crystal monitor 24 and displayed.
  • the image sensor 14 has color filters of three or more colors on a plurality of pixels configured by photoelectric conversion elements (photodiodes) arranged in a horizontal direction (first direction) and a vertical direction (second direction).
  • a mosaic image also referred to as a “color mosaic image” corresponding to the filter arrangement of the color filter is output.
  • FIG. 4 is a diagram showing a first embodiment of a mosaic image output from the image sensor 14.
  • the mosaic image of the first embodiment includes a basic array pattern P (pattern indicated by a thick frame) corresponding to M ⁇ N (6 ⁇ 6) pixels, and this basic array pattern P is in the horizontal direction (left-right direction: first). 1 direction) and the vertical direction (vertical direction: second direction).
  • the basic array pattern P is configured by combining sub-array patterns (two types, a total of four sub-array patterns) corresponding to 3 ⁇ 3 pixels.
  • the mosaic image having the above-described configuration has RGB pixels arranged with a predetermined periodicity, and therefore can perform processing according to a repetitive pattern when performing image processing or the like.
  • G pixels corresponding to the most contributing color (G color in this embodiment) for obtaining a luminance signal are horizontal, vertical, diagonal upper right (NE), and diagonal upper left.
  • One or more pixels are arranged in each pixel line in the (NW) direction.
  • the pixel line refers to a line in which pixels are arranged in a line in the horizontal, vertical, diagonally upper right, or diagonally upper left direction, and is simply referred to as “line” hereinafter.
  • the diagonal upper right direction and the diagonal lower right direction in this embodiment are directions inclined by 45 ° with respect to the horizontal direction and the vertical direction, respectively. This is because a plurality of pixels are arranged in a square lattice pattern in the horizontal direction and the vertical direction. Therefore, when a plurality of pixels are arranged in a rectangular grid, the diagonal directions of the rectangular grid correspond to the diagonally upper right direction and diagonally lower right direction.
  • the G pixel corresponding to the luminance system pixel is arranged in each line in the horizontal, vertical, diagonal upper right and diagonal upper left directions, so that the demosaic (simultaneous) processing in the high frequency region is reproduced regardless of the high frequency direction. Accuracy can be improved.
  • R pixels and B pixels corresponding to two or more other colors (in this embodiment, R and B colors) other than the G color are respectively the basic array pattern P.
  • One or more are arranged in each horizontal and vertical line.
  • the mosaic image shown in FIG. 4 has more G pixels than R and B pixels, aliasing at the time of demosaic (simultaneous) processing can be suppressed, and high frequency reproducibility is also achieved. Can do well. As will be described later, there are G pixels that overlap each other when the two mosaic images are shifted one pixel at a time in the horizontal or vertical direction.
  • 5 to 7 are diagrams showing two mosaic images of the first embodiment shown in FIG. 4 and an image obtained by superimposing these mosaic images.
  • FIG. 5 (a) and 5 (b) are diagrams showing a part of two mosaic images taken continuously.
  • the G pixel in the mosaic image is indicated by hatching so that it can be distinguished from other color pixels (R pixel, B pixel).
  • image A a mosaic image shown in part (a) of FIG. 5
  • image B a mosaic image shown in part (b) of FIG.
  • image A a mosaic image shown in part (a) of FIG. 5
  • image B a mosaic image shown in part (b) of FIG.
  • One pixel is shifted.
  • FIG. 5 (c) shows an image obtained by superimposing the image A and the image B.
  • the G pixels of the image A and the G pixels of the image B overlap with each other in a certain pattern. That is, when the image A and the image B are shifted by one pixel in the horizontal direction, the G pixels in the vertical line overlap every two lines.
  • the image A shown in part (a) of FIG. 6 and the image B shown in part (b) of FIG. 6 are shifted by two pixels in the horizontal direction.
  • FIG. 6 (c) shows an image obtained by superimposing the image A and the image B.
  • the G pixel of image A and the G pixel of image B are arranged in such a manner that two G pixels in the vertical direction are arranged in the same manner as in part (c) of FIG. Overlapping. Note that the line of the overlapping G pixel is shifted by one pixel (one line) in the horizontal direction as compared to the line of the overlapping G pixel shown in part (c) of FIG.
  • FIG. 7 (c) shows an image obtained by superimposing the image A and the image B.
  • the G pixels of the image A and the G pixels of the image B are partially overlapped with each other in a certain pattern, and the G pixels of the horizontal line are arranged every two lines. overlapping.
  • FIG. 8 is a diagram showing G pixels and the like that overlap when images A and B are shifted within a range of ⁇ 2 pixels in the horizontal direction (left-right direction) and vertical direction (up-down direction).
  • “perform pixel shifting” is based on a state where there is no image shift between the image A (first mosaic image) and the image B (second mosaic image). In the case of the mosaic image of this embodiment, it means that the images A and B are relatively shifted in the left-right direction or the up-down direction so that the shift amount is an integral multiple of one pixel pitch).
  • the overlapping G pixel is shown darker than other pixels that do not overlap.
  • the overlapping G pixels overlap with a specific pattern according to the pixel shift, and in the case of the mosaic image of the first embodiment, there are seven patterns within the thick frame in FIG. That is, when there is no pixel shift, all G pixels overlap.
  • the G pixels in the vertical line are overlapped every two lines as shown in the part (c) of FIG. 5 and the part (c) of FIG.
  • the line of the overlapping G pixels is shifted by one pixel in the pattern in which the G pixels overlap when one pixel is shifted and the pattern in which the G pixels overlap when two pixels are shifted.
  • the G pixels in the horizontal line overlap every two lines, and there are also two patterns in this case.
  • the G pixels in the diagonal lines overlap according to a certain pattern.
  • the position of the G pixel is the same as when the pixel shift is 0. This is because the G pixel repeats the same pattern (G pixel pattern in a 3 ⁇ 3 pixel sub-array) every three pixels in the horizontal direction and the vertical direction.
  • the image A and the image B are shifted by a relative pixel for each minimum detection pixel pitch (in this example, one pixel pitch) (one image is moved within the search range with respect to the other image), Overlapping G pixels can be extracted according to each pixel shift (search position), and an image shift between the images A and B can be detected based on the difference value of each pixel value of the overlapping G pixels.
  • the difference value when the difference value is the smallest, the degree of coincidence between the image A and the image B is the highest. Therefore, it is possible to detect an image shift between the original image A and the image B based on a pixel shift (search position) where the matching degree between the image A and the image B is highest based on the difference value.
  • FIG. 9 is a block diagram showing an embodiment of the image processing unit 18 shown in FIG.
  • the image processing unit 18 includes a first image processing unit 18A corresponding to the image processing apparatus according to the present invention, and a second image processing unit 18B that performs normal image processing.
  • the first image processing unit 18A includes a memory 100, a pixel shift instruction unit 110, pixel extraction units 120A and 120B, an evaluation value calculation unit 130, an image shift detection unit 140, an image shift correction unit 150, and an image composition unit 160. ing.
  • the memory 100 temporarily stores a plurality of mosaic images (RAW data) output via the imaging element 14 and the imaging processing unit 16 that function as an image acquisition unit in a shooting mode in which a plurality of images that are continuously captured are combined.
  • RAW data mosaic images
  • the memory 100 is not limited to the one in the image processing unit 18, and a part of the main memory in the camera can be applied.
  • the memory 100 temporarily stores two images A and B (first mosaic image and second mosaic image) corresponding to the new color filter. To do.
  • FIG. 10 is a diagram showing blocks read from both images when detecting the degree of coincidence between two images.
  • the pixel shift instruction unit 110 outputs information indicating a search position (corresponding to pixel shift) within a predetermined search range S to the pixel extraction units 120A and 120B and the image shift detection unit 140 as shown in FIG.
  • the search range S has a search start position at a position s 4 pixels left and 4 pixels above the reference position p in the image A, and a position e 4 pixels right and 4 pixels below the reference position p. Is a range of 9 ⁇ 9 pixels, where is the search end position.
  • the pixel shifting instruction unit 110 sequentially outputs information indicating the search position from the search start position s to the search end position e of the search range S.
  • the pixel extraction unit 120A Based on the information indicating the search position input from the pixel shift instruction unit 110, the pixel extraction unit 120A generates a block B A having a fixed size based on the search position (9 ⁇ 9 pixel size in the example illustrated in FIG. 10). A G pixel corresponding to the search position (pixel shift) is further extracted from the read block B A from the image A in the memory 100.
  • the pixel extraction unit 120A includes a memory (storage unit) A that stores seven patterns (patterns of G pixels that overlap the image B on the image A side) within the thick frame illustrated in FIG. A pattern corresponding to the search position is read from A, and a G pixel specified by the read pattern is extracted.
  • the pixel extracting unit 120B stores a block B B having a constant size in the memory 100 with reference to the same position p as the reference position p at the center of the search range of the image A (block B A ). read out from the image B, further extracts a G pixel corresponding to the search position from the read block B B. That is, the pixel extraction unit 120B has a memory (storage unit) B that stores the seven patterns within the thick frame shown in FIG. 8 (G pixel pattern overlapping the image A on the image B side) as in the pixel extraction unit 120A. A pattern corresponding to the search position is read from the memory B, and G pixels specified by the read pattern are extracted.
  • the pixel extraction units 120A and 120B read out the images of the blocks B A and B B having a certain size based on the search position based on the information indicating the search position input from the pixel shift instruction unit 110. a, B and subjected to relatively shifted pixels, and the read block B a, G pixels that overlap each other from the image of the block B B (block B a, a pixel position in the B B is the same G pixels) of the search position It is specified and extracted by a pattern corresponding to (pixel shift).
  • the evaluation value calculation unit 130 matches between the images of the block B A read from the image A and the block B B read from the image B based on the pixel values of the G pixels that overlap with each other extracted from the pixel extraction units 120A and 120B.
  • an evaluation value indicating the degree of coincidence between the block B A and the block B B is calculated by the block matching method.
  • the evaluation value calculation unit 130 uses a sum of absolute differences of pixel values (SAD: Sum ⁇ ⁇ ⁇ ⁇ of ⁇ Absolute Difference) or a sum of squared differences of pixel values (SSD: Sum of Squared) as an evaluation value for evaluating the degree of coincidence between blocks. Difference) is used.
  • SAD Sum ⁇ ⁇ ⁇ ⁇ of ⁇ Absolute Difference
  • SSD Sum of Squared
  • the evaluation value S SAD indicating the sum of absolute differences (SAD) of the pixel values. Is calculated by the following equation.
  • the evaluation value S SSD indicating the sum of squared differences (SSD) of pixel values is calculated by the following equation.
  • the values of i and j in the [Equation 1] and [Equation 2] are the pixel positions in the block B A and the block B B (in the example shown in FIG. 10, the pixels in the 9 ⁇ 9 pixels).
  • the positions of the G pixels that are extracted by the pixel extraction units 120A and 120B and overlap each other are shown.
  • the evaluation value calculation unit 130 calculates the evaluation value S SAD or the evaluation value S SSD shown in the above [Expression 1] or [Expression 2], and further overlaps the evaluation value S SAD or the evaluation value S SSD .
  • a value divided by the number of pixels of G pixels is set as an evaluation value. This is because the number of overlapping G pixels differs depending on the search position.
  • the evaluation function for evaluating the degree of coincidence between the block B A and the block B B is not limited to the above embodiment. For example, other functions such as normalized cross-correlation may be used as the evaluation function.
  • the image shift detection unit 140 inputs the evaluation value calculated by the evaluation value calculation unit 130 for each search position within the search range of the block B A and inputs information indicating the search position from the pixel shift instruction unit 110. . Then, the image shift of the images A and B (blocks B A and B B ) is detected based on the search position when the evaluation value becomes the minimum within the search range. For example, if the search position of the block B A is one pixel left and one pixel above the center reference position p of the search range, the image B is shifted by one pixel right and one pixel below the image A. Become.
  • the image shift detection unit 140 outputs information indicating the image shift detected as described above to the image shift correction unit 150.
  • the image shift detection unit 140 evaluates the evaluation value calculated by the evaluation value calculation unit 130 for each search position (for each image shift) in the search range, and information (information about image shift) indicating the search position at that time. And the image shift is detected based on the information indicating the search position when the evaluation value is minimized.
  • the image shift correction unit 150 reads the image B in the memory 100 and corrects the image shift of the read image B with respect to the image A based on the information indicating the image shift input from the image shift detection unit 140.
  • the correction of the image shift is performed when the image is cut out from the image B at the image size to be combined (the image size smaller than the original image B in consideration of the maximum image shift). This is done by shifting accordingly.
  • the image shift correction unit 150 also trims (cuts out) an image in which the image shift is corrected (hereinafter referred to as “image B1” and the image size of the image A to be combined (hereinafter referred to as “image A1”).
  • image B1 an image in which the image shift is corrected
  • image A1 the image size of the image A to be combined
  • Each pixel of the image B1 is corrected so that the color of the pixel at the same position as that of the image B1.
  • the pixel at a certain position x (i, j) of the image A1 is a G pixel
  • the pixel of the image B1 corresponding to i, j) is other than the G pixel, the pixel values of a plurality of G pixels in the vicinity of the position x (i, j) of the image B1 are interpolated to obtain the position at the position x (i, j).
  • image B2 a pixel at each position in the corrected image B1 (hereinafter referred to as “image B2”) matches the color of the pixel at the corresponding position in the image A1.
  • image B2 corrected by the unit 150 is output to the image composition unit 160.
  • the image combining unit 160 cuts out the image A read from the memory 100 so as to have an image size to be combined, combines the cut-out image A1 and the image B2 input from the image shift correction unit 150, and generates a combined image (hereinafter referred to as “combined image”). , “Image C”).
  • This image C is a mosaic image (third mosaic image) similar to the images A and B.
  • the image A1 is cut out from the image A
  • the image A is cut out so that the center of the image A and the center of the image A1 do not shift (so that no image shift occurs).
  • the synthesis of the image A1 and the image B2 is performed by adding pixel values of pixels at the same position (pixels of the same color that overlap each other) in each image.
  • the image shift of the image B with respect to the image A is corrected, but the present invention is not limited to this.
  • an image shift of the image A with respect to the image B may be corrected.
  • two mosaic images are combined has been described, the same can be done when three or more mosaic images are combined.
  • the image C synthesized by the image synthesis unit 160 is output to the second image processing unit 18B.
  • the second image processing unit 18B performs normal image processing, and includes a WB correction unit 200, a gamma correction unit 210, a synchronization processing unit 220, an RGB / YC conversion unit 230, a contour correction unit 240, and a color tone correction unit. 250 or the like.
  • the image C is, for example, 2 bytes of RAW data having a bit length of 14 bits for each of R, G, and B, and the WB correction unit 200 sets a gain value for white balance correction for each of the R, G, and B data. Apply white balance to correct white balance.
  • the gain value for white balance correction is obtained by analyzing RAW data, specifying, for example, a light source type (sunlight, fluorescent lamp, tungsten light bulb, etc.), and RGB stored in advance corresponding to the light source type.
  • the gain value is set for each RGB, or is set to the gain value for each RGB corresponding to the light source type and color temperature manually selected on the menu screen for white balance correction.
  • the R, G, B data output from the WB correction unit 200 is output to the gamma correction unit 210.
  • the gamma correction unit 210 converts linear data into gradation data in a color space such as sRGB and AdobeRBG. This gamma correction is performed, for example, by using a look-up table (LUT) having input / output characteristics for gamma correction and reading output data corresponding to R, G, B input data from the LUT.
  • the 2-byte input data is converted into 8-bit (1 byte) output data of 0 to 255 at the time of gamma correction.
  • the R, G, B data subjected to gamma correction is output to the synchronization processing unit 220.
  • the synchronization processing unit 220 performs a process (demosaic process) for interpolating the spatial shift of the R, G, B data associated with the color filter array shown in FIG. 4 and converting the R, G, B data into a simultaneous expression.
  • the demodulated (simultaneous) R, G, B data is output to the RGB / YC converter 230.
  • the RGB / YC conversion unit 230 converts the R, G, and B data into luminance data Y and color difference data Cr and Cb, outputs the luminance data Y to the contour correction unit 240, and converts the color difference data Cr and Cb to the color tone correction unit 250. Output to.
  • the contour correcting unit 240 performs processing for enhancing the contour portion (the portion where the luminance change is large) of the luminance data Y.
  • the color tone correction unit 250 performs a matrix calculation of the input color difference data Cr and Cb and a color correction matrix coefficient of 2 rows ⁇ 2 columns, and performs color correction to realize good color reproducibility.
  • the color correction matrix coefficient is appropriately changed according to a color correction instruction input from the user.
  • the luminance data Y whose contour has been corrected in this way and the color difference data Cr and Cb whose color has been corrected are output to a recording unit or display unit (not shown) at the subsequent stage.
  • the image C is recorded on the recording medium as it is.
  • the size of the block B A and the block B B and the search range are each 9 ⁇ 9 pixels, but the block size and the search range are arbitrary.
  • the maximum image shift needs to be detected up to about 100 pixels in the case of an image with 12 million effective pixels in consideration of a subject (moving body) that moves greatly in the screen.
  • the search range also requires about 100 pixels on one side.
  • FIG. 11 is a flowchart showing an embodiment of the image processing method.
  • FIG. 11 particularly shows processing up to detection of an image shift between images.
  • step S10 two mosaic images (images A and B) photographed in succession are acquired (step S10, image acquisition step).
  • the block B B to be referred to in order to detect the degree of coincidence is read from the image B (step S12), and the block B A is selected from the image A according to the search position within the search position range. Is read (step S14).
  • Overlapping G pixels are extracted from the read block B A and block B B (step S16, pixel extraction process), and an evaluation value (difference of G pixels) indicating the degree of matching between blocks (between images) based on the extracted G pixels (Absolute value sum or sum of squared differences) is calculated (step S18, evaluation value calculation step).
  • step S22 it is determined whether or not the processing of steps S14 to S20 has been completed at all search positions within the search range. If the processing has not been completed at all search positions within the search range (in the case of “No”), the process proceeds to step S14, the current search position is moved to the next search position, and the above steps S14 to S20 are performed. Perform the process. On the other hand, when the process is completed at all search positions within the search range (in the case of “Yes”), the process proceeds to step S24.
  • step S24 the smallest evaluation value among the evaluation values at all search positions within the search range held in step S20 is detected, and between images A and B based on the search position when the smallest evaluation value is obtained.
  • the image shift is detected (image shift detection step).
  • the image shift between the images A and B is detected as described above, the image shift between the images is corrected, and the images are synthesized using a plurality of images without the corrected image shift.
  • FIGS. 12 to 14A and 14B are diagrams each showing an embodiment of a color arrangement of a mosaic image, and show a basic arrangement pattern.
  • the mosaic image of the second embodiment shown in FIG. 12 has a basic array pattern composed of square array patterns corresponding to 6 ⁇ 6 pixels, and this basic array pattern is repeatedly arranged in the horizontal direction and the vertical direction. Yes.
  • one or more G pixels, R pixels, and B pixels are arranged in each horizontal and vertical line in the basic array pattern.
  • the RGB pixels are arranged in the horizontal and vertical lines in the basic array pattern, the occurrence of color moire (false color) can be suppressed.
  • the G pixel is arranged so as to include two or more adjacent portions in each of the horizontal, vertical, and oblique (NE, NW) directions. Based on the pixel values of these adjacent G pixels, the direction with the smallest change in luminance (correlation direction with high correlation) among the horizontal, vertical, and diagonal (NE, NW) directions is determined as the minimum pixel interval. Can be determined. The determined correlation direction can be used when performing demosaic (synchronization, interpolation) processing or the like.
  • the mosaic image of the second embodiment includes G pixels that overlap each other when the two mosaic images are shifted pixel by pixel in the horizontal or vertical direction. Thereby, based on the pixel value of the overlapping G pixel, it is possible to detect an image shift between two mosaic images at a single pixel pitch.
  • the mosaic image of the third embodiment shown in FIGS. 13A and 13B has a basic array pattern composed of square array patterns corresponding to 4 ⁇ 4 pixels, and this basic array pattern repeats in the horizontal and vertical directions. Has been placed.
  • G pixels are arranged in each line in the horizontal, vertical, and diagonal (NE, NW) directions. Since the G pixel corresponding to the luminance system pixel is arranged in each line in the horizontal, vertical, and diagonal (NE, NW) directions, the demosaic (simultaneous) processing in the high frequency region is performed regardless of the high frequency direction. The reproduction accuracy can be improved.
  • the number of G pixels in the basic arrangement pattern is larger than the number of R pixels and B pixels.
  • the number of G pixels is larger than the number of R and B pixels as described above, aliasing at the time of demosaic (simultaneous) processing can be suppressed and high-frequency reproducibility can be improved. Further, when pixels are shifted in the horizontal or vertical direction between two mosaic images, there are G pixels that overlap each other. Thereby, based on the pixel value of the overlapping G pixel, it is possible to detect an image shift between two mosaic images at a single pixel pitch.
  • the mosaic images shown in FIGS. 14A and 14B each have a basic array pattern composed of a square array pattern corresponding to 3 ⁇ 3 pixels, and this basic array pattern is repeatedly arranged in the horizontal direction and the vertical direction.
  • the mosaic image of the fourth embodiment shown in FIG. 14A is common to the first embodiment shown in FIG. 4 regarding the arrangement of G pixels, and the mosaic of the first embodiment is based on these G pixels. Similar to an image, an image shift between two mosaic images can be detected at a pixel pitch.
  • G pixels are arranged in an L shape within the basic array pattern.
  • G pixels are arranged in each line in the horizontal, vertical, and diagonal (NE, NW) directions.
  • G pixels corresponding to luminance system pixels are arranged in each line in the horizontal, vertical, and diagonal (NE, NW) directions. For this reason, it is possible to improve the reproduction accuracy of the demosaic (simultaneous) processing in the high frequency region regardless of the direction of high frequency.
  • the mosaic image of the fifth embodiment when two mosaic images are shifted pixel by pixel in the horizontal or vertical direction, there are G pixels that overlap each other. Thereby, based on the pixel value of the overlapping G pixel, it is possible to detect an image shift between two mosaic images at a single pixel pitch.
  • the method for detecting the image shift between the mosaic images shown in FIGS. 10 and 11 is performed by moving the block B A in the image A one image at a time within the search range and matching the block B B of the image B.
  • the image shift between the image A and the image B is detected at a 1-pixel pitch from the search position where the degree of coincidence between both blocks is maximized.
  • Another embodiment of the image shift detection method detects an image shift within one pixel pitch by using a parabolic fitting method or a conformal fitting method.
  • FIG. 15 is a flowchart showing a method for detecting an image shift between mosaic images using the parabolic fitting method.
  • a position (search position) at which the evaluation value indicating the degree of coincidence between mosaic images is minimized is detected at the minimum detection pixel pitch (step S50).
  • the search position is moved pixel by pixel, so the minimum detection pixel pitch is one pixel pitch.
  • step S50 The evaluation value obtained in step S50 and the evaluation value at the position adjacent to the position where the evaluation value is obtained are obtained, and an approximate curve passing through these evaluation values is calculated (step S52).
  • FIG. 16 shows a position m at which the minimum evaluation value is obtained, evaluation values at front and rear positions m ⁇ 1 and m + 1 adjacent to the position m, and approximate curves that pass through these evaluation values (three evaluation values). It is a graph to show.
  • step S52 When the approximate curve is calculated in step S52, the position min of the lowest point (minimum value) of the approximate curve is calculated (step S54). Thereby, it is possible to detect a shift between images within the minimum detection pixel pitch.
  • the position m (first pixel shift) at which the minimum evaluation value is obtained, and the positions m ⁇ 1 and m + 1 (first pixel shift) before and after the position m are adjacent.
  • evaluation values calculated corresponding to the second pixel shift in which the relative positional shift is in the vicinity are respectively acquired, and information on the first and second pixel shifts (positions m ⁇ 1, m, m + 1) are obtained.
  • the evaluation value calculated corresponding to the first and second pixel shifts the image shift (position min) at which the degree of coincidence between the mosaic images is maximized is within the minimum detection pixel pitch. Can be calculated.
  • FIG. 17 is a flowchart showing a method for detecting an image shift between mosaic images using the first equiangular fitting method.
  • step S60 the position where the evaluation value indicating the degree of coincidence between the mosaic images is minimum is detected with the minimum detection pixel pitch.
  • step S60 the evaluation values of the front and rear positions adjacent to the position obtained in step S60 are acquired, and the magnitudes of these evaluation values are compared (step S62).
  • step S64 Two straight lines passing through each evaluation value are determined based on the comparison result of the evaluation values in step S62 (step S64).
  • step S64 one straight line passing through the minimum evaluation value and the maximum evaluation value among the three evaluation values is determined, and the determined straight line has a slope different from the sign and has a minimum maximum. Other straight lines passing through evaluation values other than are determined.
  • step S64 the intersection of the two straight lines determined in step S64 is calculated, and the position min of this intersection is calculated (step S66). Thereby, it is possible to detect a shift between images within the minimum detection pixel pitch.
  • FIG. 19 is a flowchart showing a method for detecting an image shift between mosaic images using the second conformal fitting method.
  • step S70 the position where the evaluation value indicating the degree of coincidence between the mosaic images is minimum is detected with the minimum detection pixel pitch (step S70), and the evaluation values of the front and rear positions adjacent to the detected position are acquired. The evaluation values are compared in magnitude (step S72).
  • an image obtained by shifting the self-image (for example, the block B A of the image A ) that is cut out based on the position detected in step S70 with the minimum detection pixel pitch is created, and the evaluation value is obtained by taking the difference between the self-image and the shifted image. Is calculated (step S74).
  • Step S74 When the evaluation value obtained in step S74 is smaller than the evaluation value obtained in step S72, it is determined that the evaluation value has a small change with respect to the search position, and the evaluation value obtained in step S74 is adopted. (Step S76).
  • step S78 two straight lines passing through each evaluation value are determined based on the evaluation value obtained in step S72 or step S76 (step S78).
  • FIG. 20 shows a position m at which the minimum evaluation value is obtained, evaluation values at positions m ⁇ 1 and m + 1 adjacent to the position m, and two straight lines passing through these evaluation values (three evaluation values). It is a graph. Note that two evaluation values are illustrated at the positions m ⁇ 1 and m + 1, respectively, but the two evaluation values are the evaluation value obtained in step S72 and the evaluation value obtained in step S74. Then, as the evaluation value of the position adjacent to the position where the minimum evaluation value is obtained, the smaller evaluation value of the two evaluation values is adopted, and two straight lines are determined.
  • step S78 the intersection of the two straight lines determined in step S78 is calculated, and the position min of this intersection is calculated (step S80). Thereby, it is possible to detect a shift between images within the minimum detection pixel pitch.
  • the shift direction (the direction of the position where the evaluation value is truly the minimum) is detected from the position where the evaluation value of the degree of coincidence is the first detected at the minimum detection pixel pitch, and then the detected shift direction is detected.
  • An image shift within one pixel pitch may be detected by using the evaluation value and the parabolic fitting method or the equiangular fitting method.
  • the image shift correction unit 150 detects an image shift with an accuracy of less than one pixel pitch.
  • the pixel to be corrected is set close to the pixel value of the pixel.
  • a pixel shift of less than one pixel pitch is corrected by replacing the pixel value of the same color pixel with a pixel obtained by interpolation.
  • FIG. 21 is a diagram illustrating a mosaic image of a Bayer array output from an image sensor having a Bayer array that is most widely used as a color filter array.
  • G is arranged in a checkered pattern (checker flag shape), and R pixels and B pixels are alternately arranged for each line.
  • FIG. 22 (a) and 22 (b) are diagrams showing a part of two Bayer-array mosaic images captured successively.
  • G pixels in the mosaic image are indicated by hatching so that they can be distinguished from other color pixels (R pixels, B pixels).
  • the mosaic image (image A) shown in part (a) of FIG. 22 and the mosaic image (image B) shown in part (b) of FIG. 22 are shifted by one pixel in the horizontal direction.
  • FIG. 22 (c) shows an image obtained by superimposing the image A and the image B.
  • the G pixel of the image A and the G pixel of the image B do not overlap each other.
  • the image A and the image B are shifted by two pixels in the horizontal direction, all the G pixels are overlapped.
  • the minimum detection pixel pitch is 2 pixel pitches in both the horizontal direction and the vertical direction.
  • FIG. 23 is a diagram showing blocks and the like read from both images when detecting the degree of coincidence between two images.
  • the block B A read from the image A is read while sequentially shifting the search position from the search start position s to the search end position e of the search range S.
  • the search position does not move to a position moved by one pixel in the horizontal direction, but moves by two pixel pitches (every other pixel) which is the minimum detection pixel pitch. That is, the search position moves to a position corresponding to the position of the G pixel in the Bayer array.
  • the block B A read from the image A and the block B B read from the image B at each search position overlap all G pixels in each block regardless of the search position.
  • the degree of coincidence with the block B A and the block B B by the block matching method described above i.e., image A, image deviation between B .
  • the accuracy of detection of image shift between images is 2 pixel pitches.
  • a plurality of evaluation values calculated at the two-pixel pitch may be used, and the above-described parabolic fitting method or equiangular fitting method may be applied. Thereby, an image shift within the minimum detection pixel pitch (2 pixel pitch) can be detected.
  • each pixel of RGB is used for detection of image shift
  • the G pixel in the mosaic image is used to detect the image shift between the mosaic images.
  • the present invention is not limited to this, and an R pixel and a B pixel may be used.
  • FIG. 24 is a diagram illustrating pixels and the like that overlap when the two mosaic images of the first embodiment are relatively shifted in the vertical and horizontal directions within a range of ⁇ 2 pixels.
  • FIG. 8 shows G pixels that overlap when pixels are shifted between images, but FIG. 24 also shows R pixels and B pixels that overlap when pixels are shifted between images.
  • 12 pixel shifts cause part of the R and B pixels to overlap. Accordingly, in 12 pixel shifts, a plurality of types of evaluation values corresponding to combinations of these R, G, and B pixels can be calculated based on the pixel values of the overlapping R, G, and B pixels.
  • the image shift detection unit 140 (FIG. 9) described above is calculated for each of 25 different pixel shifts (search positions) 25. An image shift is detected from the search position when the minimum evaluation value of the evaluation values is obtained.
  • Image shift detection can be performed.
  • any of the pixel shifts from which the plurality of evaluation values are obtained In order to determine whether the pixel shift corresponds to a correct image shift, evaluation values calculated from the pixel values of the R pixel and the B pixel are used.
  • the pixel values of the R pixel and the B pixel are set for the pixel shift. Based on this, another evaluation value can be calculated.
  • another evaluation value is close to the minimum evaluation value, it can be determined that the pixel shift corresponds to a correct image shift.
  • the other evaluation value is larger than the evaluation value determined that the two images are substantially the same, the pixel shift can be excluded from the one corresponding to the correct image shift. Thereby, it is possible to narrow down the image shift corresponding to the correct image shift from the plurality of pixel shifts for which the minimum evaluation value is obtained.
  • imaging device 10 includes, for example, a mobile phone having a camera function, a smartphone, a PDA (Personal Digital Assistant), and a portable game machine.
  • a smartphone will be described as an example, and will be described in detail with reference to the drawings.
  • FIG. 25 shows the appearance of a smartphone 500 that is another embodiment of the imaging apparatus 10.
  • a smartphone 500 illustrated in FIG. 25 includes a flat housing 502, and a display input in which a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502. Part 520.
  • the housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541.
  • the structure of the housing 502 is not limited to this. For example, a configuration in which the display unit and the input unit are independent may be employed, or a configuration having a folding structure or a slide mechanism may be employed.
  • FIG. 26 is a block diagram showing a configuration of the smartphone 500 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 510, a display input unit 520, a call unit 530, an operation unit 540, a camera unit 541, a storage unit 550, and an external input / output unit. 560, a GPS (Global Positioning System) receiving unit 570, a motion sensor unit 580, a power supply unit 590, and a main control unit 501.
  • a wireless communication function for performing mobile wireless communication via the base station device BS and the mobile communication network NW is provided as a main function of the smartphone 500.
  • the wireless communication unit 510 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 501. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 520 displays images (still images and moving images), character information, and the like visually under the control of the main control unit 501, and visually transmits information to the user, and detects user operations on the displayed information.
  • This is a so-called touch panel, and includes a display panel 521 and an operation panel 522.
  • the display panel 521 is preferably a 3D display panel.
  • the display panel 521 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 522 is a device that is placed so that an image displayed on the display surface of the display panel 521 is visible and detects one or a plurality of coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 501.
  • the main control unit 501 detects an operation position (coordinates) on the display panel 521 based on the received detection signal.
  • the display panel 521 and the operation panel 522 of the smartphone 500 integrally form the display input unit 520, but the operation panel 522 is disposed so as to completely cover the display panel 521. ing.
  • the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521.
  • the operation panel 522 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 521 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 521. May be included).
  • the size of the display area and the size of the display panel 521 may be completely matched, but it is not always necessary to match the two.
  • the operation panel 522 may include two sensitive regions of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like.
  • examples of the position detection method employed in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also
  • the call unit 530 includes a speaker 531 and a microphone 532, and converts a user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the voice data to the main control unit 501, or a wireless communication unit 510 or the audio data received by the external input / output unit 560 is decoded and output from the speaker 531.
  • the speaker 531 can be mounted on the same surface as the display input unit 520 and the microphone 532 can be mounted on the side surface of the housing 502.
  • the operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 540 is mounted on a lower portion and a lower side of the display unit of the housing 502 of the smartphone 500 and is turned on when pressed with a finger or the like, and is turned off when a finger is released with a restoring force such as a spring. It is a button type switch.
  • the storage unit 550 includes control programs and control data of the main control unit 501, address data in which names and telephone numbers of communication partners are associated, transmitted and received e-mail data, Web data downloaded by Web browsing, and downloaded contents Data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 550 includes an internal storage unit 551 with a built-in smartphone and an external storage unit 552 having a removable external memory slot.
  • Each of the internal storage unit 551 and the external storage unit 552 constituting the storage unit 550 includes a flash memory type (flash memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), It is realized using a storage medium such as a card type memory (for example, Micro SD (registered trademark) memory), RAM (Random Access Memory), ROM (Read Only Memory), or the like.
  • flash memory type flash memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, Micro SD (registered trademark) memory), RAM (Random Access Memory), ROM (Read Only Memory), or the like.
  • the external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and communicates with other external devices (for example, universal serial bus (USB), IEEE1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE1394, etc.
  • a network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wide Band) (registered trademark), ZigBee ( ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • Examples of external devices connected to the smartphone 500 include a memory card connected via a wired / wireless headset, wired / wireless external charger, wired / wireless data port, card socket, and SIM (Subscriber).
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly, yes / no
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 500, or may allow data inside the smartphone 500 to be transmitted to the external device. it can.
  • the GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 501, performs positioning calculation processing based on the received plurality of GPS signals, and calculates the latitude of the smartphone 500, A position consisting of longitude and altitude is detected.
  • the GPS reception unit 570 can acquire position information from the wireless communication unit 510 or the external input / output unit 560 (for example, a wireless LAN (Local Area Network)), the position can be detected using the position information.
  • the wireless communication unit 510 or the external input / output unit 560 for example, a wireless LAN (Local Area Network)
  • the motion sensor unit 580 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 500 in accordance with an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.
  • the power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 in accordance with an instruction from the main control unit 501.
  • the main control unit 501 includes a microprocessor, operates according to a control program and control data stored in the storage unit 550, and controls each unit of the smartphone 500 in an integrated manner. Further, the main control unit 501 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 510.
  • the application processing function is realized by the main control unit 501 operating in accordance with application software stored in the storage unit 550.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 560 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 501 has an image processing function such as displaying video on the display input unit 520 based on image data (still image data or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 520.
  • the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.
  • the main control unit 501 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 521.
  • the main control unit 501 detects a user operation through the operation unit 540, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 522. Or a display image scroll request through a scroll bar.
  • the main control unit 501 causes the operation position with respect to the operation panel 522 to overlap with the display panel 521 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 521.
  • a touch panel control function for controlling the sensitive area of the operation panel 522 and the display position of the software key.
  • the main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 541 is a digital camera that performs electronic photography using an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device).
  • an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device).
  • the imaging device 10 described above can be applied to the camera unit 541.
  • the camera unit 541 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic coding Experts Group) under the control of the main control unit 501, and records the data in the storage unit 550.
  • the data can be output through the external input / output unit 560 and the wireless communication unit 510.
  • the camera unit 541 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 541 is not limited to this, and the camera unit 541 may be mounted on the back surface of the display input unit 520. Alternatively, a plurality of camera units 541 may be mounted. Note that when a plurality of camera units 541 are mounted, the camera unit 541 used for shooting can be switched to shoot alone, or a plurality of camera units 541 can be used simultaneously for shooting.
  • the camera unit 541 can be used for various functions of the smartphone 500.
  • an image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of operation inputs of the operation panel 522.
  • the GPS receiving unit 570 detects the position, the position can also be detected with reference to an image from the camera unit 541.
  • the optical axis direction of the camera unit 541 of the smartphone 500 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 541 can be used in the application software.
  • the imaging apparatus or the smartphone has been described.
  • the present invention acquires a plurality of mosaic images that are continuously captured directly from an imaging apparatus capable of recording RAW data (mosaic images) or via a recording medium.
  • the present invention can also be applied to an image processing apparatus such as a personal computer that performs various types of image processing (referred to as “RAW development”) including image processing according to the present invention on these mosaic images.
  • RAW development image processing program
  • the present invention also provides RAW development software (image processing program) that causes the personal computer to function as the image processing apparatus when installed in a general-purpose personal computer, and a recording medium (non-primary) on which the RAW development software is recorded. Non-transitory recording media).
  • the image processing program includes at least an image acquisition function, a pixel extraction function, an evaluation value calculation function, and an image shift detection function corresponding to the image acquisition unit, the pixel extraction unit, the evaluation value calculation unit, and the image shift detection unit of the image processing apparatus.
  • the computer is executed.
  • the present invention is not limited to the mosaic image shown in this embodiment, and various images can be applied.
  • a mosaic image composed of RGB pixels pixels of other colors such as white, emerald, yellow, etc.
  • the present invention can also be applied to a mosaic image including four colors of a complementary color system in which G is added to C (cyan), M (magenta), and Y (yellow), which are complementary colors of primary colors RGB.
  • image processing such as correction of displacement between a plurality of mosaic images and image synthesis of a plurality of mosaic images is performed at the stage of the mosaic image before performing image processing such as demosaic (simultaneous) processing. Therefore, the processing amount and processing time of the image processing can be reduced.
  • image processing is performed at the stage of the 2-byte mosaic image (RAW data)
  • the demosaic Simultaneous operation
  • DESCRIPTION OF SYMBOLS 10 ... Imaging device, 12 ... Shooting lens, 14 ... Imaging element, 16 ... Shooting processing part, 18 ... Image processing part, 18A ... 1st image processing part, 18B ... 2nd image processing part, 20 ... Drive part, DESCRIPTION OF SYMBOLS 22 ... Control part, 110 ... Pixel shift instruction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

 連続して撮影された複数の画像A,Bを取得し、モザイク画像の段階で画像A,B間の画像ずれを検出する。画素抽出部は画像A,B間で相対的に画素ずらしを行い、画素ずらしをした画像A,B間で重なる画素同士のうちで同色になる画素を抽出し、評価値算出部は抽出された画素間の各画像値に基づいて画素ずらしをした両画像A,B間の一致度を示す評価値を算出する。画像ずれ検出部は、算出された評価値及び画素ずらしに関する情報に基づいて両画像A,Bの一致度が最大になる画像ずれを検出する。

Description

画像処理装置、方法、記録媒体及びプログラム並びに撮像装置
 本発明は画像処理装置、方法、記録媒体及びプログラム並びに撮像装置に係り、特に連続して撮像された画像間の画像ずれを検出する技術に関する。
 従来、手ぶれが生じない短い露光時間で同一の被写体を連続して撮影した複数の画像を取得し、これらの画像間のずれ(ぶれ)を補正しながら複数の画像を合成して長い露光時間(適正露光)の合成画像を得る画像処理装置が提案されている(特許文献1)。
 特許文献1に記載のぶれ検出部は、ぶれ検出対象の2つの画像のうちの一方の画像内の所定サイズのブロックを、他方の画像内のサーチ範囲内で移動させながら、画像間のマッチング処理を行うことにより画像間のぶれを検出する。
 このマッチング処理では、対象となるブロックと参照する画像との間で、位置を1画素ずつずらしながら差分二乗和もしくは差分絶対値和を求め、算出値が最小であったところをマッチングの取れた位置としている。
特開2006-86741号公報
 特許文献1に記載のぶれ検出部のように、2つの画像間を1画素ずつずらしながらマッチングをとることにより画像間のぶれ(ずれ)を検出する場合、隣接する画素間の1画素ピッチの精度で画像のずれを検出することができる。
 ところで、単板式のカラー撮像素子から取得した複数の画像のマッチング処理を行う場合、マッチング処理に使用する画像は、撮像素子のカラーフィルタ配列に対応したRAW画像(モザイク画像)でななく、同時化処理(又は「デモザイク処理」という、以下同じ)により欠落している色の画素を、周囲の同色の画素で補間して生成したデモザイク(同時化)処理後の画像でなければならない。これは、1画素ずつずらしながらマッチング処理を行う場合、画像内の全ての画素位置において、同色の画素(輝度の画素を含む)が存在しなければならないからである。
 尚、特許文献1には、マッチング処理に使用する画像がカラー画像か否かについては記載されていないが、ぶれ検出部は、画像処理部により画像処理されてメモリに記憶された画像を読み出してマッチング処理を行っている。一方、特許文献1では、画像間のずれを補正して合成した合成画像に対しては画像処理を行っていない。
 しかしながら、デモザイク(同時化)処理後の画像を使用して画像間のずれを検出する場合、各画像について少なくともデモザイク(同時化)処理の画像処理を行う必要がある。このため、画像間のずれを検出するまでの処理量及び処理時間が増加し、画像間のずれを短時間で検出する際の障害になる。
 また、デモザイク(同時化)処理後の画像を使用して画像間のずれを検出する場合、複数の画像の合成時に赤(R)、緑(G)、青(B)の画像、又は輝度(Y),色差(Cr,Cb)の3面の画像で位置合わせをする必要がある。その分、処理量及び処理時間が増加し、更に画像データ確保分のメモリも必要になるという問題がある。
 本発明はこのような事情に鑑みてなされたもので、連続して撮影された撮影時点から複数の画像間のずれを検出するまでの処理量及び処理時間を低減することができ、これにより画像間のずれを短時間で検出することができ、また、複数の画像間のずれの補正及び補正後の複数の画像の合成等の処理量及び処理時間を低減することができる画像処理装置、方法、記録媒体及びプログラム並びに撮像装置を提供することを目的とする。
 上記目的を達成するために本発明の一の態様に係る画像処理装置は、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に3色以上のカラーフィルタが規則的に配列されてなる撮像素子から取得されたカラーフィルタのフィルタ配列に対応するモザイク画像であって、同一の被写体に対して連続して撮像された第1のモザイク画像及び第2のモザイク画像を取得する画像取得部と、画像取得部により取得した第1のモザイク画像と第2のモザイク画像とを最小検出画素ピッチ毎に相対的に画素ずらしをし、画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素を抽出する画素抽出部と、画素抽出部により抽出された同色の画素間の各画素値に基づいて第1のモザイク画像と第2のモザイク画像との一致度を示す評価値を算出する評価値算出部と、評価値算出部により算出された評価値と画素抽出部による画素ずらしに関する情報とに基づいて第1のモザイク画像と第2のモザイク画像との画像ずれを検出する画像ずれ検出部と、を備えている。
 本発明の一の態様によれば、デモザイク(同時化)処理等の画像処理を施す前のモザイク画像(第1、第2のモザイク画像)の段階でモザイク画像間の画像ずれを検出するようにしている。但し、画像ずれを検出する際にモザイク画像間で相対的に画素ずらしを行うが、モザイク画像であるため、画素ずらしをした位置において重なる全ての画素が同色の画素にはならない。そこで、画素ずらしをした第1、第2のモザイク画像間で重なる画素同士のうちで同色になる画素を抽出し、抽出した画素間の各画像値に基づいて第1のモザイク画像と第2のモザイク画像との一致度を示す評価値を算出するようにしている。ここで、最小検出画素ピッチとは、画素ずらしをした場合に特定の色画素について同色画素が重なりを持ちうる画素間隔(ピッチ)のうちの最小の画素間隔であり、最小検出画素ピッチで画素ずらしをすることで第1、第2のモザイク画像間で重なる同色の画素同士を抽出できる。このように、デモザイク(同時化)処理等の画像処理前のモザイク画像の段階で画像ずれを検出するようにしたため、連続して撮影された撮影時点から複数の画像間のずれを検出するまでの処理量及び処理時間を低減することができる。これにより、画像間のずれを短時間で検出することができる。
 本発明の他の態様に係る画像処理装置において、画像ずれ検出部は、評価値算出部により算出された評価値に基づいて、第1のモザイク画像と第2のモザイク画像との一致度が最大になるときの画素抽出部による画素ずらしに関する情報を取得し、取得した画素ずらしに関する情報に基づいて画像ずれを検出する。
 本発明の更に他の態様に係る画像処理装置において、画像ずれ検出部は、第1のモザイク画像と第2のモザイク画像との一致度が最大になる第1の画素ずらしと、第1の画素ずらしをした場合の第1のモザイク画像と第2のモザイク画像の相対的な位置ずれに対し、相対的な位置ずれが近傍になるよう第1のモザイク画像と第2のモザイク画像に対し第2の画素ずらしを行い、評価値算出部は、第1の画素ずらしをした場合の第1のモザイク画像と第2のモザイク画像との一致度を示す第1の評価値と、第2の画素ずらしをした場合の第1のモザイク画像と第2のモザイク画像との一致度を示す第2の評価値とを算出し、画像ずれ検出部は、第1、第2の画素ずらしに関する情報と、第1、第2の画素ずらしに対応して評価値算出部により算出された第1、第2の評価値とに基づいて第1のモザイク画像と第2のモザイク画像との一致度が最大になる画像ずれを算出することが好ましい。これにより、最小検出画素ピッチ以内の画像ずれを検出することができる。
 本発明の更に他の態様に係る画像処理装置において、第1のモザイク画像及び第2のモザイク画像は、第1の方向の±n画素(n:整数)の画素ずらしと、第2の方向の±n画素の画素ずらしと、第1の方向の±n画素の画素ずらしと第2の方向の±n画素の画素ずらしとを組み合わせた画素ずらしとを含む全ての画素ずらしに対して、全ての画素ずらしに対応して画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素が存在することが好ましい。
 本発明の更に他の態様に係る画像処理装置において、画像ずれ検出部は、第1の方向の画像ずれ、第2の方向の画像ずれ、及び第1の方向の画像ずれと第2の方向の画像ずれとを組み合わせた画像ずれを、隣接する画素間の1画素ピッチ以内の精度で検知する。即ち、最小検出画素ピッチを1画素ピッチとし、画像間の画像ずれを1画素ピッチ以内で検知できるようにしている。
 本発明の更に他の態様に係る画像処理装置において、モザイク画像は、N×N(N:3以上の整数)画素に対応する基本配列パターンが第1の方向及び第2の方向に繰り返されて配置されたものであることが好ましい。上記N×N画素に対応する基本配列パターンを有するモザイク画像により、最小検出画素ピッチが1画素ピッチとなるモザイク画像にすることができる。
 本発明の更に他の態様に係る画像処理装置において、モザイク画像は、3×3画素に対応する基本配列パターン、又は3×3画素に対応するサブ配列パターンを組み合わせた6×6画素に対応する基本配列パターンが第1の方向及び第2の方向に繰り返されて配置されたものであることが好ましい。
 本発明の更に他の態様に係る画像処理装置において、画素抽出部は、画像取得部により取得した第1のモザイク画像と第2のモザイク画像とを画素ずらしする第1の方向の±n画素(n:整数)の画素ずらしと、第2の方向の±n画素の画素ずらしと、第1の方向の±n画素の画素ずらしと第2の方向の±n画素の画素ずらしとを組み合わせた全ての画素ずらしに対し、全ての画素ずらしのうちの各画素ずらしに対応して、画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素の位置を示すパターンをそれぞれ記憶する記憶部を有し、画素ずらしに対応して記憶部から読み出したパターンに基づいて画像取得部により取得した第1のモザイク画像及び第2のモザイク画像から画素ずらし後の第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素を抽出することが好ましい。第1のモザイク画像と第2のモザイク画像との画素ずらしの態様により、重複する画素同士が同色になる画素の現れる位置が異なる。そこで、画素ずらしに対応して同色になる画素の位置を示すパターンをそれぞれ記憶部に記憶させておき、画素ずらし毎に記憶部から対応するパターンを取得することにより、取得したパターンに基づいて画素ずらしをしたモザイク画像から画像間で重複する画素同士で同色になる画素を抽出するようにしている。
 本発明の更に他の態様に係る画像処理装置において、第1のモザイク画像及び第2のモザイク画像は、第1の方向の±n画素(n:偶数)の画素ずらしと、第2の方向の±n画素の画素ずらしと、第1の方向の±n画素の画素ずらしと第2の方向の±n画素の画素ずらしとを組み合わせた画素ずらしとを含む全ての画素ずらしに対して、全ての画素ずらしに対応して画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素が存在し、画像ずれ検出部は、第1の方向の画像ずれ、第2の方向の画像ずれ、及び第1の方向の画像ずれと第2の方向の画像ずれとを組み合わせた画像ずれを、1画素置きの画素間隔で検知する。この場合の第1の方向及び第2の方向における最小検出画素ピッチは、2画素ピッチである。
 本発明の更に他の態様に係る画像処理装置において、モザイク画像は、ベイヤ配列のカラーフィルタを有する撮像素子から取得されたものである。
 本発明の更に他の態様に係る画像処理装置において、画像ずれ検出部により検出された画像ずれに基づいて第1のモザイク画像と第2のモザイク画像との画像ずれを補正する画像ずれ補正部と、画像ずれ補正部により画像ずれが補正された第1のモザイク画像と第2のモザイク画像とに基づいて第3のモザイク画像を生成する画像生成部と、を備えることが好ましい。これにより、デモザイク(同時化)処理等の画像処理前のモザイク画像の段階で、第1、第2のモザイク画像を使用した第3のモザイク画像を生成することができる。
 本発明の更に他の態様に係る画像処理装置において、画像ずれ補正部は、画像ずれを補正した第1のモザイク画像及び第2のモザイク画像のうちの少なくとも一方のモザイク画像の各画素を、他方のモザイク画像の対応する位置の画素の色と一致するように補正することが好ましい。第1、第2のモザイク画像を加算して第3のモザイク画像を生成する場合、加算する画素同士の色を揃える必要があるからである。
 本発明の更に他の態様に係る画像処理装置において、評価値算出部は、画素抽出部により抽出された同色の画素間の各画素値の差分絶対値和、又は差分自乗和を算出し、算出した差分絶対値和、又は差分自乗和を、第1のモザイク画像と第2のモザイク画像との一致度を示す評価値として算出することが好ましい。
 本発明の更に他の態様に係る画像処理装置において、第1のモザイク画像及び第2のモザイク画像は、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有するカラーフィルタが配設されてなる撮像素子から取得されたものであり、画素抽出部は、画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色となる第1の色の画素を抽出することが好ましい。
 本発明の更に他の態様に係る画像処理装置において、第1のモザイク画像及び第2のモザイク画像は、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有するカラーフィルタが配設されてなる撮像素子から取得されたものであり、画素抽出部は、画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色となる第1の色及び第2の色の画素を抽出することが好ましい。これにより、第1の色の画素に基づいて算出した評価値の他に、第2の色の画素に基づいて算出した評価値を第1のモザイク画像と第2のモザイク画像との一致度の検出に使用することができ、一致度の検出の信頼性を向上させることができる。
 本発明の更に他の態様に係る撮像装置は、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有するカラーフィルタが配設されてなる撮像素子と、上記した画像処理装置と、を備え、画像取得部は、複数の画像を連続して撮像させる撮像時に撮像素子から少なくとも第1のモザイク画像及び第2のモザイク画像を取得するようにしている。
 本発明の更に他の態様に係る画像処理方法は、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に3色以上のカラーフィルタが規則的に配列されてなる撮像素子から取得されたカラーフィルタのフィルタ配列に対応するモザイク画像であって、同一の被写体に対して連続して撮像された第1のモザイク画像及び第2のモザイク画像を取得する画像取得工程と、画像取得工程により取得した第1のモザイク画像と第2のモザイク画像とを最小検出画素ピッチ毎に相対的に画素ずらしをし、画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素を抽出する画素抽出工程と、画素抽出工程により抽出された同色の画素間の各画素値に基づいて第1のモザイク画像と第2のモザイク画像との一致度を示す評価値を算出する評価値算出工程と、評価値算出工程により算出された評価値と画素抽出工程による画素ずらしに関する情報とに基づいて第1のモザイク画像と第2のモザイク画像との画像ずれを検出する画像ずれ検出工程と、を含んでいる。
 本発明の更に他の態様に係る画像処理プログラムは、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に3色以上のカラーフィルタが規則的に配列されてなる撮像素子から取得されたカラーフィルタのフィルタ配列に対応するモザイク画像であって、同一の被写体に対して連続して撮像された第1のモザイク画像及び第2のモザイク画像を取得する画像取得機能と、画像取得機能により取得した第1のモザイク画像と第2のモザイク画像とを最小検出画素ピッチ毎に相対的に画素ずらしをし、画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素を抽出する画素抽出機能と、画素抽出機能により抽出された同色の画素間の各画素値に基づいて第1のモザイク画像と第2のモザイク画像との一致度を示す評価値を算出する評価値算出機能と、評価値算出機能により算出された評価値と画素抽出機能による画素ずらしに関する情報とに基づいて第1のモザイク画像と第2のモザイク画像との画像ずれを検出する画像ずれ検出機能と、をコンピュータに実行させる。
 本発明によれば、デモザイク(同時化)処理等の画像処理を施す前のモザイク画像の段階で、連続して撮影されたモザイク画像間の画像ずれを検出するようにしたため、撮影時点から複数の画像間のずれを検出するまでの処理量及び処理時間を低減することができ、画像間のずれを短時間で検出することができる。また、モザイク画像の段階で複数の画像間のずれの補正及び複数の画像の合成等を行うようにしたため、ずれの補正及び画像合成等の処理量及び処理時間の低減も図ることができる。
図1は、本発明に係る撮像装置の実施形態を示す斜視図である。 図2は、図1に示した撮像装置の背面図である。 図3は、撮像装置の要部ブロック図である。 図4は、撮像素子から出力されるモザイク画像の第1の実施形態を示す図である。 図5は、水平方向に1画素ずれた2枚のモザイク画像と各モザイク画像を重ね合わせた図である。 図6は、水平方向に2画素ずれた2枚のモザイク画像と各モザイク画像を重ね合わせた図である。 図7は、垂直方向に1画素ずれた2枚のモザイク画像と各モザイク画像を重ね合わせた図である。 図8は、水平方向(左右方向)及び垂直方向(上下方向)に±2画素の範囲内で画像間を画素ずらしをした場合に重なるG画素等を示す図である。 図9は、図3に示した画像処理部の詳細な実施形態をブロック図である。 図10は、2枚の画像間の一致度を検出する場合に両画像から読み出されるブロック等を示す図である。 図11は、本発明に係る画像処理方法の実施形態を示すフローチャートである。 図12は、モザイク画像のカラー配列の第2の実施形態を示す図である。 図13Aは、モザイク画像のカラー配列の第3の実施形態を示す図である。 図13Bは、モザイク画像のカラー配列の第3の実施形態を示す図である。 図14Aは、モザイク画像のカラー配列の第4の実施形態を示す図である。 図14Bは、モザイク画像のカラー配列の第5の実施形態を示す図である。 図15は、パラボラフィッティング法を使用したモザイク画像間の画像ずれ検出方法を示すフローチャートである。 図16は、パラボラフィッティング法を説明するために用いたグラフである。 図17は、第1の等角フィッティング法を使用したモザイク画像間の画像ずれ検出方法を示すフローチャートである。 図18Aは、第1の等角フィッティング法を説明するために用いたグラフである。 図18Bは、第1の等角フィッティング法を説明するために用いたグラフである。 図19は、第1の等角フィッティング法を使用したモザイク画像間の画像ずれ検出方法を示すフローチャートである。 図20は、第2の等角フィッティング法を説明するために用いたグラフである。 図21は、ベイヤ配列のモザイク画像を示す図である。 図22は、水平方向に1画素ずれた2枚のベイヤ配列のモザイク画像と各モザイク画像を重ね合わせた図である。 図23は、2枚のベイヤ配列のモザイク画像間の一致度を検出する場合に両画像から読み出されるブロック等を示す図である。 図24は、第1の実施形態の2枚のモザイク画像を、上下方向及び左右方向に±2画素の範囲内で相対的に画素ずらしをした場合に重なる画素等を示す図である。 図25は、撮像装置の他の実施形態であるスマートフォンの外観図である。 図26は、スマートフォンの要部構成を示すブロック図である。
 以下、添付図面に従って本発明に係る画像処理装置、方法、記録媒体及びプログラム並びに撮像装置の好ましい実施の形態について説明する。
 [撮像装置]
 図1及び図2はそれぞれ本発明に係る画像処理装置を搭載した撮像装置の実施形態を示す斜視図及び背面図である。この撮像装置10は、レンズを通った光を撮像素子で受け、デジタル信号に変換して静止画又は動画の画像データとして記録メディアに記録するデジタルカメラである。
 図1に示すように撮像装置10は、その正面に撮影レンズ12、フラッシュ発光部1等が配設され、上面にはシャッタボタン2、電源/モードスイッチ3、モードダイヤル4等が配設されている。一方、図2に示すように、カメラ背面には、3D表示用の液晶モニタ24、ズームボタン5、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9等が配設されている。
 撮影レンズ12は、沈胴式のズームレンズで構成されている。撮影レンズ12は、電源/モードスイッチ3によってカメラのモードを撮影モードに設定することにより、カメラ本体から繰り出される。フラッシュ発光部1は、主要被写体に向けてフラッシュ光を照射するものである。
 シャッタボタン2は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。撮像装置10は、撮影モードで駆動しているときは、このシャッタボタン2が「半押し」されることにより、AE(Automatic Exposure)/AF(Automatic Focus)が作動し、「全押し」されることにより、撮影を実行する。また、撮像装置10は、撮影モードで駆動しているときは、このシャッタボタン2が「全押し」されることにより、撮影を実行する。
 電源/モードスイッチ3は、撮像装置10の電源をON/OFFする電源スイッチとしての機能と、撮像装置10のモードを設定するモードスイッチとしての機能とを併せ持っている。電源/モードスイッチ3は、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。撮像装置10は、電源/モードスイッチ3をスライドさせて、「再生位置」又は「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源/モードスイッチ3をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。
 モードダイヤル4は、撮像装置10の撮影モードを設定する撮影モード設定手段として機能し、このモードダイヤルの設定位置により、撮像装置10の撮影モードが様々なモードに設定される。例えば、静止画撮影を行う「静止画撮影モード」、動画撮影を行う「動画撮影モード」等である。
 液晶モニタ24は、撮影モード時のライブビュー画像(スルー画像)の表示、再生モード時の静止画又は動画の表示を行うとともに、メニュー画面の表示等を行うことでグラフィカルユーザーインターフェース(GUI)の一部として機能する。
 ズームボタン5は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するテレボタン5Tと、広角側へのズームを指示するワイドボタン5Wとからなる。撮像装置10は、撮影モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、撮影レンズ12の焦点距離が変化する。また、再生モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、再生中の画像が拡大、縮小する。
 十字ボタン6は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。
 MENU/OKボタン7は、液晶モニタ24の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作ボタンである。
 再生ボタン8は、撮影記録した静止画又は動画を液晶モニタ24に表示させる再生モードに切り替えるためのボタンである。
 BACKボタン9は、入力操作のキャンセルや1つ前の操作状態に戻すことを指示するボタンとして機能する。
 [撮像装置の内部構成]
 図3は撮像装置10の要部ブロック図である。撮像装置10は、撮影レンズ12、撮像素子14、撮影処理部16、画像処理部18、駆動部20、及び制御部22等を備えている。
 撮影レンズ12は、被写体像を撮像素子14の撮像面上に結像する。撮像素子14は、その撮像面上に2次元配列された光電変換素子で構成される複数の画素と、各画素の受光面の上方に設けられた3色以上のカラーフィルタとを備えた、いわゆる単板式のカラー撮像素子である。
 撮像素子14に結像された被写体像は、各画素の光電変換素子によって入射光量に応じた信号電荷に変換される。各光電変換素子に蓄積された信号電荷は、制御部22の指令に従って駆動部20から与えられる読出し指令信号に基づいて信号電荷に応じた電圧信号(画像信号)として撮像素子14から順次読み出される。撮像素子14から読み出される画像信号は、撮像素子14のカラーフィルタ配列に対応した色のモザイク画像を示す信号である。尚、撮像素子14は、CCD(Charge Coupled Device)型撮像素子、CMOS(Complementary Metal Oxide Semiconductor)型撮像素子などの他の種類の撮像素子であってもよい。
 撮像素子14から読み出された画像信号は、撮影処理部16に入力される。撮影処理部16は、画像信号に含まれるリセットノイズを除去するための相関二重サンプリング回路(CDS)、画像信号を増幅し、一定レベルの大きさにコントロールするためのAGC(Automatic Gain Control)回路、及びA/D変換器を有している。この撮影処理部16は、入力された画像信号を相関二重サンプリング処理するとともに増幅した後、デジタルの画像信号に変換してなるRAWデータを画像処理部18に出力する。尚、撮像素子14がCMOS(Complementary Metal Oxide Semiconductor)型撮像素子の場合には、撮像素子14から直接デジタルの画像信号が読み出され、画像処理部18に出力される。
 画像処理部18は、図9に示すように本発明に係る第1の画像処理部18Aと、通常の画像処理を行う第2の画像処理部18Bとを有している。
 第1の画像処理部18Aは、モードダイヤル4(図2)により、例えば、被写体が暗い場合に手ぶれが生じない短い露光時間で同一の被写体を連写し、連写した複数の画像間のずれを補正しながら加算(合成)し、長い露光時間(適正露光)の合成画像を得る撮影モード時、あるいは適正露光の画像とアンダー露光の画像とを連続して撮影し、これらの画像間のずれを補正した後、合成して広ダイナミックレンジの合成画像を得る撮影モード等が選択された場合に機能する処理部である。尚、第1の画像処理部18Aの詳細については後述する。
 第2の画像処理部18Bは、ホワイトバランス(WB)補正部200、ガンマ(γ)補正部210、同時化処理部220(単板式の撮像素子14のカラーフィルタ配列に伴う赤(R)、緑(G)、青(B)のモザイク画像から画素毎にRGBの全ての色情報を算出(同時式に変換)する処理部(デモザイク処理部))、RGB/YC変換部230、輪郭補正部240、色調補正部250等を有している。画像処理部18Bは、第1の画像処理部18Aにより合成された合成画像(モザイク画像)に対して各処理部にて所要の信号処理を施して、画素毎にRGB全ての色情報を有するRGB画素信号を生成し、これに基づいて輝度データ(Yデータ)と色差データ(Cr、Cbデータ)とからなる画像データ(YUVデータ)を生成する。
 尚、第2の画像処理部18Bは、通常の撮影モード時には、第1の画像処理部18Aでの処理を経由せずに、撮影処理部16から入力したモザイク画像(RAWデータ)に信号処理を施して、所望の画像データを生成することは言うまでもない。
 画像処理部18で生成された画像データは、圧縮/伸張処理回路により静止画に対しては、JPEG(Joint Photographic Experts Group)規格に準拠した圧縮処理が施され、動画に対してはMPEG2(Moving Picture Experts Group)規格に準拠した圧縮処理が施される。圧縮処理が施された画像データは、図示しない記録メディア(例えばメモリカード)に記録され、また、液晶モニタ24の表示手段(図2)に出力されて表示される。
 [モザイク画像の第1の実施形態]
 撮像素子14は、水平方向(第1の方向)及び垂直方向(第2の方向)に配列された光電変換素子(フォトダイオード)で構成される複数の画素上に、3色以上のカラーフィルタが配設されて構成されており、カラーフィルタのフィルタ配列に対応したモザイク画像(「色モザイク画像」ともいう)を出力する。
 図4は撮像素子14から出力されるモザイク画像の第1の実施形態を示す図である。
 第1の実施形態のモザイク画像は、M×N(6×6)画素に対応する基本配列パターンP(太枠で示したパターン)を含み、この基本配列パターンPが水平方向(左右方向:第1の方向)及び垂直方向(上下方向:第2の方向)に繰り返し配置されている。また、基本配列パターンPは、3×3画素に対応するサブ配列パターン(2種類、合計4個のサブ配列パターン)が組み合わされて構成されている。
 即ち、上記構成のモザイク画像は、所定の周期性をもってRGBの画素が配列されているため、画像処理等を行う際に、繰り返しパターンに従って処理を行うことができる。
 また、図4に示すモザイク画像は、輝度信号を得るために最も寄与する色(この実施形態では、Gの色)に対応するG画素が、水平、垂直、斜め右上(NE)、及び斜め左上(NW)方向の各画素ライン内に1以上配置されている。ここで、画素ラインとは、水平、垂直、斜め右上、又は斜め左上方向に一列に画素が配列されているラインをいい、以下、単に「ライン」という。
 また、この実施形態での斜め右上方向及び斜め右下方向は、水平方向及び垂直方向に対してそれぞれ45°傾いた方向である。これは、複数の画素が水平方向及び垂直方向に正方格子状に配列されているからである。従って、複数の画素が矩形格子状に配列されている場合には、その矩形格子の対角線の方向が、斜め右上方向及び斜め右下方向に対応する。
 輝度系画素に対応するG画素が、水平、垂直、斜め右上、及び斜め左上方向の各ライン内に配置されるため、高周波となる方向によらず高周波領域でのデモザイク(同時化)処理の再現精度を向上させることができる。
 また、図4に示すモザイク画像は、Gの色以外の2色以上の他の色(この実施形態では、R,Bの色)に対応するR画素、B画素が、それぞれ基本配列パターンPの水平、及び垂直方向の各ライン内に1つ以上配置されている。
 R画素、B画素が、水平及び垂直方向の各ライン内に配置されるため、偽色(色モワレ)の発生を低減することができる。これにより、偽色の発生を低減(抑制)するための光学ローパスフィルタを省略することができる。
 更に、図4に示すモザイク画像は、G画素の画素数がR,B画素の画素数よりも多いため、デモザイク(同時化)処理時におけるエリアシングを抑制することができるとともに、高周波再現性もよくすることができる。また、後述するように、2つのモザイク画像間を水平又は垂直方向に1画素ずつずらした場合に、互いに重なるG画素が存在する。
 [モザイク画像間の画像ずれの検出方法]
 次に、連続して撮影されたモザイク画像間の画像ずれの検出方法について説明する。
 図5から図7は、それぞれ図4に示した第1の実施形態の2枚のモザイク画像と、これらのモザイク画像を重ね合わせた画像とを示す図である。
 図5の(a)部及び(b)部は、それぞれ連続して撮影された2枚のモザイク画像の一部を示す図である。図5では、特にモザイク画像中のG画素をハッチングで示し、他の色画素(R画素、B画素)と区別可能にしている。
 また、図5の(a)部に示すモザイク画像(以下、「画像A」という)と、図5の(b)部に示すモザイク画像(以下、「画像B」という)とは、水平方向に1画素ずれている。
 図5の(c)部は、上記画像Aと画像Bとを重ね合わせた画像を示している。図5の(c)部に示すように、画像AのG画素と画像BのG画素とは、一部のG画素同士が一定のパターンで重なる。即ち、画像Aと画像Bとが水平方向に1画素ずれている場合には、垂直方向のラインのG画素が2ライン置きに重なる。
 図6の(a)部に示す画像Aと、図6の(b)部に示す画像Bとは、水平方向に2画素ずれている。
 図6の(c)部は、上記画像Aと画像Bとを重ね合わせた画像を示している。図6の(c)部に示すように画像AのG画素と画像BのG画素とは、図5の(c)部に示した場合と同様に垂直方向のラインのG画素が2ライン置きに重なる。尚、重なるG画素のラインは、図5の(c)部に示した重なるG画素のラインに比べて、水平方向に1画素(1ライン)ずれている。
 図7の(a)部に示す画像Aと、図7の(b)部に示す画像Bとは、垂直方向に1画素ずれている。
 図7の(c)部は、上記画像Aと画像Bとを重ね合わせた画像を示している。図7の(c)部に示すように画像AのG画素と画像BのG画素とは、一部のG画素同士が一定のパターンで重なり、水平方向のラインのG画素が2ライン置きに重なっている。
 図8は、水平方向(左右方向)及び垂直方向(上下方向)に±2画素の範囲内で画像A,B間を画素ずらしをした場合に重なるG画素等を示す図である。ここで、「画素ずらしをする」とは、画像A(第1のモザイク画像)と画像B(第2のモザイク画像)との画像ずれがない状態を基準にして、最小検出画素ピッチ(第1の実施形態のモザイク画像の場合には、1画素ピッチ)の整数倍のずれ量となるように、両画像A,Bを相対的に左右方向又は上下方向にずらすことを意味する。また、図8上では、重なるG画素は、重ならない他の画素に比べて濃く図示されている。
 図8に示すように重なるG画素は、画素ずらしに応じて特定のパターンで重なり、第1の実施形態のモザイク画像の場合には、図8中の太枠内の7つのパターンがある。即ち、画素ずれがない場合には、全てのG画素が重なる。左右方向のみ画素ずれが発生する場合には、図5の(c)部及び図6の(c)部に示したように垂直方向のラインのG画素が2ライン置きに重なる。尚、前述したように1画素ずれる場合にG画素が重なるパターンと、2画素ずれる場合にG画素が重なるパターンとでは、重なるG画素のラインが1画素分ずれている。
 上下方向のみ画素ずれが発生する場合には、水平方向のラインのG画素が2ライン置きに重なり、この場合も2つのパターンが存在する。
 一方、上下方向及び左右方向にそれぞれ画素ずれが発生する場合には、斜め方向のラインのG画素が一定のパターンにしたがって重なる。斜め方向のラインのG画素が重なるパターンは、斜め右上方向のラインのG画素が重なるパターンと、斜め左上方向のラインのG画素が重なるパターンの2つのパターンが存在する。
 尚、画像A,B間が、3画素の整数倍だけ画素ずれする場合には、G画素の位置は、画素ずれが0の場合と同じになる。これは、G画素は、左右方向及び上下方向に対して3画素置きに同じパターン(3×3画素のサブ配列内のG画素のパターン)を繰り返しているからである。
 上記のように画像Aと画像Bとの間で画素ずれが発生する場合、どの位置、どの方向に画素ずれが発生していても画像A,B間には互いに重なるG画素が存在し、かつ画素ずれの位置及び方向に応じて重なるG画素の位置は、一意に特定することができる。
 したがって、画像Aと画像Bとを最小検出画素ピッチ(本例の場合、1画素ピッチ)毎に相対的に画素ずらしし(一方の画像を他方の画像に対してサーチ範囲内で移動させ)、各画素ずらし(サーチ位置)に応じて重なっているG画素を抽出し、重なっているG画素の各画素値の差分値に基づいて画像A,B間の画像ずれを検出することができる。
 即ち、上記差分値が最も小さくなるときに、画像Aと画像Bとの一致度は最も高くなる。したがって、差分値に基づいて画像Aと画像Bとの一致度が最も高くなる画素ずらし(サーチ位置)に基づいて元々の画像Aと画像Bとの画像ずれを検出することができる。
 [画像処理部]
 図9は図3に示した画像処理部18の実施形態をブロック図である。
 図9に示すように画像処理部18は、本発明に係る画像処理装置に相当する第1の画像処理部18Aと、通常の画像処理を行う第2の画像処理部18Bとを備えている。
 第1の画像処理部18Aは、メモリ100、画素ずらし指示部110、画素抽出部120A,120B、評価値算出部130、画像ずれ検出部140、画像ずれ補正部150、及び画像合成部160を備えている。
 メモリ100は、連続撮影された複数の画像を合成する撮影モード時に、画像取得部として機能する撮像素子14及び撮影処理部16を介して出力される複数のモザイク画像(RAWデータ)を一時格納する部分である。メモリ100は、画像処理部18内のものに限らず、カメラ内の主メモリの一部を適用することができる。尚、説明の簡単のために、メモリ100には、新型カラーフィルタに対応する2枚の画像A,B(第1のモザイク画像、第2のモザイク画像)が一時的に記憶されているものとする。
 図10は2枚の画像間の一致度を検出する場合に両画像から読み出されるブロック等を示す図である。
 画素ずらし指示部110は、図10に示すように所定のサーチ範囲S内のサーチ位置(画素ずらしに相当)を示す情報を画素抽出部120A、120B、及び画像ずれ検出部140に出力する。図10に示す例では、サーチ範囲Sは、画像A内の基準位置pから左4画素及び上4画素の位置sをサーチ開始位置とし、基準位置pから右4画素及び下4画素の位置eをサーチ終了位置とする、9×9画素の範囲である。画素ずらし指示部110は、このサーチ範囲Sのサーチ開始位置sからサーチ終了位置eまで順次サーチ位置を示す情報を出力する。
 画素抽出部120Aは、画素ずらし指示部110から入力するサーチ位置を示す情報に基づいてサーチ位置を基準にした一定サイズのブロックB(図10に示す例では、9×9画素サイズ)を、メモリ100内の画像Aから読み出し、読み出したブロックBから更にサーチ位置(画素ずらし)に対応するG画素を抽出する。
 図8で説明したように、画像間の画素ずらしが決定されると、画像間で重なる各画像上のG画素の位置(パターン)が一意に特定されるため、画素抽出部120Aは、画素ずらしに対応するパターンにしたがってブロックBからG画素を抽出する。具体的には、画素抽出部120Aは、図8に示した太枠内の7パターン(画像A側における画像Bと重なるG画素のパターン)を記憶するメモリ(記憶部)Aを有し、メモリAからサーチ位置に応じたパターンを読み出し、読み出したパターンにより特定されるG画素を抽出する。
 また、画素抽出部120Bは、図10に示すように画像A(ブロックB)のサーチ範囲の中心の基準位置pと同じ位置pを基準にした一定サイズのブロックBを、メモリ100内の画像Bから読み出し、読み出したブロックBから更にサーチ位置に対応するG画素を抽出する。即ち、画素抽出部120Bは、画素抽出部120Aと同様に図8に示した太枠内の7パターン(画像B側における画像Aと重なるG画素のパターン)を記憶するメモリ(記憶部)Bを有し、メモリBからサーチ位置に応じたパターンを読み出し、読み出したパターンにより特定されるG画素を抽出する。
 即ち、画素抽出部120A,120Bは、画素ずらし指示部110から入力するサーチ位置を示す情報に基づいてサーチ位置を基準にした一定サイズのブロックB、ブロックBの画像を読み出すことにより、画像A,Bを相対的に画素ずらしを行い、かつ読み出したブロックB、ブロックBの画像から互いに重なるG画素(ブロックB、B内の画素位置が同一のG画素)を、サーチ位置(画素ずらし)に応じたパターンにより特定して抽出する。
 評価値算出部130は、画素抽出部120A及び120Bから抽出された互いに重なるG画素の画素値に基づいて、画像Aから読み出したブロックBと画像Bから読み出したブロックBの画像間の一致度を示す評価値を算出するもので、この実施形態では、ブロックマッチング法によりブロックBとブロックBの一致度を示す評価値を算出する。
 評価値算出部130は、ブロック間の一致度を評価するための評価値として、画素値の差分絶対値和(SAD:Sum of Absolute Difference)、又は画素値の差分自乗和(SSD:Sum of Squared Difference)を使用する。
 ブロックBとブロックB内の互いに重なるG画素の画素値を、f(i,j),g(i,j)とすると、画素値の差分絶対値和(SAD)を示す評価値SSADは、次式により算出する。
Figure JPOXMLDOC01-appb-M000001
 また、画素値の差分自乗和(SSD)を示す評価値SSSDは、次式により算出する。
Figure JPOXMLDOC01-appb-M000002
 尚、[数1]式、及び[数2]式におけるi,jの値は、ブロックBとブロックB内の画素の位置(図10に示す例では、9×9画素内の画素の位置)を示し、特に画素抽出部120A及び120Bにより抽出された互いに重なるG画素の位置を示す。
 評価値算出部130は、上記[数1]式、又は[数2]式に示す評価値SSAD、又は評価値SSSDを算出し、更に評価値SSAD、又は評価値SSSDを、重なるG画素の画素数で除算した値を評価値とする。これは、サーチ位置により重なるG画素の画素数が異なるためである。尚、サーチ範囲内で上記評価値が最小になるとき、ブロックBとブロックBの一致度が最大になる。また、ブロックBとブロックBの一致度を評価するための評価関数は、上記の実施形態に限られるものではない。例えば、評価関数として、正規化相互相関等の他の関数を使用してもよい。
 画像ずれ検出部140は、評価値算出部130により算出された評価値を、ブロックBのサーチ範囲内のサーチ位置毎に入力するとともに、画素ずらし指示部110からサーチ位置を示す情報を入力する。そして、サーチ範囲内で評価値が最小となるときのサーチ位置に基づいて画像A,B(ブロックB,B)の画像ずれを検出する。例えば、ブロックBのサーチ位置が、サーチ範囲の中心の基準位置pから左1画素及び上1画素の場合、画像Bは、画像Aに対して右1画素及び下1画素ずれていることになる。画像ずれ検出部140は、上記のようにして検出した画像ずれを示す情報を画像ずれ補正部150に出力する。即ち、画像ずれ検出部140は、サーチ範囲内におけるサーチ位置毎(画像ずらし毎)に評価値算出部130により算出された評価値と、そのときのサーチ位置を示す情報(画像ずらしに関する情報)とを入力し、評価値が最小となるときのサーチ位置を示す情報に基づいて画像ずれを検出する。
 画像ずれ補正部150は、メモリ100内の画像Bを読み出し、画像ずれ検出部140から入力する画像ずれを示す情報に基づいて、読み出した画像Bの画像Aに対する画像ずれを補正する。画像ずれの補正は、画像合成する画像サイズ(最大の画像ずれを考慮してオリジナルの画像Bよりも小さい画像サイズ)にて画像Bから画像を切り出す際に、その切り出し位置を、前記画像ずれに対応してシフトすることにより行う。
 また、画像ずれ補正部150は、画像ずれが補正された画像(以下、「画像B1」と、画像Aを画像合成する画像サイズになるようにトリミングした(切り出した)画像(以下、「画像A1」という)との同じ位置の画素の色が一致するように、画像B1の各画素を補正する。例えば、画像A1のある位置x(i,j)の画素がG画素で、その位置x(i,j)に対応する画像B1の画素がG画素以外の場合、画像B1の位置x(i,j)の近傍の複数のG画素の画素値を補間して位置x(i,j)におけるG画素を生成する。これにより、補正後の画像B1(以下、「画像B2」という)の各位置の画素は、画像A1の対応する位置の画素の色と一致するようになる。画像ずれ補正部150により補正された画像B2は、画像合成部160に出力される。
 画像合成部160は、メモリ100から読み出した画像Aを、画像合成する画像サイズになるように切り出し、切り出した画像A1と画像ずれ補正部150から入力する画像B2とを合成し、合成画像(以下、「画像C」という)を生成する。この画像Cは、画像A,Bと同様のモザイク画像(第3のモザイク画像)である。尚、画像Aから画像A1を切り出す際には、画像Aの中心と画像A1の中心とがずれないように(画像ずれが生じないように)切り出す。また、画像A1と画像B2との合成は、各画像内の同じ位置の画素(互いに重なる同じ色の画素)の画素値を加算することにより行われる。
 この実施形態では、画像Aに対する画像Bの画像ずれを補正するようにしたが、本発明はこれに限定されない。例えば、画像Bに対する画像Aの画像ずれ等を補正するようにしてもよい。また、2枚のモザイク画像を合成する場合について説明したが、3枚以上のモザイク画像を合成する場合にも同様に行うことができる。
 画像合成部160により合成された画像Cは、第2の画像処理部18Bに出力される。
 第2の画像処理部18Bは、通常の画像処理を行う部分であり、WB補正部200、ガンマ補正部210、同時化処理部220、RGB/YC変換部230、輪郭補正部240、色調補正部250等を有している。
 画像Cは、例えば、R、G、B毎に14ビットのビット長を有する2バイトのRAWデータであり、WB補正部200は、R,G,Bデータごとにそれぞれホワイトバランス補正用のゲイン値をかけることによりホワイトバランス補正を行う。
 ここで、ホワイトバランス補正用のゲイン値は、RAWデータを解析して、例えば光源種(太陽光、蛍光灯、タングステン電球等)を特定し、その光源種に対応して予め記憶されているRGB毎のゲイン値に設定され、あるいはホワイトバランス補正を行うメニュー画面上で手動で選択された光源種や色温度に対応するRGB毎のゲイン値に設定される。
 WB補正部200から出力されたR、G、Bデータは、ガンマ補正部210に出力される。ガンマ補正部210は、リニアデータを、sRGB,AdobeRBGといった色空間の階調データに変換する。このガンマ補正は、例えば、ガンマ補正用の入出力特性を有するルックアップテーブル(LUT)を使用し、R、G、Bの入力データに対応した出力データをLUTから読み出すことにより行われる。2バイトの入力データは、ガンマ補正時に0~255の8ビット(1バイト)の出力データに変換される。ガンマ補正されたR、G、Bデータは、同時化処理部220に出力される。
 同時化処理部220は、図4に示したカラーフィルタ配列に伴うR、G、Bデータの空間的なずれを補間してR、G、Bデータを同時式に変換する処理(デモザイク処理)を行い、デモザイク(同時化)したR、G、BデータをRGB/YC変換部230に出力する。
 RGB/YC変換部230は、R、G、Bデータを輝度データY,色差データCr,Cbに変換し、輝度データYを輪郭補正部240に出力し、色差データCr,Cbを色調補正部250に出力する。輪郭補正部240は、輝度データYの輪郭部(輝度変化の大きい部分)を強調する処理を行う。
 色調補正部250は、入力する色差データCr,Cbと、2行×2列の色補正マトリクス係数とのマトリクス演算を行い、良好な色再現性を実現させるための色補正を行う。色補正マトリクス係数は、ユーザからの色補正の指示入力に応じて適宜変更される。
 このようにして輪郭補正された輝度データY、及び色調補正された色差データCr,Cbは、後段の記録部又は表示部(図示せず)に出力される。尚、RAWデータの記録を行う場合には、画像Cがそのまま記録メディアに記録される。
 この実施形態では、ブロックB,ブロックBのサイズ、及びサーチ範囲を、それぞれ9×9画素としているが、ブロックのサイズ及びサーチ範囲は任意である。例えば、最大の画像ずれとしては、画面内で大きく動く被写体(動体)も考慮し、有効画素1200万画素の画像の場合に100画素程度まで検知する必要がある。この場合、サーチ範囲も一辺が100画素程度必要になる。
 [画像処理方法]
 次に、第1の画像処理部18Aによる画像処理方法について説明する。
 図11は画像処理方法の実施形態を示すフローチャートである。図11は、特に画像間の画像ずれを検出するまでの処理に関して示している。
 図11において、連続して撮影された2枚のモザイク画像(画像A,B)を取得する(ステップS10、画像取得工程)。
 続いて、図10で説明したように画像Bから一致度を検出するために参照するブロックBを読み出し(ステップS12)、また、画像Aからサーチ位置範囲内のサーチ位置に応じてブロックBを読み出す(ステップS14)。
 読み出したブロックB及びブロックBから重なるG画素を抽出し(ステップS16、画素抽出工程)、抽出したG画素に基づいてブロック間(画像間)の一致度を示す評価値(G画素の差分絶対値和、もしくは差分自乗和)を算出する(ステップS18、評価値算出工程)。
 ステップS18で算出した評価値とその算出時のブロックBのサーチ位置(画像ずれに相当)とを関連付けて一時メモリ等に保持する(ステップS20)。
 次に、サーチ範囲内の全サーチ位置で上記ステップS14~ステップS20の処理が終了したか否かを判別する(ステップS22)。サーチ範囲内の全サーチ位置で処理が終了していない場合(「No」の場合)には、ステップS14に遷移させ、現在のサーチ位置を次にサーチ位置に移動させて上記ステップS14~ステップS20の処理を行わせる。一方、サーチ範囲内の全サーチ位置で処理が終了している場合(「Yes」の場合)には、ステップS24に遷移させる。
 ステップS24では、ステップS20において保持したサーチ範囲内の全サーチ位置における評価値のうちの最小の評価値を検知し、最小の評価値が得られたときのサーチ位置に基づいて画像A,B間の画像ずれを検出する(画像ずれ検出工程)。
 上記のようにして画像A,B間の画像ずれが検出されると、画像間の画像ずれを補正し、補正された画像ずれのない複数の画像を使用して画像の合成を行う。
 [モザイク画像の他の実施形態]
 図12から図14A及び図14Bは、それぞれモザイク画像のカラー配列の実施形態を示す図であり、基本配列パターンに関して示している。
 図12に示す第2の実施形態のモザイク画像は、6×6画素に対応する正方配列パターンからなる基本配列パターンを有しており、この基本配列パターンが水平方向及び垂直方向に繰り返し配置されている。
 第2の実施形態のモザイク画像は、G画素、R画素、及びB画素が、それぞれ基本配列パターン内の水平及び垂直方向の各ライン内に1つ以上配置されている。
 RGBの画素が、それぞれ基本配列パターン内の水平及び垂直方向の各ライン内に配置されるため、色モワレ(偽色)の発生を抑圧することができる。
 また、G画素は、水平、垂直、及び斜め(NE,NW)方向の各方向に2以上隣接する部分が含まれるように配置されている。これらの隣接するG画素の画素値に基づいて、水平、垂直、及び斜め(NE,NW)方向の各方向のうち、輝度の変化が最も小さい方向(相関の高い相関方向)を、最小画素間隔で判別することができる。尚、判別された相関方向は、デモザイク(同時化、補間)処理等を行う際に利用することができる。
 更に、第2の実施形態のモザイク画像は、2つのモザイク画像間を水平又は垂直方向に1画素ずつ画素ずらしすると、互いに重なるG画素が存在する。これにより、重なるG画素の画素値に基づいて1画素ピッチで、2つのモザイク画像間の画像ずれを検出することができる。
 図13A及び図13Bに示す第3の実施形態のモザイク画像は、4×4画素に対応する正方配列パターンからなる基本配列パターンを有しており、この基本配列パターンが水平方向及び垂直方向に繰り返し配置されている。
 また、このモザイク画像は、G画素が水平、垂直、及び斜め(NE,NW)方向の各ライン内に配置されている。輝度系画素に対応するG画素が、水平、垂直、及び斜め(NE,NW)方向の各ライン内に配置されるため、高周波となる方向によらず高周波領域でのデモザイク(同時化)処理の再現精度を向上させることができる。
 更に、このモザイク画像の基本配列パターンは、その基本配列パターン内におけるG画素の画素数が、R画素、B画素の画素数よりも大きくなっている。
 上記のようにG画素の画素数がR,B画素の画素数よりも多いため、デモザイク(同時化)処理時におけるエリアシングを抑制することができるとともに、高周波再現性もよくすることができる。また、2つのモザイク画像間を水平又は垂直方向に画素ずらしすると、互いに重なるG画素が存在する。これにより、重なるG画素の画素値に基づいて1画素ピッチで、2つのモザイク画像間の画像ずれを検出することができる。
 図14A及び図14Bに示すモザイク画像は、それぞれ3×3画素に対応する正方配列パターンからなる基本配列パターンを有しており、この基本配列パターンが水平方向及び垂直方向に繰り返し配置されている。
 図14Aに示す第4の実施形態のモザイク画像は、G画素の配置に関しては図4に示した第1の実施形態と共通しており、これらのG画素に基づいて第1の実施形態のモザイク画像と同様に1画素ピッチで2つのモザイク画像間の画像ずれを検出することができる。
 図14Bに示す第5の実施形態のモザイク画像は、基本配列パターン内でG画素がL字状に配置されている。
 第5の実施形態のモザイク画像は、G画素が水平、垂直、及び斜め(NE,NW)方向の各ライン内に配置されている。輝度系画素に対応するG画素が、水平、垂直、及び斜め(NE,NW)方向の各ライン内に配置される。このため、高周波となる方向によらず高周波領域でのデモザイク(同時化)処理の再現精度を向上させることができる。
 また、第5の実施形態のモザイク画像は、2つのモザイク画像間を水平又は垂直方向に1画素ずつ画素ずらしすると、互いに重なるG画素が存在する。これにより、重なるG画素の画素値に基づいて1画素ピッチで、2つのモザイク画像間の画像ずれを検出することができる。
 [モザイク画像間の画像ずれの検出方法の他の実施形態]
 図10及び図11に示したモザイク画像間の画像ずれの検出方法は、画像A内のブロックBをサーチ範囲内で1画像ずつ移動させ、画像BのブロックBとのマッチングをとることにより、両ブロックの一致度が最大となるサーチ位置から画像Aと画像Bとの画像ずれを1画素ピッチで検出するようにしている。
 画像ずれの検出方法の他の実施形態は、1画素ピッチ以内の画像ずれを、パラボラフィッティング法又は等角フィッティング法を使用して検出する。
 <パラボラフィッティング法>
 図15はパラボラフィッティング法を使用したモザイク画像間の画像ずれ検出方法を示すフローチャートである。
 図15において、モザイク画像間の一致度を示す評価値が最小となる位置(サーチ位置)を、最小検出画素ピッチで検出する(ステップS50)。図10等で示したモザイク画像間の画像ずれの検出方法では、サーチ位置を1画素ずつ移動させているため、前記最小検出画素ピッチは1画素ピッチである。
 ステップS50で得られた評価値と、その評価値が得られた位置に隣接する位置の評価値とを取得し、これらの評価値を通る近似曲線を算出する(ステップS52)。
 図16は、最小の評価値が得られた位置mと、この位置mに隣接する前後の位置m-1,m+1における評価値、及びこれらの評価値(3つの評価値)を通る近似曲線を示すグラフである。
 ステップS52により近似曲線が算出されると、この近似曲線の最下点(最小値)の位置minを算出する(ステップS54)。これにより、最小検出画素ピッチ以内の画像間のずれを検出することができる。
 即ち、上記画像ずれ検出方法によれば、最小の評価値が得られた位置m(第1の画素ずらし)、及び位置mに隣接する前後の位置m-1,m+1(第1の画素ずらしに対し、相対的な位置ずれが近傍になる第2の画素ずらし)に対応して算出された評価値をそれぞれ取得し、第1、第2の画素ずらしに関する情報(位置m-1,m,m+1)と、第1、第2の画素ずらしに対応して算出された評価値とに基づいて、モザイク画像間の一致度が最大になる画像ずれ(位置min)を、最小検出画素ピッチ以内の精度で算出することができる。
 <等角フィッティング法>
 図17は第1の等角フィッティング法を使用したモザイク画像間の画像ずれ検出方法を示すフローチャートである。
 図17において、モザイク画像間の一致度を示す評価値が最小となる位置を、最小検出画素ピッチで検出する(ステップS60)。
 続いて、ステップS60で得られた位置に隣接する前後の位置の評価値を取得し、これらの評価値の大小を比較する(ステップS62)。
 ステップS62での評価値の大小の比較結果に基づいて各評価値を通る2直線を決定する(ステップS64)。
 図18A及び図18Bはそれぞれ最小の評価値が得られた位置mと、この位置mに隣接する前後の位置m-1,m+1における評価値、及びこれらの評価値(3つの評価値)を通る2直線を示すグラフである。
 即ち、ステップS64では、3つの評価値のうちの最小の評価値と最大の評価値とを通る1つの直線を決定し、この決定した直線の傾きと符号の異なる傾きを有し、かつ最小最大以外の評価値を通る他の直線を決定する。
 次に、ステップS64により決定した2直線の交点を算出し、この交点の位置minを算出する(ステップS66)。これにより、最小検出画素ピッチ以内の画像間のずれを検出することができる。
 図19は第2の等角フィッティング法を使用したモザイク画像間の画像ずれ検出方法を示すフローチャートである。
 図19において、モザイク画像間の一致度を示す評価値が最小となる位置を、最小検出画素ピッチで検出し(ステップS70)、検出した位置に隣接する前後の位置の評価値を取得し、これらの評価値の大小を比較する(ステップS72)。
 一方、ステップS70で検出した位置を基準に切り出した自画像(例えば、画像AのブロックB)を最小検出画素ピッチでずらした画像を作成し、自画像とずらした画像との差分をとって評価値を算出する(ステップS74)。
 ステップS74で得た評価値が、ステップS72で得た評価値よりも小さい場合には、サーチ位置に対して評価値の変化が少ない領域であると判断し、ステップS74で得た評価値を採用する(ステップS76)。
 続いて、ステップS72又はステップS76で得た評価値に基づいて各評価値を通る2直線を決定する(ステップS78)。
 図20は最小の評価値が得られた位置mと、この位置mに隣接する前後の位置m-1,m+1における評価値、及びこれらの評価値(3つの評価値)を通る2直線を示すグラフである。尚、位置m-1,m+1において、それぞれ2つの評価値が図示されているが、2つの評価値は、ステップS72で得た評価値とステップS74で得た評価値である。そして、最小の評価値が得られた位置に隣接する位置の評価値として、上記2つの評価値のうちの小さい方の評価値を採用し、2直線を決定するようにしている。
 次に、ステップS78により決定した2直線の交点を算出し、この交点の位置minを算出する(ステップS80)。これにより、最小検出画素ピッチ以内の画像間のずれを検出することができる。
 尚、最初に最小検出画素ピッチで検出された、一致度の評価値が最小となる位置からずれ方向(真に評価値が最小となる位置の方向)を検出し、その後、検出したずれ方向の評価値を使用して、上記パラボラフィッティング法又は等角フィッティング法により1画素ピッチ以内の画像ずれを検出するようにしてもよい。
 また、画像間のずれは、2次元面上で生じるため、1画素ピッチ以内の画像ずれを検出する場合には、上記の1画素ピッチ以内の画像ずれの検出を、上下方向及び左右方向(垂直及び水平方向)別に行う必要がある。
 更に、画像ずれ補正部150(図9)は、1画素ピッチ未満の精度で画像ずれが検出され、この画像ずれを補正する場合には、補正しようとする画素を、その画素の画素値と近傍の同色の画素の画素値とを補間して得た画素に置換することにより1画素ピッチ未満の画素ずれを補正する。
 [ベイヤ配列のモザイク画像への適用例]
 図21は、カラーフィルタ配列として最も広く用いられているベイヤ配列を有する撮像素子から出力される、ベイヤ配列のモザイク画像を示す図である。
 図21に示すようにベイヤ配列のモザイク画像は、Gが市松状(チェッカーフラグ状)に配置され、R画素、B画素がラインごとに交互に配置されている。
 図22の(a)部及び(b)部は、それぞれ連続して撮影された2枚のベイヤ配列のモザイク画像の一部を示す図である。図22では、特にモザイク画像中のG画素をハッチングで示し、他の色画素(R画素、B画素)と区別可能にしている。
 また、図22の(a)部に示すモザイク画像(画像A)と、図22の(b)部に示すモザイク画像(画像B)とは、水平方向に1画素ずれている。
 図22の(c)部は、上記画像Aと画像Bとを重ね合わせた画像を示している。図22の(c)部に示すように画像AのG画素と画像BのG画素とは、重なるG画素がない。一方、画像Aと画像Bとが水平方向に2画素ずれている場合には、全てのG画素が重なる。
 即ち、ベイヤ配列のモザイク画像間の画像ずれを検出する場合、最小検出画素ピッチは、水平方向又は垂直方向ともに2画素ピッチとなる。
 図23は2枚の画像間の一致度を検出する場合に両画像から読み出されるブロック等を示す図である。
 図23に示すように画像Aから読み出されるブロックBは、サーチ範囲Sのサーチ開始位置sからサーチ終了位置eまで順次サーチ位置をずらしながら読み出される。この場合のサーチ位置は、水平方向に1画素ずつ移動した位置に移動するのではなく、最小検出画素ピッチである2画素ピッチずつ(1画素置きに)移動する。即ち、サーチ位置は、ベイヤ配列のG画素の位置に対応した位置に移動する。
 また、各サーチ位置において画像Aから読み出されるブロックBと、画像Bから読み出されるブロックBとは、サーチ位置にかかわらず、各ブロック内の全てのG画素が重なる。
 したがって、ブロックBとブロックB内の互いに重なるG画素の画素値に基づいて、前述したブロックマッチング法によりブロックBとブロックBとの一致度(即ち、画像A,B間の画像ずれ)を検出することができる。
 一方、ベイヤ配列のモザイク画像の場合、最小検出画素ピッチが2画素ピッチであるため、画像間の画像ずれの検出の精度が2画素ピッチになる。画像ずれの検出精度を2画素ピッチよりも高くする場合には、2画素ピッチで算出される複数の評価値を使用し、前述したパラボラフィッティング法又は等角フィッティング法を適用すればよい。これにより、最小検出画素ピッチ(2画素ピッチ)以内の画像ずれを検出することができる。
 [画像ずれの検出にRGBの各画素を使用する実施形態]
 上記の実施形態では、モザイク画像中のG画素を使用してモザイク画像間の画像ずれを検出するようにしたが、これに限らず、R画素、B画素を使用してもよい。
 図24は、第1の実施形態の2枚のモザイク画像を、上下方向及び左右方向に±2画素の範囲内で相対的に画素ずらしをした場合に重なる画素等を示す図である。尚、図8では、画像間を画素ずらしをした場合に重なるG画素を示したが、図24では、画像間を画素ずらしをした場合に重なるR画素及びB画素も示している。
 図24に示すように全25通りの画素ずらしのうち、12通りの画素ずらしにおいて、R画素及びB画素の一部が重なる。したがって、12通りの画素ずらしにおいては、重なったR、G、B画素の画素値に基づいて、これらのR、G、B画素の組合せに応じた複数種類の評価値を算出することができる。
 前述した画像ずれ検出部140(図9)は、例えば、サーチ範囲が上下方向及び左右方向にそれぞれ±2画素の場合には、全25通りの画素ずらし(サーチ位置)毎にそれぞれ算出された25の評価値のうちの最小の評価値が得られたときの、サーチ位置から画像ずれを検出するが、R画素及びB画素の画素値により算出される評価値を使用することにより、以下に示す画像ずれの検出を行うことができる。
 G画素の画素値に基づいて算出した25の評価値のうち、最小の評価値が複数存在する場合(ほぼ同じ評価値も含む)において、複数の評価値が得られた画素ずらしのうちのいずれの画素ずらしが、正しい画像ずれに対応するものかを判断するために、R画素及びB画素の画素値により算出される評価値を使用する。
 即ち、複数の評価値が得られた画素ずらしのうちの1以上の画素ずらしが、前記12通りの画素ずらしに該当する場合には、その画素ずらしに対してR画素及びB画素の画素値に基づいて別の評価値を算出することができる。そして、別の評価値が最小の評価値に近い場合には、その画素ずらしは、正しい画像ずれに対応するものと判断することができる。一方、別の評価値が、両画像がほぼ一致していると判断される評価値に比べて大きい場合には、その画素ずらしは、正しい画像ずれに対応するものから除外することができる。これにより、最小の評価値が得られた複数の画素ずらしのうちから、正しい画像ずれに対応する画像ずらしを絞り込むことができる。
 撮像装置10の他の実施形態としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
 [スマートフォンの構成]
 図25は、撮像装置10の他の実施形態であるスマートフォン500の外観を示すものである。図25に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。尚、筐体502の構成はこれに限定されない。例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
 図26は、図25に示すスマートフォン500の構成を示すブロック図である。図26に示すように、スマートフォンの主たる構成要素として、無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。また、スマートフォン500の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部510は、主制御部501の指示に従って、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部520は、主制御部501の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。生成された3D画像を鑑賞する場合には、表示パネル521は、3D表示パネルであることが好ましい。
 表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。
 操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。
 図25に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 尚、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要はない。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。また、図25に示すように、例えば、スピーカ531を表示入力部520が設けられた面と同じ面に搭載し、マイクロホン532を筐体502の側面に搭載することができる。
 操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、操作部540は、スマートフォン500の筐体502の表示部の下部、下側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部550は、主制御部501の制御プログラムや制御データ、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。尚、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部570は、主制御部501の指示に従って、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN(Local Area Network))から位置情報を取得できるときには、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示に従って、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
 電源部590は、主制御部501の指示に従って、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データに従って動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアに従って主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。
 更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。このカメラ部541に、前述した撮像装置10を適用することができる。
 また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを、例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力することができる。図25に示すにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは、複数のカメラ部541が搭載されてもよい。尚、複数のカメラ部541が搭載されている場合には、撮影に供するカメラ部541を切り替えて単独にて撮影したり、あるいは、複数のカメラ部541を同時に使用して撮影することもできる。
 また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力の1つとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。更には、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。
 [その他]
 この実施形態では、撮像装置又はスマートフォンについて説明したが、本発明は、RAWデータ(モザイク画像)の記録が可能な撮像装置から直接、又は記録媒体を介して連続撮影された複数のモザイク画像を取得し、これらのモザイク画像に対して本発明に係る画像処理を含む各種の画像処理(「RAW現像」という)を行うパーソナルコンピュータ等の画像処理装置にも適用できる。また、本発明は、汎用のパーソナルコンピュータにインストールされることにより該パーソナルコンピュータを上記画像処理装置として機能させるRAW現像ソフト(画像処理プログラム)、及びこのRAW現像ソフトが記録された記録媒体(非一次的(non-transitory)な記録媒体)を含む。画像処理プログラムは、少なくとも上記画像処理装置の画像取得部、画素抽出部、評価値算出部、及び画像ずれ検出部に対応する画像取得機能、画素抽出機能、評価値算出機能及び画像ずれ検出機能を、コンピュータを実行させるものである。
 また、本発明は、この実施形態に示したモザイク画像に限らず、種々のものが適用でき、例えば、RGBの画素からなるモザイク画像以外に、ホワイト、エメラルド、イエロー等の他の色の画素を含むモザイク画像や、原色RGBの補色であるC(シアン)、M(マゼンタ)、Y(イエロー)にGを加えた4色の補色系のモザイク画像にも適用できる。
 更に本発明は、デモザイク(同時化)処理等の画像処理を施す前のモザイク画像の段階で、複数のモザイク画像間のずれの補正及び複数のモザイク画像の画像合成等の画像処理を行うようにしたため、画像処理の処理量及び処理時間の低減を図ることができるが、この実施形態によれば、2バイトのモザイク画像(RAWデータ)の段階で上記の画像処理を行うため、デモザイク(同時化)処理後の1バイトの画像データで同様な画像処理を行う場合に比べて画質の劣化を防止することができるという効果がある。
 また、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
 10…撮像装置、12…撮影レンズ、14…撮像素子、16…撮影処理部、18…画像処理部、18A…第1の画像処理部、18B…第2の画像処理部、20…駆動部、22…制御部、110…画素ずらし指示部、120A,120B…画素抽出部、130…評価値算出部、140…画像ずれ検出部、150…画像ずれ補正部、160…画像合成部

Claims (19)

  1.  第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に3色以上のカラーフィルタが規則的に配列されてなる撮像素子から取得された前記カラーフィルタのフィルタ配列に対応するモザイク画像であって、同一の被写体に対して連続して撮像された第1のモザイク画像及び第2のモザイク画像を取得する画像取得部と、
     前記画像取得部により取得した第1のモザイク画像と第2のモザイク画像とを最小検出画素ピッチ毎に相対的に画素ずらしをし、当該画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素を抽出する画素抽出部と、
     前記画素抽出部により抽出された同色の画素間の各画素値に基づいて前記第1のモザイク画像と第2のモザイク画像との一致度を示す評価値を算出する評価値算出部と、
     前記評価値算出部により算出された評価値と前記画素抽出部による画素ずらしに関する情報とに基づいて前記第1のモザイク画像と第2のモザイク画像との画像ずれを検出する画像ずれ検出部と、
     を備えた画像処理装置。
  2.  前記画像ずれ検出部は、前記評価値算出部により算出された評価値に基づいて、前記第1のモザイク画像と第2のモザイク画像との一致度が最大になるときの前記画素抽出部による画素ずらしに関する情報を取得し、取得した画素ずらしに関する情報に基づいて前記画像ずれを検出する請求項1に記載の画像処理装置。
  3.  前記画素抽出部は、前記第1のモザイク画像と第2のモザイク画像との一致度が最大になる第1の画素ずらしと、前記第1の画素ずらしをした場合の前記第1のモザイク画像と第2のモザイク画像の相対的な位置ずれに対し、当該相対的な位置ずれが近傍になるよう前記第1のモザイク画像と第2のモザイク画像に対し第2の画素ずらしを行い、
     前記評価値算出部は、前記第1の画素ずらしをした場合の前記第1のモザイク画像と第2のモザイク画像との一致度を示す第1の評価値と、前記第2の画素ずらしをした場合の前記第1のモザイク画像と第2のモザイク画像との一致度を示す第2の評価値とを算出し、
     前記画像ずれ検出部は、前記第1、第2の画素ずらしに関する情報と、該第1、第2の画素ずらしに対応して前記評価値算出部により算出された前記第1、第2の評価値とに基づいて前記第1のモザイク画像と第2のモザイク画像との一致度が最大になる前記画像ずれを算出する請求項1に記載の画像処理装置。
  4.  前記第1のモザイク画像及び第2のモザイク画像は、前記第1の方向の±n画素(n:整数)の画素ずらしと、前記第2の方向の±n画素の画素ずらしと、前記第1の方向の±n画素の画素ずらしと前記第2の方向の±n画素の画素ずらしとを組み合わせた画素ずらしとを含む全ての画素ずらしに対して、当該全ての画素ずらしに対応して画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素が存在する請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記画像ずれ検出部は、前記第1の方向の画像ずれ、第2の方向の画像ずれ、及び前記第1の方向の画像ずれと第2の方向の画像ずれとを組み合わせた画像ずれを、隣接する画素間の1ピッチ以内の精度で検知する請求項1から4のいずれか1項に記載の画像処理装置。
  6.  前記モザイク画像は、N×N(N:3以上の整数)画素に対応する基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置されたものである請求項4に記載の画像処理装置。
  7.  前記モザイク画像は、3×3画素に対応する基本配列パターン、又は3×3画素に対応するサブ配列パターンを組み合わせた6×6画素に対応する基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置されたものである請求項6に記載の画像処理装置。
  8.  前記画素抽出部は、
     前記画像取得部により取得した第1のモザイク画像と第2のモザイク画像とを画素ずらしする前記第1の方向の±n画素(n:整数)の画素ずらしと、前記第2の方向の±n画素の画素ずらしと、前記第1の方向の±n画素の画素ずらしと前記第2の方向の±n画素の画素ずらしとを組み合わせた全ての画素ずらしに対し、当該全ての画素ずらしのうちの各画素ずらしに対応して、画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素の位置を示すパターンをそれぞれ記憶する記憶部を有し、
     前記画素ずらしに対応して前記記憶部から読み出したパターンに基づいて前記画像取得部により取得した第1のモザイク画像及び第2のモザイク画像から画素ずらし後の第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素を抽出する請求項1から7のいずれか1項に記載の画像処理装置。
  9.  前記第1のモザイク画像及び第2のモザイク画像は、前記第1の方向の±n画素(n:偶数)の画素ずらしと、前記第2の方向の±n画素の画素ずらしと、前記第1の方向の±n画素の画素ずらしと前記第2の方向の±n画素の画素ずらしとを組み合わせた画素ずらしとを含む全ての画素ずらしに対して、当該全ての画素ずらしに対応して画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素が存在し、
     前記画像ずれ検出部は、前記第1の方向の画像ずれ、第2の方向の画像ずれ、及び前記第1の方向の画像ずれと第2の方向の画像ずれとを組み合わせた画像ずれを、1画素置きの画素間隔で検知する請求項1から3のいずれか1項に記載の画像処理装置。
  10.  前記モザイク画像は、ベイヤ配列の前記カラーフィルタを有する撮像素子から取得されたものである請求項9に記載の画像処理装置。
  11.  前記画像ずれ検出部により検出された画像ずれに基づいて前記第1のモザイク画像と第2のモザイク画像との画像ずれを補正する画像ずれ補正部と、
     前記画像ずれ補正部により画像ずれが補正された前記第1のモザイク画像と第2のモザイク画像とに基づいて第3のモザイク画像を生成する画像生成部と、
     を備えた請求項1から10のいずれか1項に記載の画像処理装置。
  12.  前記画像ずれ補正部は、前記画像ずれを補正した前記第1のモザイク画像及び第2のモザイク画像のうちの少なくとも一方のモザイク画像の各画素を、他方のモザイク画像の対応する位置の画素の色と一致するように補正する請求項11に記載の画像処理装置。
  13.  前記評価値算出部は、前記画素抽出部により抽出された同色の画素間の各画素値の差分絶対値和、又は差分自乗和を算出し、算出した差分絶対値和、又は差分自乗和を、前記第1のモザイク画像と第2のモザイク画像との一致度を示す評価値として算出する請求項1から12のいずれか1項に記載の画像処理装置。
  14.  前記第1のモザイク画像及び第2のモザイク画像は、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が前記第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有するカラーフィルタが配設されてなる撮像素子から取得されたものであり、
     前記画素抽出部は、前記画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色となる第1の色の画素を抽出する請求項1から13のいずれか1項に記載の画像処理装置。
  15.  前記第1のモザイク画像及び第2のモザイク画像は、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が前記第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有するカラーフィルタが配設されてなる撮像素子から取得されたものであり、
     前記画素抽出部は、前記画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色となる第1の色及び第2の色の画素を抽出する請求項1から14のいずれか1項に記載の画像処理装置。
  16.  第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が前記第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有するカラーフィルタが配設されてなる撮像素子と、
     請求項1から15のいずれか1項に記載の画像処理装置と、を備え、
     前記画像取得部は、複数の画像を連続して撮像させる撮像時に前記撮像素子から少なくとも前記第1のモザイク画像及び第2のモザイク画像を取得する撮像装置。
  17.  第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に3色以上のカラーフィルタが規則的に配列されてなる撮像素子から取得された前記カラーフィルタのフィルタ配列に対応するモザイク画像であって、同一の被写体に対して連続して撮像された第1のモザイク画像及び第2のモザイク画像を取得する画像取得工程と、
     前記画像取得工程により取得した第1のモザイク画像と第2のモザイク画像とを最小検出画素ピッチ毎に相対的に画素ずらしをし、当該画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素を抽出する画素抽出工程と、
     前記画素抽出工程により抽出された同色の画素間の各画素値に基づいて前記第1のモザイク画像と第2のモザイク画像との一致度を示す評価値を算出する評価値算出工程と、
     前記評価値算出工程により算出された評価値と前記画素抽出工程による画素ずらしに関する情報とに基づいて前記第1のモザイク画像と第2のモザイク画像との画像ずれを検出する画像ずれ検出工程と、
     を含む画像処理方法。
  18.  コンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がプロセッサによって読み取られた場合に、前記プロセッサが、
     第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に3色以上のカラーフィルタが規則的に配列されてなる撮像素子から取得された前記カラーフィルタのフィルタ配列に対応するモザイク画像であって、同一の被写体に対して連続して撮像された第1のモザイク画像及び第2のモザイク画像を取得する画像取得工程と、
     前記画像取得工程により取得した第1のモザイク画像と第2のモザイク画像とを最小検出画素ピッチ毎に相対的に画素ずらしをし、当該画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素を抽出する画素抽出工程と、
     前記画素抽出工程により抽出された同色の画素間の各画素値に基づいて前記第1のモザイク画像と第2のモザイク画像との一致度を示す評価値を算出する評価値算出工程と、
     前記評価値算出工程により算出された評価値と前記画素抽出工程による画素ずらしに関する情報とに基づいて前記第1のモザイク画像と第2のモザイク画像との画像ずれを検出する画像ずれ検出工程と、
     を実行する記録媒体。
  19.  第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に3色以上のカラーフィルタが規則的に配列されてなる撮像素子から取得された前記カラーフィルタのフィルタ配列に対応するモザイク画像であって、同一の被写体に対して連続して撮像された第1のモザイク画像及び第2のモザイク画像を取得する画像取得機能と、
     前記画像取得機能により取得した第1のモザイク画像と第2のモザイク画像とを最小検出画素ピッチ毎に相対的に画素ずらしをし、当該画素ずらしをした第1のモザイク画像と第2のモザイク画像との重複する画素同士で同色になる画素を抽出する画素抽出機能と、
     前記画素抽出機能により抽出された同色の画素間の各画素値に基づいて前記第1のモザイク画像と第2のモザイク画像との一致度を示す評価値を算出する評価値算出機能と、
     前記評価値算出機能により算出された評価値と前記画素抽出機能による画素ずらしに関する情報とに基づいて前記第1のモザイク画像と第2のモザイク画像との画像ずれを検出する画像ずれ検出機能と、
     をコンピュータに実行させる画像処理プログラム。
PCT/JP2013/080243 2012-11-30 2013-11-08 画像処理装置、方法、記録媒体及びプログラム並びに撮像装置 WO2014084022A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014550105A JP5798696B2 (ja) 2012-11-30 2013-11-08 画像処理装置、方法、記録媒体及びプログラム並びに撮像装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012262443 2012-11-30
JP2012-262443 2012-11-30

Publications (1)

Publication Number Publication Date
WO2014084022A1 true WO2014084022A1 (ja) 2014-06-05

Family

ID=50827668

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080243 WO2014084022A1 (ja) 2012-11-30 2013-11-08 画像処理装置、方法、記録媒体及びプログラム並びに撮像装置

Country Status (2)

Country Link
JP (1) JP5798696B2 (ja)
WO (1) WO2014084022A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106657996A (zh) * 2016-11-09 2017-05-10 广州视源电子科技股份有限公司 显示设备的性能参数检测方法和系统
CN112313472A (zh) * 2018-10-29 2021-02-02 松下知识产权经营株式会社 信息提示方法、信息提示装置、以及信息提示系统
US20220114710A1 (en) * 2020-10-12 2022-04-14 Nec Corporation Image correction device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002094999A (ja) * 2000-09-18 2002-03-29 Mitsubishi Electric Corp 撮像装置
WO2004114677A1 (ja) * 2003-06-23 2004-12-29 Sony Corporation 画像処理方法および装置、並びにプログラム
JP2005038396A (ja) * 2003-06-23 2005-02-10 Sony Corp 画像処理方法および装置、並びにプログラム
EP1793346A2 (en) * 2005-12-01 2007-06-06 Sony Corporation Image processing apparatus and image processing method
CN1976399A (zh) * 2005-12-01 2007-06-06 索尼株式会社 图像处理装置和图像处理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157568A (ja) * 2004-11-30 2006-06-15 Konica Minolta Holdings Inc 撮像装置およびプログラム
JP4630174B2 (ja) * 2005-11-14 2011-02-09 日本放送協会 動きベクトル検出装置
JP4340915B2 (ja) * 2006-02-01 2009-10-07 ソニー株式会社 撮像画像信号の歪み補正方法、撮像画像信号の歪み補正装置、撮像方法および撮像装置
JP2009230537A (ja) * 2008-03-24 2009-10-08 Olympus Corp 画像処理装置、画像処理プログラム、画像処理方法、および、電子機器
JP5687608B2 (ja) * 2011-11-28 2015-03-18 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002094999A (ja) * 2000-09-18 2002-03-29 Mitsubishi Electric Corp 撮像装置
CN101431684A (zh) * 2003-06-23 2009-05-13 索尼株式会社 处理图像的方法和设备
EP1638340A1 (en) * 2003-06-23 2006-03-22 Sony Corporation Image processing method and device, and program
US20120320229A1 (en) * 2003-06-23 2012-12-20 Mitsuharu Ohki Method, apparatus, and program for processing an image
KR20060020595A (ko) * 2003-06-23 2006-03-06 소니 가부시끼 가이샤 화상 처리 방법 및 장치, 및 프로그램
KR101032233B1 (ko) * 2003-06-23 2011-05-02 소니 주식회사 화상 처리 방법 및 장치, 및 프로그램이 기록된 컴퓨터 판독가능한 기록 매체
US20060140507A1 (en) * 2003-06-23 2006-06-29 Mitsuharu Ohki Image processing method and device, and program
US20090225200A1 (en) * 2003-06-23 2009-09-10 Sony Corporation Method, apparatus, and program for processing an image
CN101431683A (zh) * 2003-06-23 2009-05-13 索尼株式会社 处理图像的方法和设备
CN1701614A (zh) * 2003-06-23 2005-11-23 索尼株式会社 处理图像的方法、设备和程序
JP2005038396A (ja) * 2003-06-23 2005-02-10 Sony Corp 画像処理方法および装置、並びにプログラム
CN101431685A (zh) * 2003-06-23 2009-05-13 索尼株式会社 处理图像的方法和设备
WO2004114677A1 (ja) * 2003-06-23 2004-12-29 Sony Corporation 画像処理方法および装置、並びにプログラム
CN1976399A (zh) * 2005-12-01 2007-06-06 索尼株式会社 图像处理装置和图像处理方法
JP2007181168A (ja) * 2005-12-01 2007-07-12 Sony Corp 画像処理装置および画像処理方法
EP1793346A2 (en) * 2005-12-01 2007-06-06 Sony Corporation Image processing apparatus and image processing method
US20070140591A1 (en) * 2005-12-01 2007-06-21 Sony Corporation Image processing apparatus and image processing method
KR20070057664A (ko) * 2005-12-01 2007-06-07 소니 가부시키가이샤 화상 처리 장치 및 화상 처리 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106657996A (zh) * 2016-11-09 2017-05-10 广州视源电子科技股份有限公司 显示设备的性能参数检测方法和系统
CN106657996B (zh) * 2016-11-09 2019-03-26 广州视源电子科技股份有限公司 显示设备的性能参数检测方法和系统
CN112313472A (zh) * 2018-10-29 2021-02-02 松下知识产权经营株式会社 信息提示方法、信息提示装置、以及信息提示系统
CN112313472B (zh) * 2018-10-29 2023-12-26 松下知识产权经营株式会社 信息提示方法、信息提示装置、以及信息提示系统
US20220114710A1 (en) * 2020-10-12 2022-04-14 Nec Corporation Image correction device

Also Published As

Publication number Publication date
JPWO2014084022A1 (ja) 2017-01-05
JP5798696B2 (ja) 2015-10-21

Similar Documents

Publication Publication Date Title
JP5755814B2 (ja) 画像処理装置、方法、プログラム及び撮像装置
JP5697801B2 (ja) 撮像装置及び自動焦点調節方法
JP5740054B2 (ja) 撮像装置及び画像処理方法
JP5775977B2 (ja) 画像処理装置、撮像装置、画像処理方法、及び画像処理プログラム
JP5749401B2 (ja) 画像処理装置、撮像装置、コンピュータ、画像処理方法及びプログラム
WO2014006783A1 (ja) 撮像装置及び画像処理方法
JP5753323B2 (ja) 撮像装置及び画像表示方法
JPWO2014122804A1 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US11290635B2 (en) Imaging apparatus and image processing method
CN110447223B (zh) 摄像装置
JP5680799B2 (ja) 画像処理システム、送信側装置および受信側装置
JP5897769B2 (ja) 撮像装置、キャリブレーションシステム、及びプログラム
JP5749409B2 (ja) 撮像装置、画像処理方法及びプログラム
JP5798696B2 (ja) 画像処理装置、方法、記録媒体及びプログラム並びに撮像装置
WO2013183379A1 (ja) 画像処理装置、撮像装置、コンピュータ、画像処理方法及びプログラム
JP6580801B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
WO2014097792A1 (ja) 撮像装置、信号処理方法、信号処理プログラム
JP5680803B2 (ja) 画像処理装置および方法ならびに撮像装置
JP5740053B6 (ja) 撮像装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13858072

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014550105

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13858072

Country of ref document: EP

Kind code of ref document: A1