[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2015151747A1 - 画像処理装置、撮像装置、画像処理方法及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法及びプログラム Download PDF

Info

Publication number
WO2015151747A1
WO2015151747A1 PCT/JP2015/057275 JP2015057275W WO2015151747A1 WO 2015151747 A1 WO2015151747 A1 WO 2015151747A1 JP 2015057275 W JP2015057275 W JP 2015057275W WO 2015151747 A1 WO2015151747 A1 WO 2015151747A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
white balance
pixel
base value
gain
Prior art date
Application number
PCT/JP2015/057275
Other languages
English (en)
French (fr)
Inventor
慎也 藤原
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201580017975.8A priority Critical patent/CN106165409B/zh
Priority to JP2016511496A priority patent/JP6063092B2/ja
Publication of WO2015151747A1 publication Critical patent/WO2015151747A1/ja
Priority to US15/276,364 priority patent/US10021361B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Definitions

  • the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program, and more particularly to a multi-area white balance processing technique.
  • Multi-area white balance processing applies a different white balance gain (hereinafter referred to as “WB gain”) for each pixel or area constituting one image.
  • WB processing white balance processing
  • the hue (color balance) of each pixel (each area) can be adjusted even if the subject is irradiated with light from a plurality of light sources at different ratios for each pixel (each area). It can be corrected appropriately.
  • the person when shooting a night scene of a person with a flash, the person is imaged under the influence of flash light (for example, light that contains a lot of blue wavelengths), but the background (night scene) in the captured image is affected by the flash light.
  • the image is taken under the influence of other environmental light such as a sodium lamp (light containing a lot of red wavelengths).
  • WB processing in order to improve the hue (color balance) of the person image by WB processing, it is required to apply a WB gain that cancels the influence of the flash light to the person image, while the background hue (color balance) is changed.
  • it is required to apply a WB gain that cancels the influence of other ambient light to the background image. Therefore, when a common WB gain is applied to all the pixels constituting the image, it is difficult to achieve both a human hue (color balance) and a background hue (color balance).
  • the WB gain applied to the person portion included in one image and the WB gain applied to the background portion can be changed. Therefore, for example, by optimizing the applied WB gain for each pixel in accordance with the influence amount of the flash light, it is possible to achieve both the hue of the person (color balance) and the hue of the background (color balance).
  • Patent Document 1 discloses a white balance control device capable of suppressing variations in white balance control values calculated using color information obtained from a subject area.
  • This white balance control device detects a subject area from an image, divides the image into a plurality of areas, calculates color information representing a representative color of the area and determines a weight for each of the areas overlapping with the subject area. To do. Then, the white balance control device integrates each of the color information by applying the weight determined for the region overlapping with the subject region, and from the integration result of the color information and the predetermined target color information, A white balance control value is calculated such that the representative color becomes the target color.
  • WB gain may be stored along with image data to enable image white balance adjustment after image data is stored.
  • the imaging apparatus described in Patent Document 2 stores RAW image data of a main image together with incidental information necessary for development processing in a storage medium, and performs automatic white balance adjustment during the development processing of RAW image data. Making it possible.
  • the image processing apparatus described in Patent Document 3 generates intermediate RAW image data by applying the first white balance coefficient value for the first light source to the RAW image data, and generates the second white for light sources other than the first light source.
  • Information that can specify the balance coefficient value is stored as white balance information in association with the intermediate RAW image data, thereby enabling white balance readjustment.
  • the imaging apparatus described in Patent Literature 4 generates a developed image by performing color reproduction processing with a first color reproduction parameter applied at the time of imaging on a RAW image, and includes data relating to the first color reproduction parameter, the first An image file is generated by associating data relating to the second color reproduction parameter corresponding to the color reproduction of the subject under a light source different from the color reproduction parameter with the data of the developed image.
  • the first color reproduction parameter and the second color reproduction parameter can be used when the retouching of the developed image is performed.
  • processing reverse color reproduction processing
  • the multi-area WB process has a WB gain of about 16,000,000 pixels (more precisely, 15,928,704 pixels). Need to hold. Therefore, if multi-area WB processing requires WB gain for three colors per pixel (for RGB data), the amount of WB gain data is about 16,000,000 times (strictly, 15,928,704 times) compared to the conventional case. become. Even if a WB gain for one color per pixel is required, the WB gain data amount is about 5,333,333 times (strictly, 5,309,568 times) compared to the conventional case.
  • the present invention has been made in view of the above-described circumstances, and provides a technique that makes it possible to obtain image data subjected to appropriate multi-area white balance processing afterwards while suppressing the required storage capacity.
  • the purpose is to provide.
  • a gain acquisition unit that acquires a white balance gain for each pixel of original image data and a white balance base value are determined, and the white balance gain for the white balance base value is determined for each pixel of the original image data.
  • the present invention relates to an image processing apparatus comprising: a ratio acquisition unit that acquires a white balance ratio that indicates a ratio; and a processed image acquisition unit that acquires processed image data by multiplying a pixel value by a white balance ratio for each pixel of original image data. .
  • the white balance base value by multiplying the pixel value of the processed image data by the white balance base value, it is possible to obtain image data in which the white balance gain is applied to the pixel value of the original image data.
  • a multi-area WB that applies a different WB gain for each pixel while suppressing the required storage capacity. It becomes possible to carry out the processing with accuracy after the fact.
  • the white balance base value may be an arbitrary value, and may be a predetermined value, for example, or a value determined according to the white balance setting mode when the original image data is acquired. Also good. For example, from the viewpoint of obtaining processed image data having a pixel value with a small difference from the pixel value of the original image data, the pixel area where the white balance ratio is close to “1” and the white balance ratio is “1”. It is preferable to make the pixel area where the white balance ratio is “1” the largest, compared with the pixel area where the white balance ratio is other than “1”. Therefore, the white balance base value may be determined based on the white balance gain acquired for each pixel of the original image data, and based on the average value or median value of the white balance gain assigned to each pixel of the original image data. The white balance base value may be determined.
  • the image processing apparatus further includes a light source type determination unit that determines a light source type of the original image data, and the gain acquisition unit is configured to generate an original image based on the light source type of the original image data determined by the light source type determination unit.
  • a white balance gain is acquired for each pixel of data.
  • the white balance gain for each pixel of the original image data can be accurately acquired based on the light source type of the original image data.
  • the image processing apparatus includes: a light source type data acquisition unit that acquires first image data indicating the influence of the first light source type; and second image data indicating the influence of the second light source type.
  • the gain acquisition unit further includes a first light source type and a second light source type when the light source type of the original image data determined by the light source type determination unit includes the first light source type and the second light source type. Based on this, the white balance gain for each pixel of the original image data is acquired.
  • the white balance gain for each pixel of the original image data can be accurately acquired based on the first light source type and the second light source type.
  • the image processing apparatus further includes a flash image acquisition unit that acquires flash emission image data captured by emitting a flash and flash non-emission image data captured without emitting the flash, and includes light source type data.
  • the acquisition unit acquires the first image data based on the flash non-emission image data using the first light source type as the ambient light, and the second light source based on the flash emission image data using the second light source type as the flash light. Get image data.
  • the light source type data acquisition unit includes an environmental light gain acquisition unit that acquires an environmental light white balance gain that is determined by using the environmental light of the original image data determined by the light source type determination unit, and the flash light as the light source.
  • a flash light gain acquisition unit that acquires a white balance gain for flash light determined as a seed, and a first luminance value for each pixel of flash non-emission image data is acquired as first image data, and pixels of flash emission image data
  • a flash influence level acquisition unit that acquires a second brightness value for each pixel as second image data and acquires a flash influence level for each pixel from the first brightness value and the second brightness value, and gain The acquisition unit obtains the original image data based on the flash influence level from the ambient light white balance gain and the flash light white balance gain. It acquires the white balance gain for each pixel of data.
  • the white balance gain for each pixel of the original image data can be accurately obtained based on the flash influence degree obtained from the luminance values of the flash emission image data and the flash non-emission image data.
  • the ratio acquisition unit determines the white balance base value based on one light source type included in the light source type of the original image data determined by the light source type determination unit.
  • the ratio acquisition unit determines the white balance base value based on the ambient light of the original image data determined by the light source type determination unit.
  • the white balance base value can be easily determined based on one light source type (environmental light or the like) included in the light source type of the original image data.
  • the image processing apparatus further includes a data recording unit that stores the processed image data and the white balance base value in a storage medium.
  • the white balance base value stored in the storage medium can be used.
  • processed image data obtained by multiplying a pixel value by a white balance ratio indicating a ratio of a white balance gain to a white balance base value for each pixel of the original image data, and a white balance base value
  • a processing data acquisition unit for acquiring the white balance adjustment image data by multiplying the pixel value by the white balance base value for each pixel of the processing image data.
  • the present invention relates to a processing apparatus.
  • a pixel having a white balance ratio indicating a ratio of a white balance gain to a white balance base value determined based on a white balance setting mode when the original image data is acquired A processing data acquisition unit that acquires processing image data acquired by multiplying the value from a storage medium, a setting mode acquisition unit that acquires information of a white balance setting mode when the original image data is acquired, and original image data.
  • a white balance processing unit for multiplying the value to obtain white balance adjustment image data An image processing apparatus comprising.
  • the method for estimating the white balance base value based on the information of the white balance setting mode is not particularly limited, and the base value acquisition unit analyzes, for example, image characteristics such as color distribution and luminance distribution of the processed image data, and the analysis result May be used to estimate the white balance base value.
  • a pixel having a white balance ratio indicating a ratio of a white balance gain to a white balance base value determined based on a white balance setting mode when the original image data is acquired A processing data acquisition unit that acquires processing image data acquired by multiplying the value from a storage medium, a setting mode acquisition unit that acquires information of a white balance setting mode when the original image data is acquired, and processing image data
  • the white balance processing mode is the same as the white balance setting mode based on the processing mode acquisition unit that acquires information on the white balance processing mode applied to the white balance setting mode and the white balance processing mode information. If determined, it is based on the white balance setting mode.
  • a white balance base value and when it is determined that the white balance processing mode is different from the white balance setting mode, a base value acquisition unit that acquires a white balance base value based on the white balance processing mode, and a processed image
  • the present invention relates to an image processing apparatus including a white balance processing unit that acquires white balance adjusted image data by multiplying a white balance base value acquired by a base value acquisition unit for each pixel of data.
  • the “white balance processing mode” here is a white balance mode for adjusting the white balance of the processed image data, and does not necessarily match the white balance setting mode when the original image data is acquired.
  • the “white balance processing mode” is determined by an arbitrary method, and the user may determine the white balance processing mode, or the image processing apparatus may determine the white balance processing mode based on various conditions.
  • the white balance setting mode is a preset white balance mode in which a white balance gain is determined in advance, and an auto white balance in which a white balance gain to be applied to original image data is determined based on color distribution information of the original image data.
  • the processed image data is RAW image data.
  • white balance adjusted image data can be obtained, for example, when developing processed image data (RAW image data).
  • the processed image data is uncompressed image data.
  • the processed image data is lossless compressed image data.
  • the processed image data is lossy compressed image data.
  • Another aspect of the present invention relates to an imaging device that includes an imaging device and the above-described image processing device, and in which original image data is acquired by the imaging device.
  • Another aspect of the present invention acquires a white balance gain for each pixel of the original image data, determines a white balance base value, and indicates a ratio of the white balance gain to the white balance base value for each pixel of the original image data.
  • the present invention relates to an image processing method for obtaining a white balance ratio and multiplying a pixel value by a white balance ratio for each pixel of original image data to obtain processed image data.
  • processed image data obtained by multiplying a pixel value by a white balance ratio indicating a ratio of a white balance gain to a white balance base value for each pixel of the original image data, and a white balance base value Is obtained from a storage medium, and for each pixel of the processed image data, the white balance base value is multiplied by the pixel value to obtain white balance adjusted image data.
  • a pixel having a white balance ratio indicating a ratio of a white balance gain to a white balance base value determined based on a white balance setting mode when the original image data is acquired Processed image data obtained by multiplying the value is acquired from the storage medium, information on the white balance setting mode when the original image data is acquired is acquired, and the white balance setting mode when the original image data is acquired.
  • the present invention relates to an image processing method for estimating a white balance base value based on information and multiplying the estimated white balance base value by a pixel value for each pixel of processed image data to obtain white balance adjusted image data.
  • a pixel having a white balance ratio indicating a ratio of a white balance gain to a white balance base value determined based on a white balance setting mode when the original image data is acquired Processing image data acquired by multiplying the value is acquired from the storage medium, information on the white balance setting mode when the original image data is acquired is acquired, and information on the white balance processing mode applied to the processing image data If the white balance processing mode is determined to be the same as the white balance setting mode based on the white balance setting mode information and the white balance processing mode information, the white balance setting mode Acquires the balance base value and sets the white balance processing mode.
  • the white balance base value is acquired based on the white balance processing mode, and the acquired white balance base value is multiplied for each pixel of the processed image data.
  • the present invention relates to an image processing method for acquiring white balance adjusted image data.
  • a procedure for acquiring a white balance gain for each pixel of original image data and a white balance base value are determined, and a ratio of the white balance gain to the white balance base value for each pixel of the original image data.
  • the present invention relates to a program for causing a computer to execute a procedure for acquiring a white balance ratio indicating the above and a procedure for acquiring processed image data by multiplying a pixel value by a white balance ratio for each pixel of original image data.
  • processed image data obtained by multiplying a pixel value by a white balance ratio indicating a ratio of a white balance gain to a white balance base value for each pixel of the original image data, and a white balance base value
  • a procedure for obtaining the white balance adjustment image data by multiplying the pixel value by the white balance base value for each pixel of the processed image data.
  • a pixel having a white balance ratio indicating a ratio of a white balance gain to a white balance base value determined based on a white balance setting mode when the original image data is acquired The procedure for acquiring processed image data obtained by multiplying the value from the storage medium, the procedure for acquiring the white balance setting mode information when the original image data is acquired, and the white when the original image data is acquired.
  • a program for causing a computer to execute The procedure for acquiring processed image data obtained by multiplying the value from the storage medium, the procedure for acquiring the white balance setting mode information when the original image data is acquired, and the white when the original image data is acquired.
  • a pixel having a white balance ratio indicating a ratio of a white balance gain to a white balance base value determined based on a white balance setting mode when the original image data is acquired A procedure for acquiring processed image data obtained by multiplying a value from a storage medium, a procedure for acquiring white balance setting mode information when acquiring original image data, and a white balance applied to the processed image data If it is determined that the white balance processing mode is the same as the white balance setting mode based on the procedure for obtaining the processing mode information, the white balance setting mode information, and the white balance processing mode information, the white balance Obtain the white balance base value based on the setting mode.
  • the present invention relates to a program for causing a computer to execute a procedure for multiplying a value to obtain white balance adjustment image data.
  • the white balance gain set for each pixel is reflected in each pixel value of the processed image data, appropriate multi-area white balance processing is performed while suppressing the required storage capacity. Image data can be obtained afterwards.
  • FIG. 1 is a front perspective view of the digital camera 2.
  • FIG. 2 is a rear perspective view of the digital camera 2.
  • the digital camera 2 includes a camera body 3 and a lens barrel 4 attached to the front surface of the camera body 3.
  • the lens barrel 4 and the camera body 3 may be provided integrally, or may be provided detachably as a lens interchangeable camera.
  • a flash light emitting unit 5 is provided on the front surface of the camera body 3, and a shutter button 6 and a power switch 7 are provided on the upper surface of the camera body 3.
  • the shutter button 6 is a shooting instruction unit that receives a shooting instruction from a user
  • the power switch 7 is a power supply switching unit that receives a power ON / OFF switching instruction of the digital camera 2 from the user.
  • a display unit 8 constituted by a liquid crystal panel and an operation unit 9 directly operated by a user are provided.
  • the display unit 8 displays a live view image (through image) in a shooting standby state and functions as an electronic viewfinder, and functions as a playback image display unit during playback of a captured image or a memory storage image.
  • the operation unit 9 includes an arbitrary operation device such as a mode change switch, a cross key, and an execution key.
  • the mode switch is operated by the user when the operation mode of the digital camera 2 is switched.
  • an operation mode of the digital camera 2 there are a shooting mode for capturing an image of a subject to obtain a captured image, a playback mode for reproducing and displaying an image, and the like.
  • an AF (Auto Focus) mode for performing auto focus
  • MF Manual Focus
  • the cross key and the execution key display a menu screen or a setting screen on the display unit 8, move a cursor displayed in the menu screen or the setting screen, and confirm various settings of the digital camera 2. In some cases, it is operated by the user.
  • the bottom (not shown) of the camera body 3 is provided with a memory slot in which the main memory 10 is loaded and a loading lid that opens and closes the opening of the memory slot.
  • the main memory 10 is detachably provided in the camera body 3 and is electrically connected to a storage control unit 33 provided in the camera body 3 when attached to the camera body 3.
  • the main memory 10 can generally be constituted by a semiconductor memory such as a card-type flash memory, but is not particularly limited, and a storage medium of any storage system such as a magnetic medium can be used as the main memory 10. is there.
  • FIG. 3 is a block diagram showing a control processing system of the digital camera 2.
  • the subject light passes through the lens unit 12 provided in the lens barrel 4 and the mechanical shutter 20 provided in the camera body 3 and is received by the image sensor 21.
  • the image sensor 21 is an element that receives a subject image and generates image data.
  • the image sensor 21 is a color filter such as RGB (Red Green Blue), a CCD (Charge Coupled Device) or a CMOS (Complementary Metal) that converts an optical image into an electrical signal. And an image sensor such as an Oxide Semiconductor).
  • the image data output from the imaging device 21 is processed by an AGC (Automatic Gain Control) circuit or the like in the process processing unit 22, and then the analog image data is converted into digital image data by the AD conversion unit 23. Is done.
  • the digitized image data is stored in the buffer memory 24.
  • the buffer memory 24 is an area for temporarily storing image data, and is configured by a DRAM (Dynamic Random Access Memory) or the like.
  • Image data sent from the AD conversion unit 23 and stored in the buffer memory 24 is read out by an image processing unit (image processing apparatus) 31 controlled by the system control unit 25.
  • the image processing unit 31 uses the image data generated by the image sensor 21 as input image data, performs various image processing such as gamma correction processing and demosaic processing, and stores the image data after the image processing in the buffer memory 24 again. To do.
  • Image data that has been subjected to image processing in the image processing unit 31 and saved in the buffer memory 24 is read by the display control unit 35 and the compression / decompression unit 32.
  • the display control unit 35 controls the display unit 8 to display the image data read from the buffer memory 24 on the display unit 8. In this way, the image data output from the image sensor 21 and subjected to image processing in the image processing unit 31 is displayed (postview) on the display unit 8 as a shooting confirmation image.
  • the compression / decompression unit 32 compresses the image data read from the buffer memory 24 to create image data in an arbitrary compression format such as JPEG (Joint Photographic Experts Group) or TIFF (Tagged Image File Format).
  • the compressed image data is stored in the main memory 10 by a storage control unit 33 that controls data storage processing to the main memory (storage medium) 10 and data reading processing from the main memory 10.
  • the storage control unit 33 adds editing date / time information (update date / time information) and the like to the data based on date / time information acquired from a clock device 34 described later.
  • Shooting information and other related information is added to the image data in an arbitrary format, and for example, an Exif (Exchangeable image file format) format can be adopted.
  • the image data stored in the main memory 10 is read by the storage control unit 33 controlled by the system control unit 25, and the compression / decompression unit 32. After being subjected to the decompression process, the data is stored in the buffer memory 24. Then, the image data is read from the buffer memory 24 by the display control unit 35 in the same procedure as the confirmation display of the photographed image, and the image data is reproduced and displayed on the display unit 8.
  • the system control unit 25 controls the buffer memory 24, the image processing unit 31, and the storage control unit 33 as described above, but also controls other units in the digital camera 2.
  • the system control unit 25 controls the lens driving unit 27 to control the driving of the lens unit 12, controls the shutter driving unit 26 to control the driving of the mechanical shutter 20, and controls the image sensor 21 to control the image. Control the output of data.
  • the system control unit 25 controls the flash light emitting unit 5 to control flash emission and non-light emission, and controls the power supply control unit 28 to detect whether or not the battery is installed in the power source 29, the type of battery, and the remaining battery level. Etc. Further, the system control unit 25 acquires date and time information counted by the clock device 34 and uses it for various processes.
  • the system control unit 25 controls various processing units that constitute the image processing unit 31.
  • the system control unit 25 acquires an operation signal from the user interface 36 including the shutter button 6, the power switch 7, and the operation unit 9, and performs various processes and device control according to the operation signal. For example, the system control unit 25 controls the shutter driving unit 26 according to the release signal received from the shutter button 6 to control the opening / closing of the mechanical shutter 20. Further, the system control unit 25 controls the power control unit 28 in accordance with the power on / off signal received from the power switch 7, and controls on / off of the power source 29.
  • Programs and data necessary for various processes performed by the system control unit 25 and device control are stored in the control memory 30.
  • the system control unit 25 can read out programs and data stored in the control memory 30 as necessary, and can store new programs and data in the control memory 30.
  • the system control unit 25 can write condition data such as the type of white balance mode (hereinafter referred to as “WB mode”) and the WB gain set in the control memory 30.
  • WB mode type of white balance mode
  • the system control unit 25 can control the display control unit 35 to display various information acquired from each unit on the display unit 8.
  • the system control unit 25 can change various information displayed on the display unit 8 in accordance with an operation signal input by the user via the user interface 36.
  • “RAW image data” output from the image sensor 21 and passed through the process processing unit 22 (process processing) and the AD conversion unit 23 (AD conversion processing) is transferred to the image processing unit via the buffer memory 24.
  • An example of input to the image 31 and used as original image data and processed image data will be described. Therefore, the demosaic process in the image processing unit 31 is skipped for the following original image data and processed image data (RAW image data).
  • the original image data and the processed image data are not limited to “RAW image data”, and the same image processing can be performed on image data having other arbitrary formats such as JPEG format and TIFF format.
  • the digital camera When the RAW image data is stored in the storage medium, the digital camera also stores information (such as shooting conditions and model information) necessary for developing the RAW image data in the storage medium.
  • the storage method of “RAW image data” and “information data necessary for development” is not particularly limited, but information data and other information necessary for development are added to “RAW image data” as tag information (metadata). You may save the data of the state to the storage medium.
  • data obtained by adding tag information (metadata) to RAW image data is referred to as “RAW data”.
  • the compression format of the processed image data stored in the main memory 10 is not particularly limited, and the processed image data may be uncompressed image data, reversible compressed image data, or irreversible compression. It may be image data. If the processed image data is RAW image data, the development process may be performed before the WB process (see “White Balance Processing Unit (WB Processing Unit) 62” described later), or the development process may be performed after the WB process. Processing may be performed. If the processed image data is compressed image data (reversible compressed image data or irreversible compressed image data), the decompression process may be performed before the WB process (see “WB processing unit 62” described later). preferable. These development processing and expansion processing may be performed in, for example, a processing data acquisition unit 60 described later.
  • a basic WB gain (hereinafter referred to as “white balance base value (WB base value)”) and a WB gain suitable for each pixel constituting the original image data are acquired. Then, the ratio of the WB gain and the WB base value suitable for each pixel is multiplied by each pixel value of the original image data to obtain processed image data.
  • WB base value white balance base value
  • FIG. 4 is a block diagram illustrating a functional configuration example of the image processing unit 31 according to the first embodiment.
  • the image processing unit 31 of this embodiment includes a gain acquisition unit 40, a ratio acquisition unit 42, and a processed image acquisition unit 44.
  • the gain acquisition unit 40 acquires a WB gain for each pixel of the original image data.
  • the ratio acquisition unit 42 determines a WB base value and acquires a white balance ratio (hereinafter referred to as “WB ratio”) indicating the ratio of the WB gain to the WB base value for each pixel of the original image data.
  • the processed image acquisition unit 44 acquires processed image data by multiplying the pixel value by the WB ratio for each pixel of the original image data.
  • the processed image data is output from the processed image acquisition unit 44 (image processing unit 31) and stored in the main memory 10 via the buffer memory 24, the compression / decompression unit 32, and the storage control unit 33 (see FIG. 3).
  • the storage control unit 33 functions as a data recording unit that stores processed image data in the main memory (storage medium) 10.
  • FIG. 5 is a flowchart showing an image processing flow according to the first embodiment.
  • the optimum WB gain is acquired for each pixel of the original image data by the gain acquisition unit 40 (see S11 in FIG. 5).
  • the WB base value is acquired by the ratio acquisition unit 42 (S12), and for each pixel of the original image data, a WB ratio representing the ratio of the WB gain acquired by the gain acquisition unit 40 to the WB base value is acquired ( S13).
  • the WB base value is represented by “WBbase”
  • the WB gain suitable for each pixel of the original image data is represented by “WB_ij (where“ i ”represents the X axis value when the pixel position is represented by the X axis value and the Y axis value).
  • the WB ratio is "WBratio_ij (where" i "represents the X-axis value when the pixel position is represented by the X-axis value and the Y-axis value, and" j "Represents Y-axis value)", the WB ratio "WBratio_ij" can be expressed by the following formula 1.
  • the processed image acquisition unit 44 acquires the processed image data by multiplying the pixel value by the WB ratio for each pixel of the original image data (S14).
  • the pixel value of the original image data is represented by “V_ij (where“ i ”represents the X-axis value when the pixel position is represented by the X-axis value and the Y-axis value, and“ j ”represents the Y-axis value)”.
  • each pixel value “P_ij” of the processed image data can be expressed by the following Expression 2.
  • processed image data having a pixel value P_ij (refer to the above formula 2) reflecting the WB gain WB_ij suitable for each pixel is stored in the main memory 10. Therefore, by reading out the processed image data from the main memory 10 and multiplying each pixel value P_ij of the processed image data by the WB base value WBbase, a WB gain suitable for each pixel is applied as shown in Equation 3 below.
  • Image data pixel value K_ij (where “i” represents an X-axis value when the pixel position is represented by an X-axis value and a Y-axis value, and “j” represents a Y-axis value)
  • pixel value K_ij where “i” represents an X-axis value when the pixel position is represented by an X-axis value and a Y-axis value, and “j” represents a Y-axis value
  • each pixel value of the processed image data stored in the main memory 10 reflects a WB gain suitable for each pixel, and “WB gain suitable for each pixel” is separated from the processed image data.
  • WB gain suitable for each pixel is separated from the processed image data.
  • the lens shading correction process and the imaging correction process may change the correction amount depending on the pixel position of the image.
  • these processes are corrections depending on the settings of the digital camera 2 at the time of shooting. It is possible to suppress an increase in the amount of data stored by devising functions such as processing in advance.
  • the “WB gain suitable for each pixel” in the multi-area WB process can vary in gain amount depending on the shooting scene. It tends to increase.
  • the effect of the multi-area WB process can be obtained by a simple process with almost no increase in the data storage amount.
  • the image processing unit 31 of the present embodiment has the same functional configuration as the image processing unit 31 (see FIG. 4) of the first embodiment described above.
  • data (RAW data) in which the WB base value used when the processed image data is created is added to the processed image data as tag information is stored in the main memory 10. That is, the processed image data output from the image processing unit 31 (processed image acquisition unit 44) is sent to the storage control unit (data recording unit) 33 together with the WB base value, and the storage control unit 33 receives the processed image data and the WB base value. Are associated with each other and stored in the main memory (storage medium) 10.
  • FIG. 6 is a flowchart showing an image processing flow according to the second embodiment.
  • the optimum WB gain is acquired for each pixel of the original image data (S11), the WB base value is acquired (S12), and the original
  • a WB ratio representing the ratio of the WB gain acquired by the gain acquisition unit 40 to the WB base value is acquired (S13).
  • the processed image data is obtained by multiplying the pixel value by the WB ratio (S14).
  • the processed image data and the WB base value are output from the image processing unit 31 and are sent to the storage control unit 33 via the buffer memory 24 and the compression / decompression unit 32 under the control of the system control unit 25.
  • the data is stored in the main memory 10 by the storage controller 33 (S15a in FIG. 6).
  • the WB base value may be added to the processed image data as tag information at the stage of output from the image processing unit 31 (processed image acquisition unit 44).
  • the WB base value is not necessarily sent from the image processing unit 31 to the storage control unit 33 together with the processed image data.
  • the WB base value may be sent from the system control unit 25 to the storage control unit 33. That is, processed image data to which no WB base value is added is output from the image processing unit 31 (processed image acquisition unit 44), and the WB base value may be added to the processed image data as tag information in the storage control unit 33. .
  • the processed image data reflecting the WB gain suitable for each pixel and the WB base value WBbase are stored in the main memory 10. Therefore, by reading out the processed image data and the WB base value WBbase from the main memory 10 and multiplying each pixel value P_ij of the processed image data by the WB base value WBbase, it is suitable for each pixel as shown in Equation 3 above. Appropriate image data (pixel value K_ij) to which the WB gain is applied can be obtained.
  • FIG. 7 is a block diagram illustrating a functional configuration example of the image processing unit 31 according to the third embodiment.
  • the image processing unit 31 includes a light source type determination unit 46 that determines the light source type of the original image data in addition to the gain acquisition unit 40, the ratio acquisition unit 42, and the processed image acquisition unit 44.
  • the determination method of the light source type of the original image data is not particularly limited, and the light source type determination unit 46 may determine the light source type by analyzing the original image data, for example. When shooting with the flash emitted, the light source type determination unit 46 may determine that the light source type of the original image data includes flash light and ambient light.
  • Information on the light source type of the original image data determined by the light source type determination unit 46 is sent to the gain acquisition unit 40 and the ratio acquisition unit 42.
  • the gain acquisition unit 40 acquires a WB gain for each pixel of the original image data based on the light source type of the original image data determined by the light source type determination unit 46. For example, when the light source types of the original image data are flash light and ambient light, the gain acquisition unit 40 is predetermined and stored in a memory (for example, the control memory 30 shown in FIG. 3) as the WB gain of the light source type of the flash light. May be used. The gain acquisition unit 40 may calculate the WB gain of the ambient light source type from the flash emission image data and the flash non-emission image data.
  • the ratio acquisition unit 42 determines the WB base value based on one light source type included in the light source type of the original image data determined by the light source type determination unit 46.
  • the ratio acquisition unit 42 of the present embodiment determines the WB base value based on the ambient light of the original image data determined by the light source type determination unit 46.
  • the WB base value is set to “one light source type (environment light) included in the light source type of the original image data”. Therefore, the user can sensuously perform multi-area WB processing and is highly convenient. For example, when the original image data is image data obtained by shooting a flash light emission scene, the user can set the WB base value in accordance with the background light source.
  • the main memory 10 does not store the WB base value as in the first embodiment, but may store the processed image data, or stores the processed image data and the WB base value as in the second embodiment. Also good.
  • FIG. 8 is a block diagram illustrating a functional configuration example of the image processing unit 31 according to the fourth embodiment.
  • the image processing unit 31 of this embodiment includes a flash image acquisition unit 48 and a light source type data acquisition unit 50 in addition to a gain acquisition unit 40, a ratio acquisition unit 42, a processed image acquisition unit 44, and a light source type determination unit 46.
  • the flash image acquisition unit 48 acquires flash emission image data captured by flash emission and flash non-emission image data obtained by shooting the same subject as the flash emission image data without flash emission. To do.
  • the system control unit 25 controls the emission of the flash emission unit 5. While the image sensor 21 and the like are controlled, flash non-flash shooting and flash flash shooting are automatically and continuously performed.
  • the flash image acquisition unit 48 acquires flash light emission image data and flash non-light emission image data obtained by these photographing operations.
  • the light source type data acquisition unit 50 acquires first image data indicating the influence of ambient light (first light source type) and second image data indicating the influence of flash light (second light source type). . That is, the light source type data acquisition unit 50 acquires the first image data based on the flash non-emission image data acquired by the flash image acquisition unit 48 using the first light source type as ambient light, and the second light source type. Is used as flash light, and second image data is acquired based on the flash emission image data.
  • first image data and the second image data are not particularly limited.
  • flash non-emission image data itself may be used as first image data indicating the influence of ambient light.
  • image data indicating a difference between pixel values of flash light emission image data and flash non-light emission image data may be used as second image data indicating the influence of flash light.
  • the presence / absence of flash emission is determined by a user setting via the user interface 36, or is determined by the system control unit 25 according to a detection result of a photometric sensor (not shown) that detects the brightness of the shooting scene.
  • the system control unit 25 has information on the presence or absence of flash emission. Therefore, when the ambient light and the flash light are used as the first light source type and the second light source type of the original image data as in the present embodiment, the light source type determination unit 46 recognizes the flash emission that the system control unit 25 grasps.
  • the light source type of the original image data may be determined by acquiring the presence / absence information.
  • the determination result of the light source type of the original image data by the light source type determination unit 46 is sent not only to the gain acquisition unit 40 and the ratio acquisition unit 42 but also to the light source type data acquisition unit 50.
  • the light source type data acquisition unit 50 acquires the first image data and the second image data based on the determination result of the light source type determination unit 46.
  • the gain acquisition unit 40 When the light source type of the original image data determined by the light source type determination unit 46 includes ambient light (first light source type) and flash light (second light source type), the gain acquisition unit 40 outputs first image data. And the WB gain for each pixel of the original image data is acquired based on the second image data.
  • FIG. 9 is a block diagram illustrating a functional configuration example of the light source type data acquisition unit 50 and the gain acquisition unit 40 according to the fourth embodiment.
  • the light source type data acquisition unit 50 of this example includes an environmental light gain acquisition unit 52, a flash light gain acquisition unit 54, and a flash influence level acquisition unit 56.
  • the ambient light gain acquisition unit 52 acquires an ambient light white balance gain (hereinafter referred to as an “ambient light WB gain”) determined by using the ambient light of the original image data determined by the light source type determination unit 46 as the light source type. To do.
  • the ambient light gain acquisition unit 52 uses, for example, the WB gain for auto white balance mode (hereinafter, referred to as “AWB gain”) from the color distribution and the luminance value of the non-flash image data. And the AWB gain can be used as the ambient light WB gain.
  • the AWB gain can be calculated based on any method.
  • the ambient light gain acquisition unit 52 analyzes, for example, the flash non-emission image data, obtains color distribution information from the RGB pixel values, and sets a gain for making the average value achromatic as an AWB gain (ambient light WB gain). May be. Further, the ambient light gain acquisition unit 52 may obtain brightness distribution information from the brightness value of the flash non-emission image data, and determine an AWB gain (environment light WB gain) based on the brightness distribution information. In addition, the WB gain determined for each of a plurality of ambient light types is stored in advance in a memory such as the control memory 30, and the ambient light gain acquisition unit 52 analyzes the flash non-emission image data to determine the ambient light type. The WB gain related to the determined type of ambient light may be acquired from the memory and set as the ambient light WB gain.
  • AWB gain ambient light WB gain
  • the flash light gain acquisition unit 54 acquires a flash light white balance gain (hereinafter, referred to as “flash light WB gain”) determined by using the flash light as a light source type. For example, since the characteristics of the flash light can be grasped in advance, the flash light WB gain obtained in advance according to the light characteristics of the flash light is stored in a memory such as the control memory 30, and the flash light gain acquisition unit 54 The flash light WB gain may be obtained by reading directly or indirectly from the memory.
  • the flash impact level acquisition unit 56 acquires a flash impact level that represents the ratio of flash light to ambient light in each pixel constituting the original image data. More specifically, the flash influence level acquisition unit 56 acquires the luminance value for each pixel of the flash non-light-emitting image data (hereinafter referred to as “first luminance value”) as the first image data, and flash emission A luminance value for each pixel of the image data (hereinafter referred to as “second luminance value”) is acquired as second image data. Then, the flash influence level acquisition unit 56 acquires the flash influence level for each pixel of the original image data from the first luminance value and the second luminance value.
  • first luminance value luminance value for each pixel of the flash non-light-emitting image data
  • second luminance value A luminance value for each pixel of the image data
  • flash light emission image data original image data
  • flash non-light emission image data are composed of RGB data
  • R data, G data, and B data are represented by “R_ij”, “G_ij”, and “B_ij” (however, “i”).
  • Y1_ij R_ij ⁇ 0.299 + G_ij ⁇ 0.587 + B_ij ⁇ 0.114
  • Y2_ij R_ij ⁇ 0.299 + G_ij ⁇ 0.587 + B_ij ⁇ 0.114
  • the flash influence ratio Ratio_ij (where “i” represents the X-axis value when the pixel position is represented by the X-axis value and the Y-axis value, and “j” represents the Y-axis value) is expressed by, for example, the following Expression 6. Can be represented.
  • Ratio_ij 1 ⁇ (Y1_ij / Y2_ij)
  • the gain acquisition unit 40 uses the ambient light gain acquisition unit 52 to acquire the flash influence degree acquisition unit 56 based on the “environmental light WB gain WB1” and the flash light gain acquisition unit 54 that acquires the “flash light WB gain WB2”.
  • the flash influence ratio Ratio_ij represents the ratio of the influence of the flash light in each pixel
  • the WB gain WB_ij for each pixel of the original image data can be acquired based on the following Expression 7, for example.
  • FIG. 10 is a flowchart illustrating an image processing flow according to the fourth embodiment.
  • the shutter button 6 When the user presses the shutter button 6 to instruct photographing, the subject is photographed, and the flash non-emission image data and the flash emission image data output from the image sensor 21 are processed by the process processing unit 22, the AD conversion unit 23, and the buffer memory 24. Is acquired by the flash image acquisition unit 48 of the image processing unit 31 (S21 in FIG. 10).
  • the ambient light gain acquisition unit 52 of the light source type data acquisition unit 50 acquires the ambient light WB gain WB1 from the flash non-emission image data (S22), and the flash light gain acquisition unit 54 determines a predetermined flash light.
  • the WB gain WB2 is acquired from a memory such as the control memory 30 (S23).
  • the flash influence level acquisition unit 56 acquires the luminance value (first luminance value Y1_ij) for each pixel of the flash non-emission image data (S24), and the luminance value (second level) for each pixel of the flash emission image data.
  • Luminance value Y2_ij) is acquired (S25).
  • the flash impact level Ratio_ij for each pixel is acquired from the first brightness value Y1_ij and the second brightness value Y2_ij by the flash impact level acquisition unit 56 (S26).
  • the gain acquisition unit 40 acquires a WB gain WB_ij suitable for each pixel of the original image data (flash emission image data) from the ambient light WB gain WB1, the flash light WB gain WB2, and the flash influence ratio Ratio_ij. S27).
  • the ratio acquisition unit 42 determines the WB base value WBbase (S28), and acquires the WB ratio WBratio_ij for each pixel from the WB gain WB_ij and the WB base value WBbase suitable for each pixel of the original image data (S29).
  • the processed image acquisition unit 44 multiplies the pixel value V_ij by the WB ratio WBratio_ij for each pixel of the original image data (flash emission image data) to acquire processed image data (S30).
  • the data is stored in the main memory 10 by the storage controller 33 (S31).
  • the processed image data is stored in the main memory 10 as in the first embodiment, but the WB base value WBbase is not stored in the main memory 10.
  • the processed image data and the WB base value WBbase may be stored in the main memory 10 after the above-described steps S21 to S30 as in the second embodiment. S31a in FIG. 11).
  • the above-described processed image data is read from the main memory 10 and applied with the WB base value to the processed image data (hereinafter referred to as “white balance adjustment image data (WB)”.
  • WB white balance adjustment image data
  • the WB base value used when the processed image data is generated is processed image, such as the processed image data stored in the main memory 10 in the second embodiment described above. Stored in association with data. Further, the image processing unit 31 of the present embodiment reads out the processed image data and the WB base value that are associated with each other, and performs WB processing.
  • the image processing unit 31 shown in FIG. 13 is integrated with the “image processing unit 31 including the gain acquisition unit 40, the ratio acquisition unit 42, and the processed image acquisition unit 44” (see FIG. 4) described in the second embodiment. May be provided separately or may be provided separately. Therefore, for example, when the image processing unit 31 shown in FIG. 4 is provided in the digital camera 2, the image processing unit 31 shown in FIG. 13 described below may be provided in the digital camera 2 in the same manner as shown in FIG. As described above, the computer 90 or the server 92 connected to the digital camera 2 via the wired or wireless network 94 may be provided, or may be provided in the computer 90 or the like that can be connected to the main memory 10 removed from the digital camera 2. May be. Further, a portable terminal 96 connected to the digital camera 2, the computer 90, or the server 92, which can receive processed image data, such as a smartphone or a tablet terminal, the image processing unit 31 shown in FIG. May be provided.
  • FIG. 13 is a block diagram illustrating a functional configuration example of the image processing unit 31 according to the fifth embodiment.
  • the image processing unit 31 of the present embodiment includes a processing data acquisition unit 60 and a WB processing unit 62.
  • the processing data acquisition unit 60 “processed image data acquired by multiplying a pixel value by a WB ratio indicating a ratio of a WB gain to a WB base value for each pixel of the original image data”, “WB base value”, Is acquired from the main memory (storage medium) 10.
  • the WB processing unit 62 multiplies the WB base value WBbase by the pixel value P_ij for each pixel of the processed image data to obtain WB adjusted image data (pixel value K_ij).
  • FIG. 14 is a flowchart showing an image processing flow according to the fifth embodiment.
  • the processing data acquisition unit 60 reads the processing image data from the main memory 10 (S41 in FIG. 14), and also reads the WB base value from the main memory 10 (S42).
  • the WB processing unit 62 multiplies the pixel value by the WB base value for each pixel of the processed image data to obtain WB adjusted image data (S43).
  • WB adjusted image data subjected to multi-area WB processing can be acquired.
  • the user can develop the processed image data (RAW image data).
  • the WB adjustment image data that has been subjected to the multi-area WB process can be easily acquired.
  • image data subjected to appropriate multi-area WB processing can be obtained afterwards.
  • the present embodiment relates to a process of obtaining the WB adjustment image data by reading the above-described processed image data from the main memory 10 and applying the WB base value to the processed image data, and using the WB base value by estimating it.
  • the present embodiment for example, when the WB base value used for generating the processed image data is not stored in the main memory 10 like the processed image data stored in the main memory 10 in the first embodiment described above. Is preferred.
  • FIG. 15 is a block diagram illustrating a functional configuration example of the image processing unit 31 according to the sixth embodiment.
  • the image processing unit 31 of this embodiment includes a setting mode acquisition unit 64 and a base value acquisition unit 66 in addition to the processing data acquisition unit 60 and the WB processing unit 62.
  • the processing data acquisition unit 60 of the present embodiment acquires the processing image data from the main memory (storage medium) 10 but does not acquire the WB base value.
  • the setting mode acquisition unit 64 acquires information on a white balance setting mode (hereinafter referred to as “WB setting mode”) when original image data is acquired.
  • WB setting mode a white balance setting mode
  • the method for acquiring information in the WB setting mode is not particularly limited.
  • the WB setting mode information is included in the tag information of the processed image data
  • the setting mode acquisition unit 64 sets the WB setting from the tag information added to the processed image data acquired by the processing data acquisition unit 60.
  • the mode information may be acquired, or the WB setting mode information may be acquired directly from the main memory 10.
  • the setting mode acquisition unit 64 selects an arbitrary WB setting mode (for example, an auto white balance mode (hereinafter referred to as “auto white balance mode”). , Referred to as “AWB mode”)) may be assumed as the WB setting mode.
  • the WB setting mode is not particularly limited.
  • a preset white balance mode (hereinafter referred to as “preset WB mode”) in which a WB gain is predetermined according to a light source type assumed in advance (for example, sunny (sunlight), fluorescent light, or light bulb),
  • An AWB mode in which the WB gain applied to the original image data is determined based on the color distribution information of the original image data, and the color distribution information of the reference image data different from the original image data is applied to the original image data.
  • Any one of the custom white balance modes (hereinafter referred to as “custom WB mode”) in which the WB gain is determined can be set as the WB setting mode.
  • a manual white balance mode (hereinafter referred to as “manual WB mode”) in which the user manually determines the WB gain manually may be selected as the WB setting mode.
  • the base value acquisition unit 66 estimates the WB base value based on “information of the WB setting mode when the original image data is acquired” acquired by the setting mode acquisition unit 64. For example, when the WB setting mode when the original image data is acquired is the AWB mode, the base value acquisition unit 66 acquires the AWB gain from the color distribution of the processing image data acquired by the processing data acquisition unit 60, and the AWB A WB base value is estimated based on the gain. Further, when the WB gain is determined in advance as the WB setting mode when the original image data is acquired, such as the preset WB mode or the custom WB mode, the base value acquisition unit 66 is stored in association with the processed image data.
  • the WB gain for the current WB setting mode is acquired, and the WB base value is estimated based on the acquired WB gain.
  • the acquisition method of “WB gain for WB setting mode stored in association with processed image data” is not particularly limited. For example, from the tag information of the processed image data acquired by the processed data acquisition unit 60, the internal parameters of the RAW development software, the information stored in the server 92, or the like, “for the WB setting mode stored in association with the processed image data” “WB gain” may be acquired.
  • the WB processing unit 62 acquires the WB adjusted image data by multiplying the pixel value by the WB base value estimated by the base value acquisition unit 66 for each pixel of the processed image data (see Equation 3 above).
  • FIG. 16 is a flowchart showing an image processing flow according to the sixth embodiment.
  • the processing data acquisition unit 60 reads and acquires the processing image data from the main memory 10 (S51 in FIG. 16), and the setting mode acquisition unit 64 acquires information on the WB setting mode when the original image data is acquired. Is acquired.
  • the base value acquisition unit 66 estimates the WB base value based on the information of the WB setting mode when the original image data is acquired (S52).
  • the WB processing unit 62 multiplies the estimated WB base value by the pixel value for each pixel of the processed image data to obtain WB adjusted image data (S53).
  • the WB adjustment subjected to the multi-area WB process is performed. Image data can be acquired.
  • the present embodiment relates to a process of obtaining processed WB adjustment image data by reading out processed image data from the main memory 10 and applying a WB base value to the processed image data.
  • WB processing mode is selected, and the WB gain corresponding to the WB processing mode selected by the user is applied to the processed image data instead of the WB base value.
  • FIG. 17 is a block diagram illustrating a functional configuration example of the image processing unit 31 according to the seventh embodiment.
  • the image processing unit 31 of this embodiment includes a processing mode acquisition unit 70 in addition to the processing data acquisition unit 60, the WB processing unit 62, the setting mode acquisition unit 64, and the base value acquisition unit 66.
  • the processing mode acquisition unit 70 acquires information on the WB processing mode applied to the processing image data from the processing mode input unit 68.
  • the “WB processing mode” here is the WB mode desired by the user, and the user inputs the WB mode desired as the actual WB processing of the processed image data to the processing mode input unit 68 as the “WB processing mode”.
  • the specific form of the processing mode input unit 68 is not particularly limited, and when the processing mode input unit 68 is mounted on the digital camera 2, for example, the processing mode input unit 68 is operated by the “operation unit 9 (see FIG. 2)”. Can be configured. Further, when the processing mode input unit 68 is mounted on the computer 90, the server 92, or the portable terminal 96, the processing mode input unit is operated by an arbitrary operation unit such as a keyboard, mouse, touch panel or the like mounted or connected to the devices. 68 can be configured.
  • the “information on the WB processing mode applied to the processed image data” acquired by the processing mode acquisition unit 70 is sent to the base value acquisition unit 66.
  • the base value acquisition unit 66 is sent with the information of the “WB setting mode for original image data” acquired by the setting mode acquisition unit 64.
  • the base value acquisition unit 66 acquires the WB base value based on the white balance setting mode information and the WB processing mode information. That is, when it is determined that the WB processing mode is the same as the WB setting mode, the base value acquisition unit 66 acquires a WB base value based on the WB setting mode, and the WB processing mode is different from the WB setting mode. If determined, the WB gain is acquired based on the WB processing mode. In this case, the base value acquisition unit 66 may acquire the WB gain and / or WB base value from the tag information of the processing image data stored in the main memory 10, for example, or the processing data acquisition unit 60 acquires You may acquire WB gain (for example, AWB gain) by analyzing processed image data.
  • WB gain for example, AWB gain
  • the WB processing unit 62 multiplies the WB base value or the WB gain acquired by the base value acquisition unit 66 for each pixel of the processing image data acquired from the main memory 10 by the processing data acquisition unit 60 to obtain the WB adjusted image data. get.
  • FIG. 18 is a flowchart showing an image processing flow according to the seventh embodiment.
  • the WB base value used for generating the processed image data is stored in the main memory 10 as the tag information of the processed image data will be described.
  • the processing data acquisition unit 60 reads and acquires the processing image data from the main memory 10 (S61 in FIG. 18), and the WB setting mode information when the setting mode acquisition unit 64 acquires the original image data. Is obtained from the main memory 10 (S62). Further, the processing mode acquisition unit 70 acquires information on the WB processing mode applied to the processed image data (S63).
  • the base value acquisition unit 66 determines whether the WB setting mode and the WB processing mode are related to the same WB mode (S64).
  • the base value acquisition unit 66 uses, for example, the WB base from the tag information of the processing image data acquired by the processing data acquisition unit 60. A value is acquired (S65). Then, the WB processing unit 62 multiplies each pixel value of the processed image data by the WB base value to obtain WB adjusted image data (S66).
  • the WB gain corresponding to the WB processing mode is acquired by the base value acquisition unit 66 (S67). Then, the WB processing unit 62 multiplies each pixel value of the processed image data by this WB gain to obtain WB adjusted image data (S68).
  • the WB process corresponding to the WB process mode desired by the user is performed.
  • the applied WB adjustment image data can be acquired.
  • the color balance of the entire image can be changed according to the user's request while obtaining the effect of the multi-area WB process.
  • the WB adjusted image data is acquired depending on whether the WB processing mode applied to the processed image data is the AWB mode. May be.
  • FIG. 19 is a diagram showing a modification of the image processing flow of the image processing unit 31 (see FIG. 4) according to the first embodiment.
  • it is predetermined to use an AWB gain as a WB base value used for generating processed image data. That is, the gain acquisition unit 40 shown in FIG. 4 acquires the WB gain for each pixel of the original image data (S71 in FIG. 19), while the ratio acquisition unit 42 analyzes the original image data to acquire the AWB gain, An AWB gain is determined as a WB base value (S72).
  • the WB ratio is acquired from the WB gain and WB base value for each pixel (S73), and the pixel value is multiplied by the WB ratio for each pixel.
  • the processed image data is acquired (S74), and the processed image data is stored in the main memory 10 (S75).
  • FIG. 20 is a view showing a modification of the image processing flow of the image processing unit 31 (see FIG. 17) according to the seventh embodiment.
  • the multi-area WB processing of the processed image data stored in the main memory 10 by the image processing flow shown in FIG. 19 can be performed by the image processing unit 31 having the functional configuration shown in FIG. 17 according to the image processing flow shown in FIG. is there. That is, as in the seventh embodiment (see S61 and S63 in FIG. 18), the processed image data is read from the main memory 10 (S81 in FIG. 20), and the WB processing mode information is received from the processing mode input unit 68. Obtained (S82). Then, the base value acquisition unit 66 (see FIG. 17) determines whether or not the WB processing mode is the AWB mode (S83).
  • the base value acquisition unit 66 analyzes the processed image data and acquires color distribution information of the processed image data (S84). An AWB gain is acquired from the information, and this AWB gain is determined as a WB base value (S85). Then, the WB processing unit 62 multiplies each pixel value of the processed image data by the WB base value to obtain WB adjusted image data (S86).
  • the base value acquisition unit 66 sets the WB gain based on the WB processing mode in the same manner as in the seventh embodiment (see S67 in FIG. 18). (S87), and the WB processing unit 62 multiplies each pixel value of the processed image data by the WB gain to acquire WB adjusted image data (S88).
  • the main memory 10 may store the WB base value used to generate the processed image data in association with the processed image data (see S75 in FIG. 19).
  • the base value acquisition unit 66 instead of acquiring the AWB gain from the color distribution information of the processed image data (see S84 to S85 in FIG. 20), the base value acquisition unit 66 reads the WB base value stored in the main memory 10 and reads WB.
  • the processing unit 62 may acquire the WB adjustment image data by applying the WB base value read by the base value acquisition unit 66 to the processed image data.
  • the processed image data may be stored in the main memory 10 as in the above-described first to fourth embodiments only when the WB setting mode when acquiring the original image data is the AWB mode.
  • the storage control unit 33 stores the image data after applying the WB setting mode in the main memory 10 as usual, or according to the WB setting mode.
  • the WB gain for each pixel or the WB gain common to all the pixels may be stored in the main memory 10 in association with the image data.
  • the processed image data may be stored in the main memory 10 as in the first to fourth embodiments described above.
  • the user processes the processed image data read from the main memory 10 later.
  • Multi-area WB processing can be performed.
  • the WB gain for each pixel is not stored separately from the image data, but the process in which the multi-area WB gain is reflected. Since the image data is stored, the storage capacity is not excessively wasted.
  • the flash non-flash image data and flash non-flash image are also acquired.
  • the flash influence level is acquired for each pixel from the difference between the pixel value and the data, and the WB gain (environment light WB gain) suitable for the background (night scene) and the WB gain suitable for flash light (flash) according to the flash influence degree It is necessary to acquire the mixing ratio (WB ratio) with the light WB gain) for each pixel.
  • Each functional configuration described above can be realized by arbitrary hardware, software, or a combination of both.
  • a program that causes a computer to execute an image processing method (image processing procedure) in each of the devices and processing units (image processing unit 31 and the like) described above and a computer-readable storage medium (non-transitory storage medium) that stores the program
  • the present invention can be applied to a computer that can install the program.
  • the aspect to which the present invention can be applied is not limited to a digital camera and a computer (server).
  • the cameras whose main function is imaging functions other than imaging (call function)
  • the present invention can also be applied to mobile devices having a communication function or other computer functions.
  • Other modes to which the present invention can be applied include, for example, mobile phones and smartphones having a camera function, PDA (Personal Digital Assistants), and portable game machines.
  • PDA Personal Digital Assistants
  • portable game machines Portable game machines.
  • FIG. 21 is a diagram illustrating an appearance of the smartphone 101.
  • a smartphone 101 illustrated in FIG. 21 includes a flat housing 102, and a display input in which a display panel 121 as a display unit and an operation panel 122 as an input unit are integrated on one surface of the housing 102.
  • the unit 120 is provided.
  • the housing 102 includes a speaker 131, a microphone 132, an operation unit 140, and a camera unit 141.
  • the configuration of the housing 102 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent may be employed, or a configuration having a folding structure and a slide mechanism may be employed.
  • FIG. 22 is a block diagram showing a configuration of the smartphone 101 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 110, a display input unit 120, a call unit 130, an operation unit 140, a camera unit 141, a storage unit 150, and an external input / output unit. 160, a GPS (Global Positioning System) receiving unit 170, a motion sensor unit 180, a power supply unit 190, and a main control unit 100.
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 110 performs wireless communication with a base station apparatus accommodated in the mobile communication network in accordance with an instruction from the main control unit 100. Using such wireless communication, transmission / reception of various file data such as audio data and image data, e-mail data, and reception of Web data, streaming data, and the like are performed.
  • the display input unit 120 displays images (still images and moving images), character information, and the like visually under the control of the main control unit 100, visually transmits information to the user, and detects user operations on the displayed information.
  • This is a so-called touch panel, and includes a display panel 121 and an operation panel 122.
  • the display panel 121 uses an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescence Display) as a display device.
  • the operation panel 122 is a device that is placed so that an image displayed on the display surface of the display panel 121 is visible and detects coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 100.
  • the main control unit 100 detects an operation position (coordinates) on the display panel 121 based on the received detection signal.
  • the display panel 121 and the operation panel 122 of the smartphone 101 illustrated as an embodiment of the imaging apparatus of the present invention integrally constitute the display input unit 120.
  • the arrangement 122 covers the display panel 121 completely.
  • the operation panel 122 may also have a function of detecting a user operation for an area outside the display panel 121.
  • the operation panel 122 includes a detection area (hereinafter referred to as “display area”) for the overlapping portion overlapping the display panel 121 and a detection area (hereinafter referred to as “display area”) for the other outer edge portion that does not overlap the display panel 121. (Referred to as “non-display area”).
  • the operation panel 122 may include two sensitive regions of the outer edge portion and the other inner portion. Furthermore, the width of the outer edge portion is appropriately designed according to the size of the housing 102 and the like. Furthermore, examples of the position detection method employed in the operation panel 122 include a matrix switch method, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also
  • the call unit 130 includes a speaker 131 and a microphone 132, converts user's voice input through the microphone 132 into voice data that can be processed by the main control unit 100, and outputs the voice data to the main control unit 100.
  • the audio data received by the external input / output unit 160 is decoded and output from the speaker 131.
  • the speaker 131 can be mounted on the same surface as the display input unit 120 and the microphone 132 can be mounted on the side surface of the housing 102.
  • the operation unit 140 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 140 is mounted on the side surface of the housing 102 of the smartphone 101 and is turned on when pressed with a finger or the like, and is turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.
  • the storage unit 150 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of a communication partner, transmitted and received e-mail data, Web data downloaded by Web browsing, and The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 150 includes an internal storage unit 151 with a built-in smartphone and an external storage unit 152 having a removable external memory slot.
  • each of the internal storage unit 151 and the external storage unit 152 constituting the storage unit 150 includes a flash memory type, a hard disk type, a multimedia card micro type, a multimedia card micro type, This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), or a ROM (Read Only Memory).
  • a card type memory for example, MicroSD (registered trademark) memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 160 serves as an interface with all external devices connected to the smartphone 101, and communicates with other external devices such as a universal serial bus (USB) and IEEE (The Institute of the IEEE 1394 defined by Electrical and Electronics Engineers, Inc.) or network (for example, Internet, wireless LAN (Local Area Network), Bluetooth (registered trademark), RFID (Radio Frequency Infrared communication), RFID (Radio Frequency Infrared communication). : IrDA) (registered trademark), UWB (Ultra) Wideband) (registered trademark), and ZigBee (ZigBee) (registered trademark) is used to directly or indirectly connected with, etc.).
  • USB universal serial bus
  • IEEE The Institute of the IEEE 1394 defined by Electrical and Electronics Engineers, Inc.
  • network for example, Internet, wireless LAN (Local Area Network), Bluetooth (registered trademark), RFID (Radio Frequency Infrared communication), RFID (Radio Frequency Infrared communication).
  • IrDA registered trademark
  • a wired / wireless headset As an external device connected to the smartphone 101, for example, a wired / wireless headset, wired / wireless external charger, wired / wireless data port, memory card (Memory card) or SIM (Subscriber) connected via a card socket, for example.
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly yes / no
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 101 or may transmit data inside the smartphone 101 to the external device. .
  • the GPS receiving unit 170 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 100, executes positioning calculation processing based on the received plurality of GPS signals, and calculates the latitude and longitude of the smartphone 101. And a position consisting of altitude is detected. If the GPS receiving unit 170 can acquire position information from the wireless communication unit 110 or the external input / output unit 160 (for example, a wireless LAN), the GPS receiving unit 170 can also detect the position using the position information.
  • the motion sensor unit 180 includes, for example, a triaxial acceleration sensor and detects the physical movement of the smartphone 101 in accordance with an instruction from the main control unit 100. By detecting the physical movement of the smartphone 101, the moving direction and acceleration of the smartphone 101 are detected. The detection result is output to the main control unit 100.
  • the power supply unit 190 supplies power stored in a battery (not shown) to each unit of the smartphone 101 in accordance with an instruction from the main control unit 100.
  • the main control unit 100 includes a microprocessor, operates according to a control program and control data stored in the storage unit 150, and controls each unit of the smartphone 101 in an integrated manner.
  • the main control unit 100 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 110.
  • the application processing function is realized by the main control unit 100 operating according to the application software stored in the storage unit 150.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 160 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 100 also has an image processing function such as displaying video on the display input unit 120 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 120.
  • the main control unit 100 executes display control for the display panel 121 and operation detection control for detecting a user operation through the operation unit 140 and the operation panel 122.
  • the main control unit 100 By executing the display control, the main control unit 100 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 121.
  • the main control unit 100 detects a user operation through the operation unit 140, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 122. Or a display image scroll request through a scroll bar.
  • the main control unit 100 causes the operation position with respect to the operation panel 122 to overlap with the display panel 121 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 121.
  • a touch panel control function for controlling the sensitive area of the operation panel 122 and the display position of the software key.
  • the main control unit 100 can also detect a gesture operation on the operation panel 122 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with at least one position from a plurality of positions by drawing a trajectory with a finger or the like, or specifying a plurality of positions simultaneously. means.
  • the camera unit 141 is a digital camera that performs electronic photography using an imaging device such as a CMOS.
  • the camera unit 141 converts image data obtained by imaging into compressed image data such as JPEG under the control of the main control unit 100, stores the compressed image data in the storage unit 150, the external input / output unit 160, the wireless communication unit, and the like. 110 can be output.
  • the camera unit 141 is mounted on the same surface as the display input unit 120, but the mounting position of the camera unit 141 is not limited to this, and is mounted on the back surface of the display input unit 120.
  • a plurality of camera units 141 may be mounted. When a plurality of camera units 141 are installed, the camera unit 141 used for shooting may be switched to perform shooting alone, or a plurality of camera units 141 may be used for shooting simultaneously. Also good.
  • the camera unit 141 can be used for various functions of the smartphone 101.
  • an image acquired by the camera unit 141 can be displayed on the display panel 121, or the image of the camera unit 141 can be used as one of operation inputs of the operation panel 122.
  • the GPS receiving unit 170 detects the position
  • the position can also be detected with reference to an image from the camera unit 141.
  • the optical axis direction of the camera unit 141 of the smartphone 101 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 141 can also be used in the application software.
  • the position information acquired by the GPS receiver 170 on the image data of the still image or the moving image the voice information acquired by the microphone 132 (the voice text may be converted by the main control unit or the like to become text information), Posture information and the like acquired by the motion sensor unit 180 may be added and stored in the storage unit 150 and output through the external input / output unit 160 or the wireless communication unit 110.
  • the above-described image processing unit 31 (see FIGS. 4, 7 to 9, 13, 15 and 17) can be realized by the main control unit 100, for example.
  • Speakers 132 ... Microphone 140 ... Operation unit 141 ... Camera unit 150 ... Storage unit 151 ... Internal storage unit 152 ... External storage unit, 160 ... external input / output unit, 170 ... GPS receiving unit, 180 ... motion sensor unit, 190 ... power supply unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

 必要とされる記憶容量を抑えつつ、適切なマルチエリアホワイトバランス処理が施された画像データを事後的に得ることを可能にする画像処理装置、撮像装置、画像処理方法及びプログラムを提供する。原画像データの画素毎にホワイトバランスゲインが取得される(S11)。ホワイトバランスベース値が定められ(S12)、原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率が取得される(S13)。原画像データの画素毎に、画素値にホワイトバランス比率を乗算して処理画像データが取得される(S14)。処理画像データの画素値にホワイトバランスベース値を乗算することで、原画像データの画素毎にホワイトバランスゲインが適用された画像データを取得することができる。

Description

画像処理装置、撮像装置、画像処理方法及びプログラム
 本発明は画像処理装置、撮像装置、画像処理方法及びプログラムに係り、特にマルチエリアホワイトバランス処理技術に関する。
 マルチエリアホワイトバランス処理(以下、「マルチエリアWB処理」と称する)とは、1枚の画像を構成する画素毎或いはエリア毎に、異なるホワイトバランスゲイン(以下、「WBゲイン」と称する)を適用するホワイトバランス処理(以下、「WB処理」と称する)である。マルチエリアWB処理によれば、複数の光源からの光が画素毎(エリア毎)に異なる比率で被写体に照射されている画像であっても、各画素(各エリア)の色相(カラーバランス)を適正に補正することができる。
 例えばフラッシュを発光させて人物夜景シーンを撮影した場合、人物はフラッシュ光(例えば青色波長を多く含む光)の影響を受けて撮像されるが、撮影画像中の背景(夜景)はフラッシュ光の影響を実質的に受けずにナトリウムランプ(赤色波長を多く含む光)などの他の環境光の影響を受けて撮像される。この場合、WB処理によって人物画像の色相(カラーバランス)を良好にするにはフラッシュ光の影響をキャンセルするWBゲインを人物画像に適用することが求められる一方で、背景の色相(カラーバランス)を良好にするには他の環境光の影響をキャンセルするWBゲインを背景画像に適用することが求められる。したがって画像を構成する全画素に関して共通のWBゲインを適用する場合には、人物の色相(カラーバランス)と背景の色相(カラーバランス)とを両立することが難しい。
 しかしながらマルチエリアWB処理によれば、1つの画像に含まれる人物部分に適用するWBゲインと背景部分に適用するWBゲインとを変えられる。したがって、例えばフラッシュ光の影響量に応じて、適用するWBゲインを画素毎に最適化することで、人物の色相(カラーバランス)と背景の色相(カラーバランス)とを両立することができる。
 特許文献1は、被写体領域から得られる色情報を用いて算出されるホワイトバランス制御値のばらつきを抑制することが可能なホワイトバランス制御装置を開示する。このホワイトバランス制御装置は、画像から被写体領域を検出し、画像を複数の領域に分割し、被写体領域と重複している領域の各々について領域の代表色を表す色情報を算出すると共に重みを決定する。そしてホワイトバランス制御装置は、色情報の各々に、被写体領域と重複している領域について決定された重みを適用して積算し、色情報の積算結果と予め定められた目標色の情報とから、代表色が目標色となるようなホワイトバランス制御値を算出する。
 また画像のホワイトバランス調整を画像データ保存後に実施可能とするために、画像データと共にWBゲインが保存される場合がある。
 例えば特許文献2に記載の撮像装置は、現像処理に必要となる付帯情報と共に本画像のRAW画像データを記憶媒体に記憶しておき、RAW画像データの現像処理の際にオートホワイトバランス調整を行うことを可能にしている。
 また特許文献3に記載の画像処理装置は、第1光源についての第1ホワイトバランス係数値をRAW画像データに適用して中間RAW画像データを生成し、第1光源以外の光源についての第2ホワイトバランス係数値を特定可能な情報をホワイトバランス情報として中間RAW画像データと関連付けて記憶することで、ホワイトバランスの再調整を可能にしている。
 また特許文献4に記載の撮像装置は、RAW画像に、撮像時に適用される第1色再現パラメータでの色再現処理を施して現像画像を生成し、第1色再現パラメータに関するデータと、第1色再現パラメータとは異なる光源下での被写体の色再現に相応する第2色再現パラメータに関するデータとを、それぞれ現像画像のデータに対応付けて画像ファイルを生成する。これにより、第1色再現パラメータ及び第2色再現パラメータを、現像画像のレタッチを行う場合に使用することができる。例えば第1色再現パラメータによって、現像画像を色再現処理前の状態に復元する処理(逆色再現処理)が可能になり、また第2色再現パラメータによって、第1色再現パラメータによる逆色再現処理後の画像に色再現処理を施すことが可能になる。
特開2012-165077号公報 特開2009-4895号公報 特開2008-109505号公報 特開2011-71708号公報
 上述のように、RAW画像データを事後的に現像する場合、撮影時のホワイトバランス設定に応じた色相(カラーバランス)を現像画像で再現するためには、撮影時のホワイトバランス設定に応じたWBゲインをRAW画像データと共に保持する必要がある。
 したがって、全画素に共通のWBゲインを適用する通常のWB処理をR(赤)データ、G(緑)データ及びB(青)データの各々に関して行う場合には、撮影時のホワイトバランス設定に応じた「3色(RGB)×1種類のWBゲイン=3種類のWBゲインデータ」をRAW画像データと共に記憶しておく必要がある。一方、マルチエリアWB処理では、画素毎にWBゲインが異なり、画素毎にWBゲインを保持する必要がある。したがってRGBデータの各々に関してWBゲインを適用する場合には、撮影時のホワイトバランス設定に応じた「3色(RGB)×画素数分のWBゲイン」をRAW画像データと共に記憶することが求められる。例えば16メガピクセル(16M=4609ピクセル×3456ピクセル)の画像を撮影する場合、マルチエリアWB処理では、約16,000,000画素分(正確には15,928,704画素分)のWBゲインを保持する必要がある。したがってマルチエリアWB処理において、1画素当たり3色分(RGBデータ分)のWBゲインが必要だとすると従来比で約16,000,000倍(厳密には15,928,704倍)のWBゲインデータ量になる。また1画素当たり1色分のWBゲインが必要だとしても、従来比で約5,333,333倍(厳密には5,309,568倍)のWBゲインデータ量となる。
 このように撮影時のホワイトバランス設定に応じたWBゲインをRAW画像データ等の画像データと共に保持する技術をマルチエリアWB処理に対して応用すると、WBゲインデータのために膨大な記憶領域を確保する必要があり、記憶容量が圧迫される。その一方で、RAW画像データ等の画像データのホワイトバランスを、マルチエリアWB処理技術によって事後的に調整したいとの要望もある。
 本発明は上述の事情に鑑みてなされたものであり、必要とされる記憶容量を抑えつつ、適切なマルチエリアホワイトバランス処理が施された画像データを事後的に得ることを可能にする技術を提供することを目的とする。
 本発明の一態様は、原画像データの画素毎にホワイトバランスゲインを取得するゲイン取得部と、ホワイトバランスベース値を定めて、原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を取得する比率取得部と、原画像データの画素毎に、画素値にホワイトバランス比率を乗算して処理画像データを取得する処理画像取得部と、を備える画像処理装置に関する。
 本態様によれば、処理画像データの画素値にホワイトバランスベース値を乗算することで、原画像データの画素値にホワイトバランスゲインを適用した画像データを得ることができる。また特に、本態様によれば「画素毎に定められるWBゲイン」を個別的に保持する必要がないため、必要とされる記憶容量を抑えつつ、画素毎に異なるWBゲインを適用するマルチエリアWB処理を事後的に精度良く行うことが可能になる。
 なおホワイトバランスベース値は、任意の値とすることができ、例えば予め定められた値であってもよいし、原画像データを取得した際のホワイトバランス設定モードに応じて決められる値であってもよい。例えば、原画像データの画素値との差が小さい画素値を有する処理画像データを取得する観点からは、ホワイトバランス比率を「1」に近くすること、ホワイトバランス比率が「1」になる画素領域を大きくすること、又はホワイトバランス比率が「1」以外になる画素領域と比べてホワイトバランス比率が「1」になる画素領域を最も大きくすることが好ましい。したがって、原画像データの画素毎に取得されるホワイトバランスゲインに基づいてホワイトバランスベース値が決められてもよく、原画像データの画素毎に割り当てられるホワイトバランスゲインの平均値又は中央値等に基づいてホワイトバランスベース値が決められてもよい。
 望ましくは、画像処理装置は、原画像データの光源種を判定する光源種判定部を更に備え、ゲイン取得部は、光源種判定部によって判定される原画像データの光源種に基づいて、原画像データの画素毎にホワイトバランスゲインを取得する。
 本態様によれば、原画像データの光源種に基づいて、原画像データの画素毎のホワイトバランスゲインを精度良く取得することができる。
 望ましくは、画像処理装置は、第1の光源種の影響を示す第1の画像データと、第2の光源種の影響を示す第2の画像データとを取得する光源種データ取得部と、を更に備え、ゲイン取得部は、光源種判定部によって判定される原画像データの光源種が第1の光源種及び第2の光源種を含む場合、第1の画像データ及び第2の画像データに基づいて、原画像データの画素毎のホワイトバランスゲインを取得する。
 本態様によれば、原画像データの画素毎のホワイトバランスゲインを、第1の光源種及び第2の光源種に基づいて精度良く取得することができる。
 望ましくは、画像処理装置は、フラッシュを発光して撮影されたフラッシュ発光画像データとフラッシュを発光せずに撮影されたフラッシュ非発光画像データとを取得するフラッシュ画像取得部を更に備え、光源種データ取得部は、第1の光源種を環境光として、フラッシュ非発光画像データに基づいて第1の画像データを取得し、第2の光源種をフラッシュ光として、フラッシュ発光画像データに基づいて第2の画像データを取得する。
 本態様によれば、フラッシュ光及び環境光の影響を考慮したホワイトバランスゲインを精度良く取得することができる。
 望ましくは、光源種データ取得部は、光源種判定部によって判定される原画像データの環境光を光源種として定められる環境光用ホワイトバランスゲインを取得する環境光ゲイン取得部と、フラッシュ光を光源種として定められるフラッシュ光用ホワイトバランスゲインを取得するフラッシュ光ゲイン取得部と、フラッシュ非発光画像データの画素毎の第1の輝度値を第1の画像データとして取得し、フラッシュ発光画像データの画素毎の第2の輝度値を第2の画像データとして取得し、第1の輝度値及び第2の輝度値から画素毎のフラッシュ影響度を取得するフラッシュ影響度取得部と、を有し、ゲイン取得部は、環境光用ホワイトバランスゲイン及びフラッシュ光用ホワイトバランスゲインからフラッシュ影響度に基づいて、原画像データの画素毎のホワイトバランスゲインを取得する。
 本態様によれば、フラッシュ発光画像データ及びフラッシュ非発光画像データの輝度値から求められるフラッシュ影響度に基づいて、原画像データの画素毎のホワイトバランスゲインを精度良く取得することができる。
 望ましくは、比率取得部は、光源種判定部によって判定される原画像データの光源種に含まれる1つの光源種に基づいて、ホワイトバランスベース値を定める。
 望ましくは、比率取得部は、ホワイトバランスベース値を、光源種判定部によって判定される原画像データの環境光に基づいて定める。
 これらの態様によれば、原画像データの光源種に含まれる1つの光源種(環境光等)に基づいて、簡便にホワイトバランスベース値を定めることができる。
 望ましくは、画像処理装置は、処理画像データ及びホワイトバランスベース値を記憶媒体に記憶するデータ記録部を更に備える。
 本態様によれば、処理画像データのホワイトバランス処理を行う際に、記憶媒体に記憶されたホワイトバランスベース値を活用することができる。
 本発明の他の態様は、原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データと、ホワイトバランスベース値とを、記憶媒体から取得する処理データ取得部と、処理画像データの画素毎に、ホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得するホワイトバランス処理部と、を備える画像処理装置に関する。
 本態様によれば、画素毎にホワイトバランスゲインが適用されたホワイトバランス調整画像データを精度良く取得することができる。
 本発明の他の態様は、原画像データの画素毎に、原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得する処理データ取得部と、原画像データを取得した際のホワイトバランス設定モードの情報を取得する設定モード取得部と、原画像データを取得した際のホワイトバランス設定モードの情報に基づいて、ホワイトバランスベース値を推定するベース値取得部と、処理画像データの画素毎に、ベース値取得部によって推定されたホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得するホワイトバランス処理部と、を備える画像処理装置に関する。
 本態様によれば、画素毎にホワイトバランスゲインが適用されたホワイトバランス調整画像データを精度良く取得することができる。
 ホワイトバランス設定モードの情報に基づいてホワイトバランスベース値を推定する手法は特に限定されず、ベース値取得部は、例えば処理画像データの色分布や輝度分布等の画像特性を解析し、その解析結果に基づいてホワイトバランスベース値を推定してもよい。
 本発明の他の態様は、原画像データの画素毎に、原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得する処理データ取得部と、原画像データを取得した際のホワイトバランス設定モードの情報を取得する設定モード取得部と、処理画像データに適用されるホワイトバランス処理モードの情報を取得する処理モード取得部と、ホワイトバランス設定モードの情報及びホワイトバランス処理モードの情報に基づいて、ホワイトバランス処理モードがホワイトバランス設定モードと同じであると判定される場合には、ホワイトバランス設定モードに基づいてホワイトバランスベース値を取得し、ホワイトバランス処理モードがホワイトバランス設定モードと異なると判定される場合には、ホワイトバランス処理モードに基づいてホワイトバランスベース値を取得するベース値取得部と、処理画像データの画素毎に、ベース値取得部によって取得されたホワイトバランスベース値を乗算してホワイトバランス調整画像データを取得するホワイトバランス処理部と、を備える画像処理装置に関する。
 本態様によれば、画素毎にホワイトバランスゲインが適用されたホワイトバランス調整画像データを精度良く取得することができる。
 ここでいう「ホワイトバランス処理モード」は、処理画像データのホワイトバランスを調整するためのホワイトバランスモードであり、原画像データを取得した際のホワイトバランス設定モードとは必ずしも一致しない。なお「ホワイトバランス処理モード」は任意の手法で決められ、ユーザがホワイトバランス処理モードを決めてもよいし、画像処理装置において各種の条件等に基づいてホワイトバランス処理モードが決められてもよい。
 望ましくは、ホワイトバランス設定モードは、ホワイトバランスゲインが予め定められているプリセットホワイトバランスモード、原画像データの色分布情報に基づいて原画像データに適用されるホワイトバランスゲインが決定されるオートホワイトバランスモード、及び原画像データとは異なる参照画像データの色分布情報に基づいて原画像データに適用されるホワイトバランスゲインが決定されるカスタムホワイトバランスモードのうちのいずれかである。
 望ましくは、処理画像データは、RAW画像データである。
 本態様によれば、例えば処理画像データ(RAW画像データ)の現像の際に、ホワイトバランス調整画像データを得ることができる。
 望ましくは、処理画像データは、無圧縮画像データである。
 望ましくは、処理画像データは、可逆圧縮画像データである。
 望ましくは、処理画像データは、非可逆圧縮画像データである。
 これらの処理画像データからホワイトバランス調整画像データを取得することが可能である。
 本発明の他の態様は、撮像素子と、上記の画像処理装置と、を備え、原画像データは撮像素子によって取得される撮像装置に関する。
 本発明の他の態様は、原画像データの画素毎にホワイトバランスゲインを取得し、ホワイトバランスベース値を定めて、原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を取得し、原画像データの画素毎に、画素値にホワイトバランス比率を乗算して処理画像データを取得する画像処理方法に関する。
 本発明の他の態様は、原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データと、ホワイトバランスベース値とを、記憶媒体から取得し、処理画像データの画素毎に、ホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得する画像処理方法に関する。
 本発明の他の態様は、原画像データの画素毎に、原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得し、原画像データを取得した際のホワイトバランス設定モードの情報を取得し、原画像データを取得した際のホワイトバランス設定モードの情報に基づいて、ホワイトバランスベース値を推定し、処理画像データの画素毎に、推定されたホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得する画像処理方法に関する。
 本発明の他の態様は、原画像データの画素毎に、原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得し、原画像データを取得した際のホワイトバランス設定モードの情報を取得し、処理画像データに適用されるホワイトバランス処理モードの情報を取得し、ホワイトバランス設定モードの情報及びホワイトバランス処理モードの情報に基づいて、ホワイトバランス処理モードがホワイトバランス設定モードと同じであると判定される場合には、ホワイトバランス設定モードに基づいてホワイトバランスベース値を取得し、ホワイトバランス処理モードがホワイトバランス設定モードと異なると判定される場合には、ホワイトバランス処理モードに基づいてホワイトバランスベース値を取得し、処理画像データの画素毎に、取得されたホワイトバランスベース値を乗算してホワイトバランス調整画像データを取得する画像処理方法に関する。
 本発明の他の態様は、原画像データの画素毎にホワイトバランスゲインを取得する手順と、ホワイトバランスベース値を定めて、原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を取得する手順と、原画像データの画素毎に、画素値にホワイトバランス比率を乗算して処理画像データを取得する手順と、をコンピュータに実行させるためのプログラムに関する。
 本発明の他の態様は、原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データと、ホワイトバランスベース値とを、記憶媒体から取得する手順と、処理画像データの画素毎に、ホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得する手順と、をコンピュータに実行させるためのプログラムに関する。
 本発明の他の態様は、原画像データの画素毎に、原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得する手順と、原画像データを取得した際のホワイトバランス設定モードの情報を取得する手順と、原画像データを取得した際のホワイトバランス設定モードの情報に基づいて、ホワイトバランスベース値を推定する手順と、処理画像データの画素毎に、推定されたホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得する手順と、をコンピュータに実行させるためのプログラムに関する。
 本発明の他の態様は、原画像データの画素毎に、原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得する手順と、原画像データを取得した際のホワイトバランス設定モードの情報を取得する手順と、処理画像データに適用されるホワイトバランス処理モードの情報を取得する手順と、ホワイトバランス設定モードの情報及びホワイトバランス処理モードの情報に基づいて、ホワイトバランス処理モードがホワイトバランス設定モードと同じであると判定される場合には、ホワイトバランス設定モードに基づいてホワイトバランスベース値を取得し、ホワイトバランス処理モードがホワイトバランス設定モードと異なると判定される場合には、ホワイトバランス処理モードに基づいてホワイトバランスベース値を取得する手順と、処理画像データの画素毎に、取得されたホワイトバランスベース値を乗算してホワイトバランス調整画像データを取得する手順と、をコンピュータに実行させるためのプログラムに関する。
 本発明によれば、処理画像データの各画素値に画素毎に設定されるホワイトバランスゲインが反映されるため、必要とされる記憶容量を抑えつつ、適切なマルチエリアホワイトバランス処理が施された画像データを事後的に得ることができる。
デジタルカメラの正面斜視図である。 デジタルカメラの背面斜視図である。 デジタルカメラの制御処理系を示すブロック図である。 第1実施形態に係る画像処理部の機能構成例を示すブロック図である。 第1実施形態に係る画像処理フローを示すフローチャートである。 第2実施形態に係る画像処理フローを示すフローチャートである。 第3実施形態に係る画像処理部の機能構成例を示すブロック図である。 第4実施形態に係る画像処理部の機能構成例を示すブロック図である。 第4実施形態に係る光源種データ取得部及びゲイン取得部の機能構成例を示すブロック図である。 第4実施形態に係る画像処理フローを示すフローチャートである。 第4実施形態に係る画像処理フローの一変形例を示すフローチャートである。 デジタルカメラ、コンピュータ、サーバ及びポータブル端末のネットワーク接続を示す概念図である。 第5実施形態に係る画像処理部の機能構成例を示すブロック図である。 第5実施形態に係る画像処理フローを示すフローチャートである。 第6実施形態に係る画像処理部の機能構成例を示すブロック図である。 第6実施形態に係る画像処理フローを示すフローチャートである。 第7実施形態に係る画像処理部の機能構成例を示すブロック図である。 第7実施形態に係る画像処理フローを示すフローチャートである。 第1実施形態に係る画像処理部(図4参照)の画像処理フローの一変形例を示す図である。 第7実施形態に係る画像処理部(図17参照)の画像処理フローの一変形例を示す図である。 スマートフォンの外観を示す図である。 図21に示すスマートフォンの構成を示すブロック図である。
 図面を参照して本発明の実施形態について説明する。以下の実施形態では、デジタルカメラ(撮像装置)に本発明を適用する例について説明する。ただし、デジタルカメラ以外の画像処理装置、撮像装置、画像処理方法及びプログラムにも本発明を適用することが可能である。
 図1は、デジタルカメラ2の正面斜視図である。図2は、デジタルカメラ2の背面斜視図である。
 デジタルカメラ2は、カメラ本体3と、カメラ本体3の前面に取り付けられるレンズ鏡筒4とを備える。レンズ鏡筒4及びカメラ本体3は、一体的に設けられてもよいし、レンズ交換式カメラとして着脱自在に設けられてもよい。
 カメラ本体3の前面には、レンズ鏡筒4に加えてフラッシュ発光部5が設けられ、カメラ本体3の上面にはシャッタボタン6及び電源スイッチ7が設けられている。シャッタボタン6は、ユーザからの撮影指示を受け付ける撮影指示部であり、電源スイッチ7は、デジタルカメラ2の電源のオン及びオフの切り換え指示をユーザから受け付ける電源切換部である。
 カメラ本体3の背面には、液晶パネル等によって構成される表示部8と、ユーザによって直接的に操作される操作部9とが設けられている。表示部8は、撮影待機状態ではライブビュー画像(スルー画)を表示して電子ビューファインダとして機能し、撮影画像やメモリ記憶画像の再生時には再生画像表示部として機能する。
 操作部9は、モード切換スイッチ、十字キー及び実行キーなどの任意の操作デバイスによって構成される。例えばモード切換スイッチは、デジタルカメラ2の動作モードを切り換える際にユーザによって操作される。デジタルカメラ2の動作モードとして、被写体を撮像して撮影画像を得るための撮影モード、及び画像を再生表示する再生モード、等がある。また他の撮影モードとして、オートフォーカスを行うAF(Auto Focus)モード及びマニュアルフォーカス操作を行うMF(Manual Focus)モードがある。一方、十字キー及び実行キーは、表示部8にメニュー画面や設定画面を表示したり、メニュー画面や設定画面内に表示されるカーソルを移動したり、デジタルカメラ2の各種設定を確定したりする場合に、ユーザによって操作される。
 カメラ本体3の底部(図示省略)には、メインメモリ10が装填されるメモリスロットと、このメモリスロットの開口を開閉する装填蓋とが設けられている。メインメモリ10は、カメラ本体3に着脱自在に設けられており、カメラ本体3に装着されると、カメラ本体3に設けられる記憶制御部33と電気的に接続される。メインメモリ10は、一般にカード型フラッシュメモリ等の半導体メモリにより構成可能であるが、特に限定されるものではなく、磁気媒体等の任意の記憶方式の記憶媒体をメインメモリ10として用いることが可能である。
 図3は、デジタルカメラ2の制御処理系を示すブロック図である。
 被写体光は、レンズ鏡筒4に設けられるレンズ部12とカメラ本体3に設けられるメカニカルシャッタ20とを通過し、撮像素子21によって受光される。撮像素子21は、被写体像を受光して画像データを生成する素子であり、RGB(赤緑青)等のカラーフィルタと、光学像を電気信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサとを有する。撮像素子21から出力される画像データは、プロセス処理部22でAGC(Automatic Gain Control)回路等によってプロセス処理が施され、その後AD変換部23によってアナログ形式の画像データがデジタル形式の画像データに変換される。デジタル化された画像データはバッファメモリ24に保存される。
 バッファメモリ24は、画像データを一時的に記憶する領域であり、DRAM(Dynamic Random Access Memory)等によって構成される。AD変換部23から送られてきてバッファメモリ24に蓄えられた画像データは、システム制御部25により制御される画像処理部(画像処理装置)31によって読み出される。画像処理部31は、撮像素子21が生成する画像データを入力画像データとして使用し、ガンマ補正処理及びデモザイク処理等の各種の画像処理を行い、画像処理後の画像データを再びバッファメモリ24に保存する。
 画像処理部31において画像処理が施されてバッファメモリ24に保存された画像データは、表示制御部35及び圧縮伸張部32によって読み出される。表示制御部35は表示部8を制御し、バッファメモリ24から読み出した画像データを表示部8に表示させる。このように、撮像素子21から出力され画像処理部31において画像処理を受けた画像データは、撮影確認画像として表示部8に表示(ポストビュー)される。
 一方、圧縮伸張部32は、バッファメモリ24から読み出した画像データの圧縮処理を行って、JPEG(Joint Photographic Experts Group)やTIFF(Tagged Image File Format)等の任意の圧縮形式の画像データを作成する。圧縮処理後の画像データは、メインメモリ(記憶媒体)10へのデータ記憶処理及びメインメモリ10からのデータ読み出し処理をコントロールする記憶制御部33によって、メインメモリ10に記憶される。なおメインメモリ10に画像データ等のデータ類を記憶する場合、記憶制御部33は、後述のクロックデバイス34から取得される日時情報に基づいて、そのデータ類に編集日時情報(更新日時情報)等の撮影情報やその他の関連情報を付加する。この撮影情報は任意のフォーマットで画像データに付加され、例えばExif(Exchangeable image file format)形式を採用可能である。
 メインメモリ10に保存されている画像データを再生する再生モードにおいて、メインメモリ10に保存されている画像データは、システム制御部25により制御される記憶制御部33によって読み出され、圧縮伸張部32によって伸張処理が施された後にバッファメモリ24に保存される。そして撮影画像の確認表示と同様の手順で、表示制御部35によってバッファメモリ24から画像データが読み出され、表示部8において画像データが再生表示される。
 システム制御部25は、上述のようにバッファメモリ24、画像処理部31及び記憶制御部33をコントロールするが、デジタルカメラ2における他の各部もコントロールする。例えば、システム制御部25は、レンズ駆動部27を制御してレンズ部12の駆動をコントロールし、シャッタ駆動部26を制御してメカニカルシャッタ20の駆動をコントロールし、撮像素子21を制御して画像データの出力をコントロールする。またシステム制御部25は、フラッシュ発光部5を制御してフラッシュの発光及び非発光をコントロールし、電源制御部28を制御して電源29における電池装着の有無、電池の種類及び電池残量の検出等を行う。またシステム制御部25は、クロックデバイス34においてカウントされる日時情報を取得して各種の処理に利用する。またシステム制御部25は、画像処理部31を構成する各種の処理部を制御する。
 さらにシステム制御部25は、シャッタボタン6、電源スイッチ7及び操作部9を含むユーザインタフェース36からの操作信号を取得し、操作信号に応じた各種の処理及びデバイス制御を行う。例えば、システム制御部25は、シャッタボタン6から受信したレリーズ信号に応じてシャッタ駆動部26を制御し、メカニカルシャッタ20の開閉をコントロールする。またシステム制御部25は、電源スイッチ7から受信した電源オンオフ信号に応じて電源制御部28を制御し、電源29のオン及びオフをコントロールする。
 システム制御部25で行われる各種の処理及びデバイス制御に必要なプログラムやデータ類は、制御メモリ30に記憶されている。システム制御部25は、必要に応じて、制御メモリ30に記憶されているプログラムやデータ類を読み出すことができ、また新たなプログラムやデータ類を制御メモリ30に保存することができる。例えば設定されたホワイトバランスモード(以下、「WBモード」と称する)の種類やWBゲイン等の条件データを、システム制御部25は制御メモリ30に書き込むことができる。またシステム制御部25は、表示制御部35を制御して、各部から取得した各種情報を表示部8に表示させることができる。なおシステム制御部25は、ユーザがユーザインタフェース36を介して入力する操作信号に応じて、表示部8に表示させる各種情報を変更することができる。
 次に、撮像素子21によって取得される原画像データのWB処理に関し、具体的な画像処理例について説明する。
 なお以下の各実施形態では、撮像素子21から出力されプロセス処理部22(プロセス処理)及びAD変換部23(AD変換処理)を経た「RAW画像データ」が、バッファメモリ24を介して画像処理部31に入力され原画像データ及び処理画像データとして使用される例について説明する。したがって画像処理部31におけるデモザイク処理は、以下の原画像データ及び処理画像データ(RAW画像データ)に関してはスキップされる。なお原画像データ及び処理画像データは「RAW画像データ」に限定されず、JPEG形式、TIFF形式等の他の任意のフォーマットを有する画像データに対しても同様の画像処理を行うことができる。
 一般にデジタルカメラには、画質処理が施されたJPEG画像等の処理画像の代わりに或いはそのような処理画像に加えて、「画質処理が施される前の画像データ」或いは「撮像系に起因する画質処理(例えばレンズシェーディング補正等)のみが施された画像データ」であるRAW画像データを記憶媒体(メインメモリ10)に記憶できる機種がある。RAW画像データを記憶しておくことにより、ユーザは、後日、RAW現像ソフトなどを使ってRAW画像データの画質処理及び現像処理を行うことができ、再撮影することなく画質違いの画像を得ることができる。デジタルカメラは、RAW画像データを記憶媒体に記憶する場合、RAW画像データの現像に必要な情報(撮影条件及び機種情報等)も併せて記憶媒体に記憶する。「RAW画像データ」及び「現像に必要な情報データ」の記憶方式は特に限定されないが、「RAW画像データ」に対して現像に必要な情報データや他の情報をタグ情報(メタデータ)として付加した状態のデータを記憶媒体に保存してもよい。以下の実施形態では、RAW画像データにタグ情報(メタデータ)を付加したデータを「RAWデータ」と呼ぶ。
 またメインメモリ10に保存される処理画像データの圧縮形式は特に限定されず、処理画像データは、無圧縮画像データであってもよいし、可逆圧縮画像データであってもよいし、非可逆圧縮画像データであってもよい。なお処理画像データがRAW画像データの場合には、WB処理(後述の「ホワイトバランス処理部(WB処理部)62」参照)の前に現像処理が行われてもよいし、WB処理の後に現像処理が行われてもよい。また処理画像データが圧縮画像データ(可逆圧縮画像データ又は非可逆圧縮画像データ)の場合には、WB処理(後述の「WB処理部62」参照)の前に伸張処理が行われていることが好ましい。これらの現像処理及び伸張処理は、例えば後述の処理データ取得部60において行われてもよい。
 <第1実施形態>
 本実施形態の画像処理部31では、基本となるWBゲイン(以下、「ホワイトバランスベース値(WBベース値)」と称する)と、原画像データを構成する各画素に適したWBゲインとが取得され、各画素に適したWBゲインとWBベース値との比率が原画像データの各画素値に乗算されて処理画像データが取得される。
 図4は、第1実施形態に係る画像処理部31の機能構成例を示すブロック図である。本実施形態の画像処理部31は、ゲイン取得部40、比率取得部42及び処理画像取得部44を有する。
 ゲイン取得部40は、原画像データの画素毎にWBゲインを取得する。比率取得部42は、WBベース値を定めて、原画像データの画素毎に、WBベース値に対するWBゲインの比率を示すホワイトバランス比率(以下、「WB比率」と称する)を取得する。処理画像取得部44は、原画像データの画素毎に、画素値にWB比率を乗算して処理画像データを取得する。処理画像データは、処理画像取得部44(画像処理部31)から出力され、バッファメモリ24、圧縮伸張部32及び記憶制御部33(図3参照)を介してメインメモリ10に保存される。このように本実施形態では記憶制御部33が、処理画像データをメインメモリ(記憶媒体)10に記憶するデータ記録部として機能する。
 画像処理部31における処理内容の具体例は、後述の実施形態(第3実施形態及び第4実施形態等)が参照される。
 図5は、第1実施形態に係る画像処理フローを示すフローチャートである。
 まずゲイン取得部40によって、原画像データの画素毎に最適なWBゲインが取得される(図5のS11参照)。
 そして比率取得部42によって、WBベース値が取得され(S12)、原画像データの画素毎に、ゲイン取得部40によって取得されたWBゲインのWBベース値に対する比率を表すWB比率が取得される(S13)。例えばWBベース値を「WBbase」によって表し、原画像データの各画素に適したWBゲインを「WB_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」によって表し、WB比率を「WBratio_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」によって表した場合、以下の式1によってWB比率「WBratio_ij」を表すことができる。
 式1   WBratio_ij=WB_ij/WBbase
 そして処理画像取得部44によって、原画像データの画素毎に、画素値にWB比率が乗算されて処理画像データが取得される(S14)。例えば原画像データの画素値を「V_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」によって表し、処理画像データの画素値を「P_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」によって表した場合、以下の式2によって処理画像データの各画素値「P_ij」を表すことができる。
 式2   P_ij=V_ij×WBratio_ij
          =V_ij×WB_ij/WBbase
 そして処理画像データは、画像処理部31(処理画像取得部44)から出力され、システム制御部25の制御下でバッファメモリ24及び圧縮伸張部32を介して記憶制御部33に送られ、記憶制御部33によってメインメモリ10に記憶される(S15)。なお本実施形態では、比率取得部42によって定められたWBベース値はメインメモリ10に記憶されない。
 以上説明したように本実施形態によれば、各画素に適したWBゲインWB_ijが反映された画素値P_ij(上記の式2参照)を有する処理画像データがメインメモリ10に記憶される。したがってメインメモリ10から処理画像データを読み出して、処理画像データの各画素値P_ijにWBベース値WBbaseを乗算するだけで、下記の式3のように、各画素に適したWBゲインが適用された画像データ(画素値K_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す))を得ることができる。
 式3   K_ij=P_ij×WBbase
          =V_ij×WB_ij/WBbase×WBbase
          =V_ij×WB_ij
 したがって処理画像データがRAW画像データであっても、現像処理の際に使用するRAW現像ソフトが上記式3で表される処理を行うだけで、各画素に適したWBゲインが適用された画像データを簡単に得ることができる(後述の第5実施形態(図13)参照)。このように、各画素に適したWBゲインが反映された処理画像データをメインメモリ10に保存することで、適切なマルチエリアWB処理が施された画像データを事後的に得ることができる。
 また本実施形態では、メインメモリ10に記憶される処理画像データの各画素値に、各画素に適したWBゲインが反映されており、「各画素に適したWBゲイン」を処理画像データと別個に保存する必要がない。すなわち本実施形態では、処理画像データと共にWBベース値を記憶しておけば画素毎に設定されるWBゲインを記憶しておく必要がないため、画素毎のWBゲインを保存しない場合とほぼ同等のデータ記憶量で、適切なマルチエリアWB処理が施された画像データを事後的に得ることができる。このように本実施形態によれば、「画素毎に適したWBゲイン」を処理画像データと別個に保存する場合に比べ、保存すべきデータ量を大幅に低減することができ、データ記憶量の肥大化を効果的に防ぐことができる。
 なお、レンズシェーディング補正処理や撮像補正処理なども画像の画素位置に応じて補正量を変える場合があるが、これらの処理は撮影の際のデジタルカメラ2の設定に依存する補正であるため、補正処理を予め関数化するなどの工夫によってデータ記憶量の増大を抑えることが可能である。しかしながらマルチエリアWB処理における「各画素に適したWBゲイン」は撮影シーンに依存してゲイン量が変動しうるため、マルチエリアWB処理を予め関数化しておく等の工夫が難しく、データ記憶量の増大を招き易い。しかしながら本実施形態によれば、データ記憶量の増大をほぼ伴うことなく、マルチエリアWB処理による効果を簡便な処理によって得ることができる。
 <第2実施形態>
 本実施形態において、上述の第1実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態の画像処理部31は、上述の第1実施形態の画像処理部31(図4参照)と同様の機能構成を有する。
 ただし本実施形態では、処理画像データの作成時に使用したWBベース値をタグ情報として処理画像データに付加したデータ(RAWデータ)がメインメモリ10に記憶される。すなわち、画像処理部31(処理画像取得部44)から出力される処理画像データはWBベース値と共に記憶制御部(データ記録部)33に送られ、記憶制御部33は処理画像データ及びWBベース値を相互に関連付けてメインメモリ(記憶媒体)10に記憶する。
 図6は、第2実施形態に係る画像処理フローを示すフローチャートである。
 本実施形態においても、上述の第1実施形態(図5参照)と同様に、原画像データの画素毎に最適なWBゲインが取得され(S11)、WBベース値が取得され(S12)、原画像データの画素毎に、ゲイン取得部40によって取得されたWBゲインのWBベース値に対する比率を表すWB比率が取得される(S13)。また原画像データの画素毎に、画素値にWB比率が乗算されて処理画像データが取得される(S14)。
 ただし本実施形態では、処理画像データとWBベース値とが画像処理部31から出力され、システム制御部25の制御下でバッファメモリ24及び圧縮伸張部32を介して記憶制御部33に送られ、記憶制御部33によってメインメモリ10に記憶される(図6のS15a)。なお画像処理部31(処理画像取得部44)から出力された段階で、WBベース値がタグ情報として処理画像データに付加されていてもよい。ただしWBベース値は、必ずしも処理画像データと共に画像処理部31から記憶制御部33に送られる必要はなく、例えばシステム制御部25から記憶制御部33にWBベース値が送られてもよい。すなわち画像処理部31(処理画像取得部44)からはWBベース値が付加されていない処理画像データが出力され、記憶制御部33においてWBベース値がタグ情報として処理画像データに付加されてもよい。
 以上説明したように本実施形態によれば、各画素に適したWBゲインが反映された処理画像データ及びWBベース値WBbaseがメインメモリ10に記憶される。したがってメインメモリ10から処理画像データ及びWBベース値WBbaseを読み出して、処理画像データの各画素値P_ijにWBベース値WBbaseを乗算するだけで、上記の式3に示すように、画素毎に適したWBゲインが適用された適正な画像データ(画素値K_ij)を得ることができる。
 また本実施形態においても、処理画像データと別個に「画素毎に最適化されたマルチエリアWBゲイン等のWBゲイン」を保存する必要がないため、画素毎のWBゲインを保存しない場合とほぼ同等のデータ記憶量で、適切なマルチエリアWB処理が施された画像データを事後的に得ることが可能である。
 <第3実施形態>
 本実施形態において、上述の第1実施形態及び第2実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 図7は、第3実施形態に係る画像処理部31の機能構成例を示すブロック図である。
 本実施形態の画像処理部31は、ゲイン取得部40、比率取得部42及び処理画像取得部44に加え、原画像データの光源種を判定する光源種判定部46を有する。
 原画像データの光源種の判定手法は特に限定されず、光源種判定部46は、例えば原画像データを解析することで光源種を判定してもよい。またフラッシュを発光させて撮影を行う場合には、光源種判定部46は、原画像データの光源種がフラッシュ光及び環境光を含むと判定してもよい。
 光源種判定部46で判定された原画像データの光源種の情報は、ゲイン取得部40及び比率取得部42に送られる。
 ゲイン取得部40は、光源種判定部46によって判定される原画像データの光源種に基づいて、原画像データの画素毎にWBゲインを取得する。例えば原画像データの光源種がフラッシュ光及び環境光である場合、ゲイン取得部40は、フラッシュ光の光源種のWBゲインとして、予め定められてメモリ(例えば図3に示す制御メモリ30)に記憶されているデータを使用してもよい。またゲイン取得部40は、環境光の光源種のWBゲインを、フラッシュ発光画像データ及びフラッシュ非発光画像データから算出してもよい。
 比率取得部42は、光源種判定部46によって判定される原画像データの光源種に含まれる1つの光源種に基づいてWBベース値を定める。本実施形態の比率取得部42は、WBベース値を、光源種判定部46によって判定される原画像データの環境光に基づいて定める。
 本実施形態によれば、ユーザが将来的にマルチエリアWB処理を適用した画像データの取得を望む場合に、WBベース値を「原画像データの光源種に含まれる1つの光源種(環境光)」に基づいて設定すればよいので、ユーザはマルチエリアWB処理を感覚的に行うことができ利便性が高い。例えば原画像データがフラッシュ発光シーンを撮影した画像データである場合に、ユーザは背景の光源に合わせてWBベース値を設定することが可能になる。
 なおメインメモリ10には、第1実施形態と同様にWBベース値は記憶されないが処理画像データが記憶されてもよいし、第2実施形態と同様に処理画像データ及びWBベース値が記憶されてもよい。
 <第4実施形態>
 本実施形態において、上述の第1実施形態~第3実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 図8は、第4実施形態に係る画像処理部31の機能構成例を示すブロック図である。
 本実施形態の画像処理部31は、ゲイン取得部40、比率取得部42、処理画像取得部44及び光源種判定部46に加え、フラッシュ画像取得部48及び光源種データ取得部50を有する。
 フラッシュ画像取得部48は、フラッシュを発光して撮影されたフラッシュ発光画像データと、フラッシュ発光画像データの被写体と同一の被写体をフラッシュ非発光で撮影することで得られるフラッシュ非発光画像データとを取得する。すなわち本実施形態では、ユーザがフラッシュ発光画像データを取得しようとシャッタボタン6(図1及び図2参照)を押すと、システム制御部25(図3参照)はフラッシュ発光部5の発光をコントロールしつつ撮像素子21等を制御して、フラッシュ非発光撮影及びフラッシュ発光撮影が自動的に連続的に行われる。フラッシュ画像取得部48は、これらの撮影により得られるフラッシュ発光画像データ及びフラッシュ非発光画像データを取得する。
 光源種データ取得部50は、環境光(第1の光源種)の影響を示す第1の画像データと、フラッシュ光(第2の光源種)の影響を示す第2の画像データとを取得する。すなわち光源種データ取得部50は、第1の光源種を環境光として、フラッシュ画像取得部48が取得するフラッシュ非発光画像データに基づいて第1の画像データを取得し、また第2の光源種をフラッシュ光として、フラッシュ発光画像データに基づいて第2の画像データを取得する。
 ここでいう第1の画像データ及び第2の画像データは特に限定されない。例えば、「フラッシュ非発光画像データ」自体を環境光の影響を示す第1の画像データとして使用してもよい。また「フラッシュ発光画像データとフラッシュ非発光画像データとの各画素値の差分を示す画像データ」をフラッシュ光の影響を示す第2の画像データとして使用してもよい。
 なおフラッシュ発光の有無は、ユーザインタフェース36を介したユーザの設定によって決められたり、或いは撮影シーンの明るさを検出する測光センサ(図示省略)の検出結果に応じてシステム制御部25により決められたりするが、いずれにしてもシステム制御部25はフラッシュ発光の有無の情報を有する。したがって本実施形態のように環境光及びフラッシュ光を原画像データの第1の光源種及び第2の光源種とする場合、光源種判定部46は、システム制御部25が把握しているフラッシュ発光の有無の情報を取得することで、原画像データの光源種を判定してもよい。
 光源種判定部46による原画像データの光源種の判定結果は、ゲイン取得部40及び比率取得部42だけではなく、光源種データ取得部50にも送られる。光源種データ取得部50は、光源種判定部46の判定結果に基づいて、第1の画像データ及び第2の画像データを取得する。
 ゲイン取得部40は、光源種判定部46によって判定される原画像データの光源種が環境光(第1の光源種)及びフラッシュ光(第2の光源種)を含む場合、第1の画像データ及び第2の画像データに基づいて、原画像データの画素毎のWBゲインを取得する。
 図9は、第4実施形態に係る光源種データ取得部50及びゲイン取得部40の機能構成例を示すブロック図である。
 本例の光源種データ取得部50は、環境光ゲイン取得部52、フラッシュ光ゲイン取得部54及びフラッシュ影響度取得部56を有する。
 環境光ゲイン取得部52は、光源種判定部46によって判定される原画像データの環境光を光源種として定められる環境光用ホワイトバランスゲイン(以下、「環境光用WBゲイン」と称する)を取得する。環境光ゲイン取得部52は、例えばフラッシュ非発光画像データの色分布及び輝度値などから、一般的に行われている手法でオートホワイトバランスモード用のWBゲイン(以下、「AWBゲイン」と称する)を算出し、そのAWBゲインを環境光用WBゲインとして使用することができる。なおAWBゲインは任意の手法に基づいて算出可能である。環境光ゲイン取得部52は、例えばフラッシュ非発光画像データを解析してRGBの画素値から色分布情報を求めて、平均値を無彩色にするゲインをAWBゲイン(環境光用WBゲイン)として設定してもよい。また環境光ゲイン取得部52は、フラッシュ非発光画像データの輝度値から輝度分布情報を求めて、この輝度分布情報に基づいてAWBゲイン(環境光用WBゲイン)を決めてもよい。また複数の環境光の種別毎に定められるWBゲインを予め制御メモリ30等のメモリに記憶しておき、環境光ゲイン取得部52は、フラッシュ非発光画像データを解析することで環境光の種別を判定し、判定された環境光の種別に関するWBゲインをメモリから取得して環境光用WBゲインとして設定してもよい。
 フラッシュ光ゲイン取得部54は、フラッシュ光を光源種として定められるフラッシュ光用ホワイトバランスゲイン(以下、「フラッシュ光用WBゲイン」と称する)を取得する。例えばフラッシュ光の特性は予め把握可能であるため、フラッシュ光の光特性に応じて予め求められたフラッシュ光用WBゲインを制御メモリ30等のメモリに記憶しておき、フラッシュ光ゲイン取得部54はフラッシュ光用WBゲインをメモリから直接的又は間接的に読み出して取得してもよい。
 フラッシュ影響度取得部56は、原画像データを構成する各画素におけるフラッシュ光と環境光との比率を表すフラッシュ影響度を取得する。より具体的には、フラッシュ影響度取得部56は、フラッシュ非発光画像データの画素毎の輝度値(以下、「第1の輝度値」と称する)を第1の画像データとして取得し、フラッシュ発光画像データの画素毎の輝度値(以下、「第2の輝度値」と称する)を第2の画像データとして取得する。そしてフラッシュ影響度取得部56は、第1の輝度値及び第2の輝度値から、原画像データの画素毎のフラッシュ影響度を取得する。
 なお第1の輝度値及び第2の輝度値の各々を取得する手法及びフラッシュ影響度を取得する手法は、特に限定されない。例えばフラッシュ発光画像データ(原画像データ)及びフラッシュ非発光画像データがRGBデータによって構成され、Rデータ、Gデータ及びBデータの各々を「R_ij」、「G_ij」及び「B_ij」(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)で表した場合、例えば下記の式4及び式5によって第1の輝度値「Y1_ij」及び第2の輝度値「Y2_ij」(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)を表すことができる。
 式4
   Y1_ij
   =R_ij×0.299+G_ij×0.587+B_ij×0.114
 式5
   Y2_ij
   =R_ij×0.299+G_ij×0.587+B_ij×0.114
 またフラッシュ影響度Ratio_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)を、例えば下記の式6によって表すことができる。
 式6   Ratio_ij=1-(Y1_ij/Y2_ij)
 ゲイン取得部40は、環境光ゲイン取得部52が取得した「環境光用WBゲインWB1」とフラッシュ光ゲイン取得部54が取得した「フラッシュ光用WBゲインWB2」とから、フラッシュ影響度取得部56が取得した「フラッシュ影響度Ratio_ij」(上記の式6参照)に基づいて、原画像データの画素毎のWBゲインWB_ijを取得する。フラッシュ影響度Ratio_ijが各画素におけるフラッシュ光の影響の比率を表す場合、原画像データの画素毎のWBゲインWB_ijは、例えば下記の式7に基づいて取得可能である。
 式7
 WB_ij=WB1×(1-Ratio_ij)+WB2×Ratio_ij
 図10は、第4実施形態に係る画像処理フローを示すフローチャートである。
 ユーザがシャッタボタン6を押して撮影を指示すると被写体の撮影が行われ、撮像素子21から出力されたフラッシュ非発光画像データ及びフラッシュ発光画像データが、プロセス処理部22、AD変換部23及びバッファメモリ24を介して画像処理部31のフラッシュ画像取得部48により取得される(図10のS21)。
 そして光源種データ取得部50の環境光ゲイン取得部52によって、フラッシュ非発光画像データから環境光用WBゲインWB1が取得され(S22)、またフラッシュ光ゲイン取得部54によって、予め定められたフラッシュ光用WBゲインWB2が制御メモリ30等のメモリから取得される(S23)。
 そしてフラッシュ影響度取得部56によって、フラッシュ非発光画像データの画素毎の輝度値(第1の輝度値Y1_ij)が取得され(S24)、またフラッシュ発光画像データの画素毎の輝度値(第2の輝度値Y2_ij)が取得される(S25)。そしてこれらの第1の輝度値Y1_ij及び第2の輝度値Y2_ijから画素毎のフラッシュ影響度Ratio_ijがフラッシュ影響度取得部56によって取得される(S26)。
 そしてゲイン取得部40によって、環境光用WBゲインWB1、フラッシュ光用WBゲインWB2及びフラッシュ影響度Ratio_ijから、原画像データ(フラッシュ発光画像データ)の各画素に適したWBゲインWB_ijが取得される(S27)。
 そして比率取得部42によって、WBベース値WBbaseが決定され(S28)、原画像データの各画素に適したWBゲインWB_ij及びWBベース値WBbaseから画素毎のWB比率WBratio_ijが取得される(S29)。
 そして処理画像取得部44によって、原画像データ(フラッシュ発光画像データ)の画素毎に、画素値V_ijとWB比率WBratio_ijとの乗算が行われて処理画像データが取得され(S30)、処理画像データは記憶制御部33によってメインメモリ10に記憶される(S31)。
 なお図10に示す処理フローでは、上述の第1実施形態と同様に、処理画像データはメインメモリ10に記憶されるが、WBベース値WBbaseはメインメモリ10に記憶されない。しかしながら、図11のフローチャートに示すように、上述のステップS21~S30を経た後に、上述の第2実施形態と同様に、処理画像データ及びWBベース値WBbaseがメインメモリ10に記憶されてもよい(図11のS31a)。
 <第5実施形態>
 本実施形態において、上述の第1実施形態~第4実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、上述の処理画像データをメインメモリ10から読み出して、その処理画像データにWBベース値を適用することでWB処理が施された画像データ(以下、「ホワイトバランス調整画像データ(WB調整画像データ)」と称する)を得る処理に関し、WBベース値をメインメモリ10から読み出して使用する例に関する。
 したがって本実施形態で使用されるメインメモリ10には、例えば上述の第2実施形態でメインメモリ10に記憶された処理画像データのように、処理画像データを生成時に使用したWBベース値が処理画像データと関連付けられて記憶されている。また本実施形態の画像処理部31は相互に関連付けられた処理画像データ及びWBベース値を読み出してWB処理を行う。
 なお図13に示す画像処理部31は、上述の第2実施形態で説明した「ゲイン取得部40、比率取得部42及び処理画像取得部44を含む画像処理部31(図4参照)」と一体的に設けられてもよいし、別体として設けられてもよい。したがって、例えば図4に示す画像処理部31をデジタルカメラ2に設ける場合に、下述の図13に示す画像処理部31は、同様にデジタルカメラ2に設けられてもよいし、図12に示すようにデジタルカメラ2に有線又は無線のネットワーク94を介して接続されるコンピュータ90やサーバ92に設けられてよいし、デジタルカメラ2から取り外されたメインメモリ10に接続可能なコンピュータ90等に設けられてもよい。またデジタルカメラ2、コンピュータ90又はサーバ92に接続されるポータブル端末96であって、処理画像データを受信可能なスマートフォン或いはタブレット端末等のポータブル端末96に、下述の図13に示す画像処理部31が設けられてもよい。
 図13は、第5実施形態に係る画像処理部31の機能構成例を示すブロック図である。
 本実施形態の画像処理部31は、処理データ取得部60及びWB処理部62を有する。
 処理データ取得部60は、「原画像データの画素毎に、WBベース値に対するWBゲインの比率を示すWB比率を画素値に乗算して取得される処理画像データ」と、「WBベース値」とを、メインメモリ(記憶媒体)10から取得する。
 WB処理部62は、処理画像データの画素毎に、上記の式3に示すように、WBベース値WBbaseを画素値P_ijに乗算してWB調整画像データ(画素値K_ij)を取得する。
 図14は、第5実施形態に係る画像処理フローを示すフローチャートである。
 まず処理データ取得部60によって、メインメモリ10から処理画像データが読み出され(図14のS41)、またメインメモリ10からWBベース値が読み出される(S42)。
 そしてWB処理部62によって、処理画像データの画素毎にWBベース値が画素値に乗算されてWB調整画像データが取得される(S43)。
 以上説明したように本実施形態によれば、メインメモリ10から処理画像データを読み出して取得する場合であっても、マルチエリアWB処理が施されたWB調整画像データを取得することができる。例えばマルチエリアWB処理のWBゲインを反映した処理画像データ(RAW画像データ)及びWBベース値をメインメモリ10に記憶しておくことで、ユーザは処理画像データ(RAW画像データ)を現像する際に、マルチエリアWB処理が施されたWB調整画像データを簡便に取得することができる。このように本実施形態によれば、適切なマルチエリアWB処理が施された画像データを事後的に得ることができる。
 <第6実施形態>
 本実施形態において、上述の第5実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、上述の処理画像データをメインメモリ10から読み出して、その処理画像データにWBベース値を適用することでWB調整画像データを得る処理に関し、WBベース値を推定して使用する例に関する。したがって本実施形態は、例えば上述の第1実施形態でメインメモリ10に記憶された処理画像データのように、処理画像データの生成に使用したWBベース値がメインメモリ10に記憶されていない場合に好適である。
 図15は、第6実施形態に係る画像処理部31の機能構成例を示すブロック図である。
 本実施形態の画像処理部31は、処理データ取得部60及びWB処理部62に加え、設定モード取得部64及びベース値取得部66を有する。
 本実施形態の処理データ取得部60は、処理画像データをメインメモリ(記憶媒体)10から取得するが、WBベース値は取得しない。
 設定モード取得部64は、原画像データを取得した際のホワイトバランス設定モード(以下、「WB設定モード」と称する)の情報を取得する。WB設定モードの情報の取得手法は特に限定されない。例えば処理画像データのタグ情報にWB設定モードの情報が含まれている場合には、設定モード取得部64は、処理データ取得部60が取得した処理画像データに付加されているタグ情報からWB設定モードの情報を取得してもよいし、メインメモリ10から直接的にWB設定モードの情報を取得してもよい。また処理画像データに関して原画像データを取得した際のWB設定モードの情報がメインメモリ10に記憶されていない場合、設定モード取得部64は、例えば任意のWB設定モード(例えばオートホワイトバランスモード(以下、「AWBモード」と称する))をWB設定モードとして仮定してもよい。
 なおWB設定モードは特に限定されない。例えば、予め想定される光源種(例えば晴れ(太陽光)、蛍光灯、或いは電球等)に応じてWBゲインが予め定められているプリセットホワイトバランスモード(以下、「プリセットWBモード」と称する)、原画像データの色分布情報に基づいて原画像データに適用されるWBゲインが決定されるAWBモード、及び原画像データとは異なる参照画像データの色分布情報に基づいて原画像データに適用されるWBゲインが決定されるカスタムホワイトバランスモード(以下、「カスタムWBモード」と称する)のうちのいずれか一つを、WB設定モードとしうる。またユーザがマニュアルで個別的にWBゲインを決定するマニュアルホワイトバランスモード(以下、「マニュアルWBモード」と称する)を、WB設定モードとして選択可能であってもよい。
 ベース値取得部66は、設定モード取得部64が取得した「原画像データを取得した際のWB設定モードの情報」に基づいて、WBベース値を推定する。例えば原画像データを取得した際のWB設定モードがAWBモードである場合、ベース値取得部66は、処理データ取得部60によって取得された処理画像データの色分布からAWBゲインを取得し、そのAWBゲインに基づいてWBベース値を推定する。また原画像データを取得した際のWB設定モードがプリセットWBモードやカスタムWBモードのようにWBゲインが予め定められている場合、ベース値取得部66は、処理画像データに関連付けられて記憶されているWB設定モード用のWBゲインを取得し、その取得したWBゲインに基づいてWBベース値を推定する。なお、「処理画像データに関連付けられて記憶されているWB設定モード用のWBゲイン」の取得手法は特に限定されない。例えば処理データ取得部60が取得した処理画像データのタグ情報、RAW現像ソフトの内部パラメータ、或いはサーバ92に記憶された情報等から「処理画像データに関連付けられて記憶されているWB設定モード用のWBゲイン」が取得されてもよい。
 WB処理部62は、処理画像データの画素毎に、ベース値取得部66によって推定されたWBベース値を画素値に乗算してWB調整画像データを取得する(上記の式3参照)。
 図16は、第6実施形態に係る画像処理フローを示すフローチャートである。
 まず処理データ取得部60によって、メインメモリ10から処理画像データが読み出されて取得され(図16のS51)、また設定モード取得部64によって、原画像データを取得した際のWB設定モードの情報が取得される。
 そしてベース値取得部66によって、原画像データを取得した際のWB設定モードの情報に基づいてWBベース値が推定される(S52)。
 そしてWB処理部62によって、処理画像データの画素毎に、推定されたWBベース値が画素値に乗算されてWB調整画像データが取得される(S53)。
 以上説明したように、メインメモリ10から処理画像データを取得することはできるがWBベース値を取得することができない場合であっても、本実施形態によればマルチエリアWB処理を施したWB調整画像データを取得することができる。
 <第7実施形態>
 本実施形態において、上述の第5実施形態~第6実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、処理画像データをメインメモリ10から読み出して、その処理画像データにWBベース値を適用することでWB調整画像データを得る処理に関し、ユーザによって所望のホワイトバランス処理モード(以下、「WB処理モード」と称する)が選択され、処理画像データに対しては、WBベース値ではなくユーザが選択したWB処理モードに応じたWBゲインが適用される。
 図17は、第7実施形態に係る画像処理部31の機能構成例を示すブロック図である。
 本実施形態の画像処理部31は、処理データ取得部60、WB処理部62、設定モード取得部64及びベース値取得部66に加え、処理モード取得部70を有する。
 処理モード取得部70は、処理画像データに適用されるWB処理モードの情報を処理モード入力部68から取得する。ここでいう「WB処理モード」はユーザが希望するWBモードであり、ユーザは処理画像データの実際のWB処理として希望するWBモードを「WB処理モード」として処理モード入力部68に入力する。
 処理モード入力部68の具体的な形態は特に限定されず、処理モード入力部68がデジタルカメラ2に搭載される場合には、例えば「操作部9(図2参照)」によって処理モード入力部68を構成することができる。また処理モード入力部68がコンピュータ90、サーバ92又はポータブル端末96に搭載される場合には、それらの機器類に搭載又は接続されるキーボード、マウス、タッチパネル等の任意の操作部によって処理モード入力部68を構成することができる。
 処理モード取得部70によって取得された「処理画像データに適用されるWB処理モードの情報」はベース値取得部66に送られる。またベース値取得部66には、設定モード取得部64が取得した「原画像データのWB設定モード」の情報が送られる。
 ベース値取得部66は、ホワイトバランス設定モードの情報及びWB処理モードの情報に基づいてWBベース値を取得する。すなわちベース値取得部66は、WB処理モードがWB設定モードと同じであると判定される場合には、WB設定モードに基づいてWBベース値を取得し、WB処理モードがWB設定モードと異なると判定される場合には、WB処理モードに基づいてWBゲインを取得する。この場合、ベース値取得部66は、例えばメインメモリ10に記憶されている処理画像データのタグ情報からWBゲイン及び/又はWBベース値を取得してもよいし、処理データ取得部60が取得した処理画像データを解析することでWBゲイン(例えばAWBゲイン)を取得してもよい。
 WB処理部62は、処理データ取得部60がメインメモリ10から取得した処理画像データの画素毎に、ベース値取得部66によって取得されたWBベース値又はWBゲインを乗算してWB調整画像データを取得する。
 図18は、第7実施形態に係る画像処理フローを示すフローチャートである。なお以下では、処理画像データの生成に使用したWBベース値が処理画像データのタグ情報としてメインメモリ10に記憶されている例について説明する。
 まず処理データ取得部60によって、メインメモリ10から処理画像データが読み出されて取得され(図18のS61)、また設定モード取得部64によって、原画像データを取得した際のWB設定モードの情報がメインメモリ10から取得される(S62)。また処理モード取得部70によって、処理画像データに適用されるWB処理モードの情報が取得される(S63)。
 そしてベース値取得部66によって、WB設定モードとWB処理モードとが同じWBモードに関するものか否か判定される(S64)。
 WB設定モードとWB処理モードとが同じWBモードであると判定される場合(S64のY)、ベース値取得部66によって、例えば処理データ取得部60が取得した処理画像データのタグ情報からWBベース値が取得される(S65)。そしてWB処理部62によって、このWBベース値が処理画像データの各画素値に乗算されてWB調整画像データが取得される(S66)。
 一方、WB設定モードとWB処理モードとが同じではないと判定される場合(S64のN)、ベース値取得部66によってWB処理モードに応じたWBゲインが取得される(S67)。そしてWB処理部62によって、このWBゲインが処理画像データの各画素値に乗算されてWB調整画像データが取得される(S68)。
 以上説明したように本実施形態によれば、ユーザが原画像データを取得した際のWB設定モードとは異なるモードのWB処理を望む場合には、ユーザが望むWB処理モードに応じたWB処理が施されたWB調整画像データを取得することができる。この場合、例えばマルチエリアWB処理の効果を得つつ、画像全体のカラーバランスをユーザの要望に合わせて変えることができる。
 なお、WBベース値がAWBモードに基づいて定められることが予め決められている場合には、処理画像データに適用されるWB処理モードがAWBモードか否かに応じてWB調整画像データが取得されてもよい。
 図19は、第1実施形態に係る画像処理部31(図4参照)の画像処理フローの一変形例を示す図である。本変形例では、処理画像データの生成に使用するWBベース値としてAWBゲインを使用することが予め定められている。すなわち図4に示すゲイン取得部40が原画像データの画素毎のWBゲインを取得する(図19のS71)一方で、比率取得部42は原画像データを解析してAWBゲインを取得し、そのAWBゲインをWBベース値として定める(S72)。そして、第1実施形態(図5のS13~S15参照)と同様に、画素毎にWBゲイン及びWBベース値からWB比率が取得され(S73)、画素毎に画素値にWB比率が乗算されて処理画像データが取得され(S74)、メインメモリ10に処理画像データが記憶される(S75)。
 図20は、第7実施形態に係る画像処理部31(図17参照)の画像処理フローの一変形例を示す図である。図19に示す画像処理フローによってメインメモリ10に記憶された処理画像データのマルチエリアWB処理は、図20に示す画像処理フローに従って、図17に示す機能構成を有する画像処理部31によって実施可能である。すなわち上述の第7実施形態(図18のS61及びS63参照)と同様に、メインメモリ10から処理画像データが読み出され(図20のS81)、処理モード入力部68からWB処理モードの情報が取得される(S82)。そしてベース値取得部66(図17参照)によって、WB処理モードがAWBモードか否かが判定される(S83)。
 WB処理モードがAWBモードであると判定される場合(S83のY)、ベース値取得部66は、処理画像データを解析して処理画像データの色分布情報を取得し(S84)、この色分布情報からAWBゲインを取得し、このAWBゲインをWBベース値として定める(S85)。そしてWB処理部62によって、処理画像データの各画素値に対してWBベース値が乗算されてWB調整画像データが取得される(S86)。
 一方、WB処理モードがAWBモードではないと判定される場合(S83のN)、ベース値取得部66はWB処理モードに基づくWBゲインを上述の第7実施形態(図18のS67参照)と同様に取得し(S87)、WB処理部62によってWBゲインが処理画像データの各画素値に乗算されてWB調整画像データが取得される(S88)。
 なお図19に示す変形例において、メインメモリ10には、処理画像データの生成に使用したWBベース値が処理画像データと関連付けられて記憶されてもよい(図19のS75参照)。この場合、ベース値取得部66は、処理画像データの色分布情報からAWBゲインを取得する(図20のS84~S85参照)代わりに、メインメモリ10に記憶されているWBベース値を読み出し、WB処理部62は、ベース値取得部66によって読み出されたWBベース値を処理画像データに適用してWB調整画像データを取得してもよい。
 <他の変形例>
 上述の実施形態及び変形例のうち任意の形態同士が組み合わされてもよい。また上述の実施形態は例示に過ぎず、他の構成に本発明を適用してもよい。
 例えば原画像データを取得する際のWB設定モードがAWBモードの場合にのみ、上述の第1実施形態~第4実施形態のように処理画像データをメインメモリ10に記憶してもよい。原画像データを取得する際のWB設定モードがAWBモード以外の場合、記憶制御部33は通常通り、WB設定モードを適用した後の画像データをメインメモリ10に記憶したり、WB設定モードに応じた画素毎のWBゲイン又は画素全体で共通のWBゲインを画像データと関連付けてメインメモリ10に記憶してもよい。
 また原画像データを取得する際のWB設定モードにかかわらず、上述の第1実施形態~第4実施形態のように処理画像データをメインメモリ10に記憶してもよい。この場合、ユーザは、原画像データを取得する際には将来的にマルチエリアWB処理を行うことを予定していない場合であっても、後日、メインメモリ10から読み出した処理画像データに対してマルチエリアWB処理を行うことが可能である。この場合であっても、上述の第1実施形態~第4実施形態によれば、画素毎のWBゲインが画像データとは別個に保存されるのではなく、マルチエリアWBゲインが反映された処理画像データが保存されるため、記憶容量を過大に浪費することがない。
 すなわちマルチエリアWB処理を実行するには、上述のように特殊な処理や情報が必要である。ユーザが原画像データの撮影取得の際にマルチエリアWBを実施したい場合には、原画像データを取得した際に、そのようなマルチエリアWB処理のための特殊な処理を行ったり、特殊な情報を取得することができる。しかしながら、撮影後に例えばRAW画像データを現像する段階になってからユーザがマルチエリアWB処理を実施したくなった場合には、撮影の際に行う必要があるマルチエリアWB処理のための特殊な処理が行われておらず、また撮影の際に取得することが必要なマルチエリアWB処理のための情報が取得されていないため、マルチエリアWB処理の実現が困難である。例えば人物夜景シーンでフラッシュを発光させて撮影して取得した画像データを原画像データとしてマルチエリアWB処理を行う場合、フラッシュ非発光画像データを併せて取得し、フラッシュ発光画像データとフラッシュ非発光画像データとの画素値の差分から画素毎にフラッシュ影響度を取得し、フラッシュ影響度に応じて背景(夜景)に適したWBゲイン(環境光用WBゲイン)とフラッシュ光に適したWBゲイン(フラッシュ光用WBゲイン)との混合比率(WB比率)を画素毎に取得することが必要とされる。しかしながら、RAW画像データ(原画像データ)の現像段階でこれらの処理を実行しようとしても、RAW画像データとして記憶されているのはフラッシュ発光画像データのみであり、マルチエリアWB処理に必要なフラッシュ非発光画像データが無いため、マルチエリアWB処理を実施するための「画素毎のWBゲイン」を取得することができない。したがって本変形例のように原画像データを取得する際のWB設定モードにかかわらず、上述の第1実施形態~第4実施形態のように処理画像データをメインメモリ10に記憶しておくことで、事後的にマルチエリアWB処理を行うことをユーザが望んだとしても、適切なマルチエリアWB処理が施されたWB調整画像データを取得することが可能である。
 上述の各機能構成は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって実現可能である。例えば、上述の各装置及び処理部(画像処理部31等)における画像処理方法(画像処理手順)をコンピュータに実行させるプログラム、そのプログラムを記憶したコンピュータ読み取り可能な記憶媒体(非一時的記憶媒体)、或いはそのプログラムをインストール可能なコンピュータに対しても本発明を適用することができる。
 また、本発明を適用可能な態様はデジタルカメラ及びコンピュータ(サーバ)には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、或いはその他のコンピュータ機能)を備えるモバイル機器類に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、及び携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
 <スマートフォンの構成>
 図21は、スマートフォン101の外観を示す図である。図21に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となった表示入力部120を備える。また、係る筐体102は、スピーカ131と、マイクロホン132と、操作部140と、カメラ部141とを備える。なお、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成が採用されてもよいし、折り畳み構造やスライド機構を有する構成が採用されてもよい。
 図22は、図21に示すスマートフォン101の構成を示すブロック図である。図22に示すように、スマートフォンの主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。また、スマートフォン101の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部110は、主制御部100の指示に従って、移動通信網に収容された基地局装置に対し無線通信を行うものである。係る無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部120は、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル121と、操作パネル122とを備える。
 表示パネル121は、LCD(Liquid Crystal Display)或いはOELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル122は、表示パネル121の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部100に出力する。次いで、主制御部100は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
 図21に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン101の表示パネル121と操作パネル122とは一体となって表示入力部120を構成しているが、操作パネル122が表示パネル121を完全に覆うような配置となっている。係る配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、「表示領域」と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、「非表示領域」と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル121の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式及び静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部130は、スピーカ131やマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力し、無線通信部110或いは外部入出力部160により受信された音声データを復号してスピーカ131から出力するものである。また、図21に示すように、例えば、スピーカ131を表示入力部120が設けられた面と同じ面に搭載し、マイクロホン132を筐体102の側面に搭載することができる。
 操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図21に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応付けたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152により構成される。なお、記憶部150を構成するそれぞれの内部記憶部151と外部記憶部152は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、或いはROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部160は、スマートフォン101に連結されるすべての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)及びIEEE(The Institute of Electrical and Electronics Engineers, Inc.)が定めるIEEE1394など)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、及びジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン101に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、及び有/無線接続されるイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達することや、スマートフォン101の内部のデータが外部機器に伝送されるようにしてもよい。
 GPS受信部170は、主制御部100の指示に従って、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度及び高度からなる位置を検出する。GPS受信部170は、無線通信部110や外部入出力部160(例えば、無線LAN)から位置情報を取得できる場合には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示に従って、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。係る検出結果は、主制御部100に出力されるものである。
 電源部190は、主制御部100の指示に従って、スマートフォン101の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部100は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン101の各部を統括して制御するものである。また、主制御部100は、無線通信部110を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能とを備える。
 アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部100が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部160を制御して対向機器とデータ通信を行う赤外線通信機能、電子メールの送受信を行う電子メール機能、及びWebページを閲覧するWebブラウジング機能などがある。
 また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部120に表示する機能のことをいう。
 さらに、主制御部100は、表示パネル121に対する表示制御と、操作部140及び操作パネル122を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示し、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 さらに、操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)か、それ以外の表示パネル121に重ならない外縁部分(非表示領域)かを判定し、操作パネル122の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部141は、CMOSなどの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部141は、主制御部100の制御により、撮像によって得た画像データを例えばJPEGなどの圧縮した画像データに変換し、記憶部150に記憶し、外部入出力部160や無線通信部110を通じて出力することができる。図21に示すようにスマートフォン101において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120の背面に搭載されてもよいし、或いは、複数のカメラ部141が搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮影に供するカメラ部141を切り換えて単独にて撮影してもよいし、或いは、複数のカメラ部141を同時に使用して撮影してもよい。
 また、カメラ部141はスマートフォン101の各種機能に利用することができる。例えば、表示パネル121にカメラ部141で取得した画像を表示することや、操作パネル122の操作入力の1つとして、カメラ部141の画像を利用することができる。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像を参照して位置を検出することもできる。さらには、カメラ部141からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部170により取得した位置情報、マイクロホン132により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部180により取得した姿勢情報等などを付加して記憶部150に記憶し、外部入出力部160や無線通信部110を通じて出力することもできる。
 上述の画像処理部31(図4、7~9、13、15及び17参照)は、例えば主制御部100によって実現可能である。
 2…デジタルカメラ、3…カメラ本体、4…レンズ鏡筒、5…フラッシュ発光部、6…シャッタボタン、7…電源スイッチ、8…表示部、9…操作部、10…メインメモリ、12…レンズ部、20…メカニカルシャッタ、21…撮像素子、22…プロセス処理部、23…AD変換部、24…バッファメモリ、25…システム制御部、26…シャッタ駆動部、27…レンズ駆動部、28…電源制御部、29…電源、30…制御メモリ、31…画像処理部、32…圧縮伸張部、33…記憶制御部、34…クロックデバイス、35…表示制御部、36…ユーザインタフェース、40…ゲイン取得部、42…比率取得部、44…処理画像取得部、46…光源種判定部、48…フラッシュ画像取得部、50…光源種データ取得部、52…環境光ゲイン取得部、54…フラッシュ光ゲイン取得部、56…フラッシュ影響度取得部、60…処理データ取得部、62…WB処理部、64…設定モード取得部、66…ベース値取得部、68…処理モード入力部、70…処理モード取得部、90…コンピュータ、92…サーバ、94…ネットワーク、96…ポータブル端末、100…主制御部、101…スマートフォン、102…筐体、110…無線通信部、120…表示入力部、121…表示パネル、122…操作パネル、130…通話部、131…スピーカ、132…マイクロホン、140…操作部、141…カメラ部、150…記憶部、151…内部記憶部、152…外部記憶部、160…外部入出力部、170…GPS受信部、180…モーションセンサ部、190…電源部

Claims (25)

  1.  原画像データの画素毎にホワイトバランスゲインを取得するゲイン取得部と、
     ホワイトバランスベース値を定めて、前記原画像データの画素毎に、前記ホワイトバランスベース値に対する前記ホワイトバランスゲインの比率を示すホワイトバランス比率を取得する比率取得部と、
     前記原画像データの画素毎に、画素値に前記ホワイトバランス比率を乗算して処理画像データを取得する処理画像取得部と、を備える画像処理装置。
  2.  前記原画像データの光源種を判定する光源種判定部を更に備え、
     前記ゲイン取得部は、前記光源種判定部によって判定される前記原画像データの光源種に基づいて、前記原画像データの画素毎に前記ホワイトバランスゲインを取得する請求項1に記載の画像処理装置。
  3.  第1の光源種の影響を示す第1の画像データと、第2の光源種の影響を示す第2の画像データとを取得する光源種データ取得部と、を更に備え、
     前記ゲイン取得部は、前記光源種判定部によって判定される前記原画像データの光源種が前記第1の光源種及び前記第2の光源種を含む場合、前記第1の画像データ及び前記第2の画像データに基づいて、前記原画像データの画素毎の前記ホワイトバランスゲインを取得する請求項2に記載の画像処理装置。
  4.  フラッシュを発光して撮影されたフラッシュ発光画像データとフラッシュを発光せずに撮影されたフラッシュ非発光画像データとを取得するフラッシュ画像取得部を更に備え、
     前記光源種データ取得部は、前記第1の光源種を環境光として、前記フラッシュ非発光画像データに基づいて前記第1の画像データを取得し、前記第2の光源種をフラッシュ光として、前記フラッシュ発光画像データに基づいて前記第2の画像データを取得する請求項3に記載の画像処理装置。
  5.  前記光源種データ取得部は、
     前記光源種判定部によって判定される前記原画像データの環境光を光源種として定められる環境光用ホワイトバランスゲインを取得する環境光ゲイン取得部と、
     フラッシュ光を光源種として定められるフラッシュ光用ホワイトバランスゲインを取得するフラッシュ光ゲイン取得部と、
     前記フラッシュ非発光画像データの画素毎の第1の輝度値を第1の画像データとして取得し、前記フラッシュ発光画像データの画素毎の第2の輝度値を第2の画像データとして取得し、前記第1の輝度値及び前記第2の輝度値から画素毎のフラッシュ影響度を取得するフラッシュ影響度取得部と、を有し、
     前記ゲイン取得部は、前記環境光用ホワイトバランスゲイン及び前記フラッシュ光用ホワイトバランスゲインから前記フラッシュ影響度に基づいて、前記原画像データの画素毎の前記ホワイトバランスゲインを取得する請求項4に記載の画像処理装置。
  6.  前記比率取得部は、前記光源種判定部によって判定される前記原画像データの光源種に含まれる1つの光源種に基づいて、前記ホワイトバランスベース値を定める請求項2~5のいずれか一項に記載の画像処理装置。
  7.  前記比率取得部は、前記ホワイトバランスベース値を、前記光源種判定部によって判定される前記原画像データの環境光に基づいて定める請求項6に記載の画像処理装置。
  8.  前記処理画像データ及び前記ホワイトバランスベース値を記憶媒体に記憶するデータ記録部を更に備える請求項1~7のいずれか一項に記載の画像処理装置。
  9.  原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データと、前記ホワイトバランスベース値とを、記憶媒体から取得する処理データ取得部と、
     前記処理画像データの画素毎に、前記ホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得するホワイトバランス処理部と、を備える画像処理装置。
  10.  原画像データの画素毎に、前記原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得する処理データ取得部と、
     前記原画像データを取得した際の前記ホワイトバランス設定モードの情報を取得する設定モード取得部と、
     前記原画像データを取得した際の前記ホワイトバランス設定モードの情報に基づいて、前記ホワイトバランスベース値を推定するベース値取得部と、
     前記処理画像データの画素毎に、前記ベース値取得部によって推定された前記ホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得するホワイトバランス処理部と、を備える画像処理装置。
  11.  原画像データの画素毎に、前記原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得する処理データ取得部と、
     前記原画像データを取得した際の前記ホワイトバランス設定モードの情報を取得する設定モード取得部と、
     前記処理画像データに適用されるホワイトバランス処理モードの情報を取得する処理モード取得部と、
     前記ホワイトバランス設定モードの情報及び前記ホワイトバランス処理モードの情報に基づいて、前記ホワイトバランス処理モードが前記ホワイトバランス設定モードと同じであると判定される場合には、前記ホワイトバランス設定モードに基づいて前記ホワイトバランスベース値を取得し、前記ホワイトバランス処理モードが前記ホワイトバランス設定モードと異なると判定される場合には、前記ホワイトバランス処理モードに基づいて前記ホワイトバランスベース値を取得するベース値取得部と、
     前記処理画像データの画素毎に、前記ベース値取得部によって取得された前記ホワイトバランスベース値を乗算してホワイトバランス調整画像データを取得するホワイトバランス処理部と、を備える画像処理装置。
  12.  前記ホワイトバランス設定モードは、前記ホワイトバランスゲインが予め定められているプリセットホワイトバランスモード、前記原画像データの色分布情報に基づいて当該原画像データに適用される前記ホワイトバランスゲインが決定されるオートホワイトバランスモード、及び前記原画像データとは異なる参照画像データの色分布情報に基づいて前記原画像データに適用される前記ホワイトバランスゲインが決定されるカスタムホワイトバランスモードのうちのいずれかである請求項10又は11に記載の画像処理装置。
  13.  前記処理画像データは、RAW画像データである請求項1~12のいずれか一項に記載の画像処理装置。
  14.  前記処理画像データは、無圧縮画像データである請求項1~13のいずれか一項に記載の画像処理装置。
  15.  前記処理画像データは、可逆圧縮画像データである請求項1~13のいずれか一項に記載の画像処理装置。
  16.  前記処理画像データは、非可逆圧縮画像データである請求項1~13のいずれか一項に記載の画像処理装置。
  17.  撮像素子と、
     請求項1~16のいずれか一項に記載の画像処理装置と、を備え、
     前記原画像データは前記撮像素子によって取得される撮像装置。
  18.  原画像データの画素毎にホワイトバランスゲインを取得し、
     ホワイトバランスベース値を定めて、前記原画像データの画素毎に、前記ホワイトバランスベース値に対する前記ホワイトバランスゲインの比率を示すホワイトバランス比率を取得し、
     前記原画像データの画素毎に、画素値に前記ホワイトバランス比率を乗算して処理画像データを取得する画像処理方法。
  19.  原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データと、前記ホワイトバランスベース値とを、記憶媒体から取得し、
     前記処理画像データの画素毎に、前記ホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得する画像処理方法。
  20.  原画像データの画素毎に、前記原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得し、
     前記原画像データを取得した際の前記ホワイトバランス設定モードの情報を取得し、
     前記原画像データを取得した際の前記ホワイトバランス設定モードの情報に基づいて、前記ホワイトバランスベース値を推定し、
     前記処理画像データの画素毎に、推定された前記ホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得する画像処理方法。
  21.  原画像データの画素毎に、前記原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得し、
     前記原画像データを取得した際の前記ホワイトバランス設定モードの情報を取得し、
     前記処理画像データに適用されるホワイトバランス処理モードの情報を取得し、
     前記ホワイトバランス設定モードの情報及び前記ホワイトバランス処理モードの情報に基づいて、前記ホワイトバランス処理モードが前記ホワイトバランス設定モードと同じであると判定される場合には、前記ホワイトバランス設定モードに基づいて前記ホワイトバランスベース値を取得し、前記ホワイトバランス処理モードが前記ホワイトバランス設定モードと異なると判定される場合には、前記ホワイトバランス処理モードに基づいて前記ホワイトバランスベース値を取得し、
     前記処理画像データの画素毎に、取得された前記ホワイトバランスベース値を乗算してホワイトバランス調整画像データを取得する画像処理方法。
  22.  原画像データの画素毎にホワイトバランスゲインを取得する手順と、
     ホワイトバランスベース値を定めて、前記原画像データの画素毎に、前記ホワイトバランスベース値に対する前記ホワイトバランスゲインの比率を示すホワイトバランス比率を取得する手順と、
     前記原画像データの画素毎に、画素値に前記ホワイトバランス比率を乗算して処理画像データを取得する手順と、をコンピュータに実行させるためのプログラム。
  23.  原画像データの画素毎に、ホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データと、前記ホワイトバランスベース値とを、記憶媒体から取得する手順と、
     前記処理画像データの画素毎に、前記ホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得する手順と、をコンピュータに実行させるためのプログラム。
  24.  原画像データの画素毎に、前記原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得する手順と、
     前記原画像データを取得した際の前記ホワイトバランス設定モードの情報を取得する手順と、
     前記原画像データを取得した際の前記ホワイトバランス設定モードの情報に基づいて、前記ホワイトバランスベース値を推定する手順と、
     前記処理画像データの画素毎に、推定された前記ホワイトバランスベース値を画素値に乗算してホワイトバランス調整画像データを取得する手順と、をコンピュータに実行させるためのプログラム。
  25.  原画像データの画素毎に、前記原画像データを取得した際のホワイトバランス設定モードに基づいて定められるホワイトバランスベース値に対するホワイトバランスゲインの比率を示すホワイトバランス比率を画素値に乗算して取得される処理画像データを、記憶媒体から取得する手順と、
     前記原画像データを取得した際の前記ホワイトバランス設定モードの情報を取得する手順と、
     前記処理画像データに適用されるホワイトバランス処理モードの情報を取得する手順と、
     前記ホワイトバランス設定モードの情報及び前記ホワイトバランス処理モードの情報に基づいて、前記ホワイトバランス処理モードが前記ホワイトバランス設定モードと同じであると判定される場合には、前記ホワイトバランス設定モードに基づいて前記ホワイトバランスベース値を取得し、前記ホワイトバランス処理モードが前記ホワイトバランス設定モードと異なると判定される場合には、前記ホワイトバランス処理モードに基づいて前記ホワイトバランスベース値を取得する手順と、
     前記処理画像データの画素毎に、取得された前記ホワイトバランスベース値を乗算してホワイトバランス調整画像データを取得する手順と、をコンピュータに実行させるためのプログラム。
PCT/JP2015/057275 2014-03-31 2015-03-12 画像処理装置、撮像装置、画像処理方法及びプログラム WO2015151747A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580017975.8A CN106165409B (zh) 2014-03-31 2015-03-12 图像处理装置、摄像装置、图像处理方法及程序
JP2016511496A JP6063092B2 (ja) 2014-03-31 2015-03-12 画像処理装置、撮像装置、画像処理方法及びプログラム
US15/276,364 US10021361B2 (en) 2014-03-31 2016-09-26 Image processing device, imaging device, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-071681 2014-03-31
JP2014071681 2014-03-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/276,364 Continuation US10021361B2 (en) 2014-03-31 2016-09-26 Image processing device, imaging device, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2015151747A1 true WO2015151747A1 (ja) 2015-10-08

Family

ID=54240079

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057275 WO2015151747A1 (ja) 2014-03-31 2015-03-12 画像処理装置、撮像装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US10021361B2 (ja)
JP (1) JP6063092B2 (ja)
CN (1) CN106165409B (ja)
WO (1) WO2015151747A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190289269A1 (en) * 2016-12-14 2019-09-19 Samsung Electronics Co., Ltd. Image white balance correction method and electronic device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6711275B2 (ja) * 2014-09-22 2020-06-17 ソニー株式会社 画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラム
JP6425571B2 (ja) * 2015-02-02 2018-11-21 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10070111B2 (en) * 2015-12-22 2018-09-04 Adobe Systems Incorporated Local white balance under mixed illumination using flash photography
WO2017183488A1 (ja) * 2016-04-19 2017-10-26 オリンパス株式会社 画像処理装置
CN111095913B (zh) * 2017-09-29 2021-07-06 富士胶片株式会社 图像处理装置和处理方法、摄像装置、摄像方法、存储介质
CN107835362B (zh) * 2017-10-30 2019-12-31 Oppo广东移动通信有限公司 图像存储方法、图像显示方法及电子设备
JP7147841B2 (ja) * 2018-03-30 2022-10-05 ソニーグループ株式会社 撮像装置および方法、画像処理装置および方法、並びに、撮像素子

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008109505A (ja) * 2006-10-26 2008-05-08 Canon Inc 画像処理装置、画像処理装置の制御方法、コンピュータプログラム、及び記憶媒体
JP2011071708A (ja) * 2009-09-25 2011-04-07 Nikon Corp 撮像装置、画像処理装置およびプログラム
JP2012165077A (ja) * 2011-02-03 2012-08-30 Canon Inc ホワイトバランス制御装置及びそれを用いた撮像装置、並びにホワイトバランス制御方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4439767B2 (ja) * 2001-08-09 2010-03-24 キヤノン株式会社 撮像装置およびホワイトバランスの調整方法およびその動作処理プログラム
JP3513506B2 (ja) * 2002-02-20 2004-03-31 キヤノン株式会社 ホワイトバランス補正装置およびそれを搭載した撮像装置、及びホワイトバランス補正方法
JP3793121B2 (ja) * 2002-07-04 2006-07-05 キヤノン株式会社 撮像装置及び画像信号処理方法及びプログラム及び記憶媒体
JP2005033609A (ja) * 2003-07-08 2005-02-03 Fuji Film Microdevices Co Ltd 固体撮像装置及びデジタルカメラ
JP5092565B2 (ja) 2007-06-19 2012-12-05 株式会社ニコン 撮像装置、画像処理装置およびプログラム
JP5589073B2 (ja) * 2010-05-28 2014-09-10 富士フイルム株式会社 撮像装置及びホワイトバランスゲイン算出方法
JP5665436B2 (ja) * 2010-09-02 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5848662B2 (ja) * 2012-04-04 2016-01-27 キヤノン株式会社 画像処理装置およびその制御方法
US8670166B2 (en) * 2012-04-24 2014-03-11 Foxlink Image Technology Co., Ltd. Method of automatic white balance adjustment for scanner
JP2014014044A (ja) * 2012-07-05 2014-01-23 Sony Corp 画像処理装置、画像処理方法、および、プログラム
JP2014042138A (ja) * 2012-08-22 2014-03-06 Nikon Corp 画像処理装置、コンピュータプログラム、およびデジタルカメラ
US9025047B2 (en) * 2012-12-13 2015-05-05 Samsung Electronics Co., Ltd. Photographing apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008109505A (ja) * 2006-10-26 2008-05-08 Canon Inc 画像処理装置、画像処理装置の制御方法、コンピュータプログラム、及び記憶媒体
JP2011071708A (ja) * 2009-09-25 2011-04-07 Nikon Corp 撮像装置、画像処理装置およびプログラム
JP2012165077A (ja) * 2011-02-03 2012-08-30 Canon Inc ホワイトバランス制御装置及びそれを用いた撮像装置、並びにホワイトバランス制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190289269A1 (en) * 2016-12-14 2019-09-19 Samsung Electronics Co., Ltd. Image white balance correction method and electronic device
US10771754B2 (en) * 2016-12-14 2020-09-08 Samsung Electronics Co., Ltd. Image white balance correction method and electronic device

Also Published As

Publication number Publication date
US20170013243A1 (en) 2017-01-12
CN106165409A (zh) 2016-11-23
US10021361B2 (en) 2018-07-10
JPWO2015151747A1 (ja) 2017-04-13
JP6063092B2 (ja) 2017-01-18
CN106165409B (zh) 2018-11-13

Similar Documents

Publication Publication Date Title
JP6063092B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6302555B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6063093B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US10027938B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP5683745B2 (ja) 画像表示装置及び方法
JP6272486B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6195633B2 (ja) 画像処理装置及び画像処理方法
JP5730439B2 (ja) 画像表示装置、撮影装置、画像表示システム及び方法
JP6921972B2 (ja) 画像処理装置、撮像装置、画像処理方法、撮像方法、およびプログラム
JP6911135B2 (ja) 撮像装置、撮像方法、およびプログラム
JP6580801B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
CN115705663A (zh) 图像处理方法与电子设备
JPWO2019193889A1 (ja) 画像位置合わせ補助装置、方法及びプログラム並びに撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15774177

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016511496

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase
122 Ep: pct application non-entry in european phase

Ref document number: 15774177

Country of ref document: EP

Kind code of ref document: A1