[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015156693A - Imaging apparatus and image processing apparatus - Google Patents

Imaging apparatus and image processing apparatus Download PDF

Info

Publication number
JP2015156693A
JP2015156693A JP2015075120A JP2015075120A JP2015156693A JP 2015156693 A JP2015156693 A JP 2015156693A JP 2015075120 A JP2015075120 A JP 2015075120A JP 2015075120 A JP2015075120 A JP 2015075120A JP 2015156693 A JP2015156693 A JP 2015156693A
Authority
JP
Japan
Prior art keywords
image
captured
shooting
images
time information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015075120A
Other languages
Japanese (ja)
Other versions
JP6039726B2 (en
Inventor
浩平 古谷
Kohei Furuya
浩平 古谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015075120A priority Critical patent/JP6039726B2/en
Publication of JP2015156693A publication Critical patent/JP2015156693A/en
Application granted granted Critical
Publication of JP6039726B2 publication Critical patent/JP6039726B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus which analyzes photographing time information of a plurality of images and combines the plurality of images with one another.
SOLUTION: In an imaging apparatus, an imaging device 202 photographs an image through an optical system 201 (S701), and acquires photographing time information for each photographed image (S702). When multiple exposure photographing is finished (S703), the photographing time information acquired for each of the plurality of photographed images is analyzed and a combination ratio is calculated (S705), and the plurality of photographed images are combined in accordance with the calculated combination ratio (S707).
COPYRIGHT: (C)2015,JPO&INPIT

Description

本発明は、多重露光撮影等の複数の撮影画像を重ね合わせる画像処理を行う撮像装置及び画像処理装置に関する。   The present invention relates to an imaging apparatus and an image processing apparatus that perform image processing for superimposing a plurality of captured images such as multiple exposure shooting.

多重露光撮影時に複数の撮影画像から1つの合成画像を作り出す画像処理装置として、合成画像のタグ情報に合成前の撮影画像を復元する情報を記録するものが提案されている(特許文献1参照)。また、複数の撮影画像のそれぞれの撮影時における撮影時情報を用いて各撮影画像を変換し、変換後の画像を合成する技術が提案されている(特許文献2参照)。   As an image processing apparatus that creates one composite image from a plurality of captured images at the time of multiple exposure photographing, an apparatus that records information for restoring a photographed image before composition in tag information of the composite image has been proposed (see Patent Document 1). . In addition, a technique has been proposed in which each captured image is converted using shooting time information at the time of shooting each of a plurality of shot images, and the converted images are combined (see Patent Document 2).

図8は、多重露光による合成画像における各画像の露出の影響を模式的に説明する図である。図8(a)は、同程度の露出の撮影画像で多重露光を行った場合を示しており、この場合は、各撮影画像の合成画像への影響は同程度となる。これに対し、図8(b)に示されるように、一方の撮影画像に対して露出が低い撮影画像を用いて多重露光を行うと、露出の低い撮影画像の合成画像への影響は相対的に低くなる。   FIG. 8 is a diagram schematically illustrating the influence of exposure of each image in a composite image by multiple exposure. FIG. 8A shows a case where multiple exposure is performed with a captured image having the same exposure, and in this case, the influence of each captured image on the composite image is approximately the same. On the other hand, as shown in FIG. 8B, when multiple exposure is performed on one of the captured images using a captured image with low exposure, the influence of the captured image with low exposure on the composite image is relative. It becomes low.

このように、多重露光により合成画像を生成して記録する際に、合成画像への影響は、暗く撮影したときの撮影画像で弱くなり、明るく撮影したときの撮影画像では強くなる。よって、ある撮影画像を他の撮影画像よりも暗く又は明るく撮影することで、多重露光における各撮影画像の合成比率をコントロールすることが可能となる。   As described above, when a composite image is generated and recorded by multiple exposure, the effect on the composite image is weakened in a photographed image when taken dark and strong in a photographed image taken brightly. Therefore, it is possible to control the composition ratio of each captured image in multiple exposure by capturing a certain captured image darker or brighter than other captured images.

特開2002−300372号公報JP 2002-300372 A 特開平10−271427号公報JP-A-10-271427

しかしながら、上記の従来技術においては、各撮影画像の撮影時情報を用いて各撮影画像の合成比率をコントロールすることは行われておらず、そのため、意図せずに図8(b)のような撮影が行われてしまう等の問題が生じる。   However, in the above-described prior art, the composition ratio of each captured image is not controlled using the shooting time information of each captured image, and therefore, unintentionally as shown in FIG. Problems such as shooting will occur.

複数の撮影画像を合成する場合に、各撮影画像の撮影時情報を基にしてより適切な処理を行うことができる撮像装置を提供することを目的とする。   An object of the present invention is to provide an imaging apparatus capable of performing more appropriate processing based on information at the time of photographing of each photographed image when combining a plurality of photographed images.

本発明に係る撮像装置は、被写体像を撮影する撮像手段と、前記撮像手段による撮影の際に、撮影画像毎に撮影時情報を取得する取得手段と、前記撮像手段によって得られる複数の撮影画像を多重露光する際に、撮影された前記複数の撮影画像のそれぞれについて前記取得手段により取得された撮影時情報を解析して、前記複数の撮影画像の合成比率を設定する設定手段と、前記合成比率に応じて前記複数の撮影画像を合成する合成手段と、を備えることを特徴とする。   An imaging apparatus according to the present invention includes an imaging unit that captures a subject image, an acquisition unit that acquires shooting time information for each captured image at the time of shooting by the imaging unit, and a plurality of captured images obtained by the imaging unit. Setting means for setting the composite ratio of the plurality of photographed images by analyzing the photographing time information obtained by the obtaining means for each of the plurality of photographed images taken when the multiple exposure is performed. Synthesizing means for synthesizing the plurality of captured images in accordance with the ratio.

本発明によれば、複数の撮影画像を合成する場合に、各撮影画像の撮影時情報を基にしてより適切な処理を行うので、より好ましい合成画像を得ることができる。   According to the present invention, when a plurality of captured images are combined, more appropriate processing is performed based on the shooting time information of each captured image, so that a more preferable combined image can be obtained.

多重露光撮影時において露出補正と多重露光とを行う順序を選択することによる効果を説明する図である。It is a figure explaining the effect by selecting the order which performs exposure correction and multiple exposure at the time of multiple exposure photography. 第1実施形態に係る画像処理装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to a first embodiment. 第1実施形態に係る別の画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of another image processing apparatus which concerns on 1st Embodiment. 図2の画像処理装置で実行される、多重露光撮影において露出補正を行う場合の流れを示すフローチャートである。3 is a flowchart illustrating a flow when exposure correction is performed in multiple exposure shooting, which is executed by the image processing apparatus of FIG. 2. 図4のステップS404で使用される、撮影時情報と合成比率の関係の例を示す図である。FIG. 5 is a diagram illustrating an example of a relationship between shooting time information and a composition ratio used in step S404 in FIG. 4. 第2実施形態に係る画像処理装置で実行される、合成する複数の撮影画像の合成比率の変更方法を模式的に示す図である。It is a figure which shows typically the change method of the synthetic | combination ratio of the some picked-up image performed with the image processing apparatus which concerns on 2nd Embodiment. 第3実施形態に係る画像処理装置で実行される、現像パラメータの合成処理のフローチャートである。14 is a flowchart of development parameter synthesis processing executed by the image processing apparatus according to the third embodiment. 多重露光による合成画像における各画像の露出の影響を模式的に説明する図である。It is a figure which illustrates typically the influence of exposure of each image in the composite image by multiple exposure.

以下、本発明の実施形態について添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<第1実施形態>
第1実施形態では、多重露光撮影の際に複数の撮影画像のそれぞれの撮影時情報を用いて露出補正方法を切り替える画像処理装置について説明する。図1は、多重露光撮影時において露出補正と多重露光(撮影画像の合成)とを行う順序を選択することによる効果を説明する図である。
<First Embodiment>
In the first embodiment, an image processing apparatus that switches an exposure correction method using information at the time of shooting of a plurality of shot images at the time of multiple exposure shooting will be described. FIG. 1 is a diagram for explaining the effect of selecting the order of performing exposure correction and multiple exposure (compositing of captured images) during multiple exposure shooting.

ここでは、2回の撮影によって露出の異なる撮影画像100と撮影画像101が得られ、これらの撮影画像100,101に対して露出補正と多重露光を行う場合を考える。多重露光撮影において撮影画像の露出補正を行う方法として、図1(a)のように、多重露光を行う前に露出不足な撮影画像に対して露出補正を行う方法と、図1の(b)のように、多重露光を行った後に露出補正を行う方法とが考えられる。   Here, a case is considered where a photographic image 100 and a photographic image 101 having different exposures are obtained by two photographic operations, and exposure correction and multiple exposure are performed on these photographic images 100 and 101. As a method for correcting exposure of a captured image in multiple exposure shooting, as shown in FIG. 1A, a method of performing exposure correction on a captured image that is underexposed before performing multiple exposure, and FIG. As described above, a method of performing exposure correction after performing multiple exposure is conceivable.

図1(a)のように、一度、撮影画像101に露出補正を行うことで露出補正画像102を作り、その後に多重露光を行うことで、撮影画像100と撮影画像101が同程度の割合で合成された合成画像103が得られる。一方、図1(b)のように、撮影画像100,101から先に多重露光によって合成画像104を得て、その後に露出補正を行った場合には、撮影画像100に対して撮影画像101の合成比率の低い露出補正画像105が得られる。   As shown in FIG. 1A, the exposure correction image 102 is formed once by performing exposure correction on the captured image 101, and then the multiple exposure is performed thereafter, so that the captured image 100 and the captured image 101 are at a similar rate. A combined composite image 103 is obtained. On the other hand, as shown in FIG. 1B, when the composite image 104 is obtained by the multiple exposure first from the captured images 100 and 101 and the exposure correction is performed thereafter, the captured image 101 is compared with the captured image 100. An exposure corrected image 105 having a low composition ratio is obtained.

よって、撮影画像101の合成比率が低くなることが好ましい場合は、図1(b)のように、多重露光を行ってから露出補正を行うことが望ましいことがわかる。一方、撮影画像100と撮影画像101の合成比率が同程度になることが好ましい場合には、図1(a)のように、露出補正を行ってから多重露光を行うことが望ましいことがわかる。そこで、これら処理の切り替えの判断を、撮影画像100,101のそれぞれの撮影時情報を用いて行う。その詳細について、図2〜図4を参照して次に説明する。   Therefore, when it is preferable that the composite ratio of the photographed image 101 is low, it is desirable to perform exposure correction after performing multiple exposure as shown in FIG. On the other hand, when it is preferable that the composite ratio of the photographed image 100 and the photographed image 101 is approximately the same, as shown in FIG. 1A, it is desirable to perform multiple exposure after performing exposure correction. Therefore, the determination of switching between these processes is performed using the shooting time information of each of the shot images 100 and 101. The details will be described next with reference to FIGS.

図2は、第1実施形態に係る画像処理装置の概略構成を示すブロック図である。画像処理装置300は、デジタルカメラやデジタルビデオカメラ等の、被写体を撮影して画像データを得る撮像装置を含む。   FIG. 2 is a block diagram illustrating a schematic configuration of the image processing apparatus according to the first embodiment. The image processing apparatus 300 includes an imaging apparatus such as a digital camera or a digital video camera that captures a subject and obtains image data.

図2において、光学系201は、レンズやシャッター、絞りから構成されており、被写体からの光を適切な量とタイミングで撮像素子202に結像させる。撮像素子202は、光学系201を通って結像した光を画像に変換する。CPU203は、操作部208からの入力信号やプログラムに従って、各種の演算や画像処理装置200を構成する各部分の制御により、画像処理装置200全体の動作制御を行う。   In FIG. 2, an optical system 201 is composed of a lens, a shutter, and an aperture, and forms an image of light from a subject on the image sensor 202 with an appropriate amount and timing. The image sensor 202 converts light imaged through the optical system 201 into an image. The CPU 203 controls the operation of the entire image processing apparatus 200 by performing various calculations and controlling each part of the image processing apparatus 200 in accordance with an input signal from the operation unit 208 and a program.

一次記憶装置204は、例えばRAMであり、一時的なデータを記憶し、CPU203のワークエリアとしても使用される。二次記憶装置205は、例えばROMであり、画像処理装置200を制御するためのプログラム(ファームウェア)や各種の設定情報を記憶する。記憶媒体206は、例えばHDDやDVD−RAM等であり、撮影した画像データ等を記憶する。記憶媒体206は、画像処理装置200の本体に対して着脱可能となっており、パーソナルコンピュータ(PC)等に装着(接続)して、データを読み出すことも可能である。画像処理装置200では、CPU203が、記憶媒体206へのアクセス機能を有し、記憶媒体206へのデータの読み出し/書き込みを行う。   The primary storage device 204 is, for example, a RAM, stores temporary data, and is also used as a work area for the CPU 203. The secondary storage device 205 is a ROM, for example, and stores a program (firmware) for controlling the image processing device 200 and various setting information. The storage medium 206 is, for example, an HDD or a DVD-RAM, and stores captured image data and the like. The storage medium 206 can be attached to and detached from the main body of the image processing apparatus 200, and can be loaded (connected) to a personal computer (PC) or the like to read data. In the image processing apparatus 200, the CPU 203 has a function of accessing the storage medium 206 and reads / writes data to / from the storage medium 206.

表示部207は、撮影時のビューファインダー画像の表示や撮影した画像の表示、対話的な操作のための文字表示等を行う。操作部208は、使用者の操作を受け付けるため手段として、例えば、ボタンやレバー、タッチパネル等を備える。通信装置209は、画像処理装置200と外部装置とを接続し、制御コマンドやデータの送受信を可能にする。接続を確立してデータ通信を実行するためのプロトコルとしては、例えばPTP(Picture Transfer Protocol)が用いられる。   A display unit 207 performs display of a viewfinder image at the time of shooting, display of a shot image, character display for interactive operation, and the like. The operation unit 208 includes, for example, buttons, levers, a touch panel, and the like as means for receiving user operations. A communication device 209 connects the image processing device 200 and an external device, and enables transmission / reception of control commands and data. For example, PTP (Picture Transfer Protocol) is used as a protocol for establishing a connection and executing data communication.

これに限られず、通信装置209は、例えばUSB(Universal Serial Bus)ケーブル等の有線接続によって通信を行ってもよいし、無線LAN等の無線接続によって通信を行ってもよい。更に、外部装置との直接接続によって通信を行ってもよいし、サーバを経由して外部装置と接続する方法やインターネット等のネットワークを介して外部装置と接続する方法を用いてもよい。   The communication device 209 is not limited to this, and may perform communication through a wired connection such as a USB (Universal Serial Bus) cable, or may perform communication through a wireless connection such as a wireless LAN. Further, communication may be performed by direct connection with an external device, or a method of connecting to an external device via a server or a method of connecting to an external device via a network such as the Internet may be used.

図3は、第1実施形態に係る別の画像処理装置の概略構成を示すブロック図である。画像処理装置300において、表示部301は、画像処理前の画像の表示や画像処理後の画像の表示、対話的な操作のための文字表示等を行う。操作部302は、使用者の操作を受け付けるためのキーボードやポインティング装置等を備える。CPU303は、入力信号やプログラムに従って各種の演算や画像処理装置300を構成する各部分の制御を行うことにより、画像処理装置300全体の動作制御を行う。一次記憶装置304は、例えばRAMであり、一時的なデータを記憶し、CPU303のワークエリアとしても用いられる。二次記憶装置305は、例えばROMであり、画像処理を行うためのプログラムや各種の設定情報を記憶する。通信装置306は、外部装置と接続し制御コマンドやデータの送受信を行う。通信装置306は図2を参照して説明した通信装置209と同じ形態を選択することもできる。   FIG. 3 is a block diagram illustrating a schematic configuration of another image processing apparatus according to the first embodiment. In the image processing apparatus 300, the display unit 301 performs display of an image before image processing, display of an image after image processing, character display for interactive operation, and the like. The operation unit 302 includes a keyboard, a pointing device, and the like for receiving user operations. The CPU 303 controls the operation of the entire image processing apparatus 300 by performing various operations and controlling each part of the image processing apparatus 300 according to input signals and programs. The primary storage device 304 is, for example, a RAM, stores temporary data, and is also used as a work area for the CPU 303. The secondary storage device 305 is a ROM, for example, and stores a program for performing image processing and various setting information. The communication device 306 is connected to an external device and transmits / receives control commands and data. The communication device 306 can select the same form as the communication device 209 described with reference to FIG.

図4は、画像処理装置200で実行される、多重露光撮影において露出補正を行う場合の流れを示すフローチャートであり、このフローチャートによる処理では撮影時情報を用いて露出補正方法を切り替える。図4では、画像処理装置200による撮影画像に対して露出補正方法を切り替える場合について説明するが、画像処理装置300でも、撮影時情報を有する画像データに対して同様の処理を行うことができる。したがって、被写体像の撮影時に撮影時情報を取得し、撮影画像に撮影時情報を付加して画像データとして保存する撮像装置により撮影された画像データであれば、画像処理装置300で図4のフローチャートに示される処理を行うことができる。   FIG. 4 is a flowchart showing the flow when exposure correction is performed in multiple exposure shooting, which is executed by the image processing apparatus 200. In the processing according to this flowchart, the exposure correction method is switched using the shooting time information. In FIG. 4, the case where the exposure correction method is switched for a captured image by the image processing apparatus 200 will be described. However, the image processing apparatus 300 can perform the same processing on image data having shooting time information. Therefore, the image processing apparatus 300 can obtain the shooting time information when shooting the subject image, add the shooting time information to the shot image, and save the image data as image data. Can be performed.

最初に、光学系201を通して撮像素子202により画像の撮影が行われると(ステップS401)、CPU203は、撮影画像毎に撮影時情報を取得し(ステップS402)、多重露光撮影を終了するか否かを判定する(ステップS403)。多重露光撮影を継続する場合(S403で“NO”)、処理はステップS401に戻され、多重露光撮影を終了する場合(S403で“YES”)、処理はステップS404へ進められる。   First, when an image is captured by the image sensor 202 through the optical system 201 (step S401), the CPU 203 acquires shooting time information for each captured image (step S402) and determines whether or not to end the multiple exposure shooting. Is determined (step S403). If multiple exposure shooting is to be continued (“NO” in S403), the process returns to step S401. If multiple exposure shooting is to be ended (“YES” in S403), the process proceeds to step S404.

ステップS404において、CPU203は、露出補正方法を選択する。これは、前述した図8(a),(b)のような露出補正と多重露光(複数の撮影画像の重ね合わせ)の順序を選択するものである。ここで、図5を参照して露出補正と多重露光の順序の選択方法の一例を説明する。図5は、ステップS404で使用される、撮影時情報と合成比率との関係を示す図である。   In step S404, the CPU 203 selects an exposure correction method. This is to select the order of exposure correction and multiple exposure (superposition of a plurality of photographed images) as shown in FIGS. 8 (a) and 8 (b). Here, an example of a method for selecting the order of exposure correction and multiple exposure will be described with reference to FIG. FIG. 5 is a diagram showing the relationship between the shooting time information and the composition ratio used in step S404.

図5(a)は、撮影モードがマニュアル露出の場合における、絞り数値、シャッター速度、ISO感度、撮影画像の明るさから露出補正と多重露光の順序の選択を行う例を示す図である。図5(a)の上段に記載のように、絞り数値、シャッター速度、ISO感度といったユーザによる設定によって、ある撮影画像の明るさが他の撮影画像の明るさに対して暗く撮影された場合、その撮影画像の合成比率を低くすることが望ましい。よって、この場合には、CPU203は、ステップS404からステップS405の多重露光へ進ませ、更にステップS406の露出補正へと処理を進ませるルートを選択して処理を実行し、その後、処理を終了させる。   FIG. 5A is a diagram illustrating an example in which the order of exposure correction and multiple exposure is selected based on the aperture value, shutter speed, ISO sensitivity, and brightness of a captured image when the shooting mode is manual exposure. As described in the upper part of FIG. 5A, when the brightness of a certain captured image is captured darkly with respect to the brightness of another captured image by the user's settings such as aperture value, shutter speed, and ISO sensitivity, It is desirable to reduce the composite ratio of the captured images. Therefore, in this case, the CPU 203 proceeds from the step S404 to the multiple exposure in the step S405, further selects a route for proceeding to the exposure correction in the step S406, executes the process, and thereafter ends the process. .

図5(a)の下段に記載のように、絞り数値、シャッター速度、ISO感度といったユーザによる設定によって、ある撮影画像の明るさが他の撮影画像の明るさに対して明るく撮影された場合、その撮影画像の合成比率を高くすることが望ましい。よって、この場合も、CPU203は、ステップS404からステップS405の多重露光へ進ませ、更にステップS406の露出補正へと処理を進ませるルートを選択して処理を実行し、その後、処理を終了させる。   As described in the lower part of FIG. 5A, when the brightness of a certain captured image is photographed brighter than the brightness of another captured image by the user's settings such as aperture value, shutter speed, and ISO sensitivity, It is desirable to increase the composition ratio of the captured images. Therefore, also in this case, the CPU 203 proceeds from the step S404 to the multiple exposure in the step S405, selects the route for proceeding to the exposure correction in the step S406, executes the process, and thereafter ends the process.

これに対して、マニュアル露出の場合に、ユーザによる設定で暗く又は明るく撮影されたものではないが、ある撮影画像の明るさが他の撮影画像の明るさに対して暗い又は明るい場合、その撮影画像の合成比率を他の撮影画像と同程度にすることが望ましい。よって、このような場合には、CPU203は、ステップS404からステップS407の露出補正へ進ませ、更にステップS408の多重露光へと処理を進ませるルートを選択して処理を実行し、その後、処理を終了させる。   On the other hand, in the case of manual exposure, if the brightness of a certain captured image is dark or bright relative to the brightness of another captured image, the image is not captured dark or bright as set by the user. It is desirable to set the image composition ratio to the same level as other captured images. Therefore, in such a case, the CPU 203 proceeds from step S404 to exposure correction in step S407, further selects a route for proceeding to multiple exposure in step S408, executes the process, and then performs the process. Terminate.

図5(b)は、撮影モードを自動露出とした場合における、ISO感度、露出補正、撮影画像の明るさから露出補正と多重露光の順序の選択を行う例を示す図である。図5(b)の上段に記載の通り、ISO感度、露出補正といったユーザによる設定によりある撮影画像の明るさが他の撮影画像の明るさに対して暗く撮影された場合、その撮影画像の合成比率を低くすることが望ましい。よって、この場合には、CPU203は、ステップS404からステップS405の多重露光へ進ませ、更にステップS406の露出補正へと処理を進ませるルートを選択して処理を実行し、その後、処理を終了させる。   FIG. 5B is a diagram illustrating an example in which the order of exposure correction and multiple exposure is selected based on ISO sensitivity, exposure correction, and brightness of a captured image when the shooting mode is set to automatic exposure. As described in the upper part of FIG. 5B, when the brightness of a shot image is dark with respect to the brightness of another shot image by the user settings such as ISO sensitivity and exposure correction, the shot image is synthesized. It is desirable to reduce the ratio. Therefore, in this case, the CPU 203 proceeds from the step S404 to the multiple exposure in the step S405, further selects a route for proceeding to the exposure correction in the step S406, executes the process, and thereafter ends the process. .

図5(b)の下段に記載の通り、ISO感度、露出補正といったユーザによる設定によりある撮影画像の明るさが他の撮影画像の明るさに対して明るく撮影された場合、その撮影画像の合成比率を高くすることが望ましい。よって、この場合においても、CPU203は、ステップS404からステップS405の多重露光へ進ませ、更にステップS406の露出補正へと処理を進ませるルートを選択して処理を実行し、その後、処理を終了させる。   As described in the lower part of FIG. 5B, when the brightness of a shot image is shot brighter than the brightness of other shot images by user settings such as ISO sensitivity and exposure correction, the shot image is synthesized. It is desirable to increase the ratio. Therefore, in this case as well, the CPU 203 advances the multiple exposure from step S404 to step S405, selects the route that advances the process to exposure correction in step S406, executes the process, and then ends the process. .

これに対して、自動露出の場合に、ユーザによる設定で暗く又は明るく撮影されたものではないが、ある撮影画像の明るさが他の撮影画像の明るさに対して暗い又は明るい場合には、その撮影画像の合成比率を他の撮影画像と同程度にすることが望ましい。よって、このような場合には、CPU203は、ステップS404からステップS407の露出補正へ進ませ、更にステップS408の多重露光へと処理を進ませるルートを選択して処理を実行し、その後、処理を終了させる。   On the other hand, in the case of automatic exposure, it was not taken dark or bright by the setting by the user, but when the brightness of one shot image is dark or bright relative to the brightness of another shot image, It is desirable that the composite ratio of the photographed images be comparable to that of other photographed images. Therefore, in such a case, the CPU 203 proceeds from step S404 to exposure correction in step S407, further selects a route for proceeding to multiple exposure in step S408, executes the process, and then performs the process. Terminate.

上述した図5(a),(b)に示される判定方法を用いる他に、露出計又はこれと同様の機器を備え、そこから得られる測光情報を用いて露出補正と多重露光の順序の選択を行うことも可能である。図5(c)は、測光情報から露出補正と多重露光の順序の選択を行う例を示す図である。   In addition to using the determination method shown in FIGS. 5A and 5B described above, an exposure meter or similar device is provided, and the order of exposure correction and multiple exposure is selected using photometric information obtained therefrom. It is also possible to perform. FIG. 5C is a diagram showing an example in which the order of exposure correction and multiple exposure is selected from photometric information.

図5(c)の上段に示されるように、ある測光点の測光値(測光情報)が明るく、その測光点に相当する撮影画像の位置における明るさ(測光点の明度)が暗い場合、その撮影画像の合成比率を低くすることが望ましい。また、図5(c)の下段に示されるように、ある測光点の測光値が暗く、その測光点に相当する画像の位置における明るさが明るい場合は、その撮影画像の合成比率を高くすることが望ましい。これらのいずれの場合でも、CPU203は、ステップS404からステップS405の多重露光へ進ませ、更にステップS406の露出補正へと処理を進ませるルートを選択して処理を実行し、その後、処理を終了させる。   As shown in the upper part of FIG. 5C, when the photometric value (photometric information) at a certain photometric point is bright and the brightness (lightness of the photometric point) at the position of the photographed image corresponding to the photometric point is dark, It is desirable to reduce the composite ratio of the captured image. Further, as shown in the lower part of FIG. 5C, when the photometric value at a certain photometric point is dark and the brightness at the position of the image corresponding to the photometric point is bright, the composite ratio of the photographed image is increased. It is desirable. In any of these cases, the CPU 203 proceeds from the step S404 to the multiple exposure in the step S405, further selects the route for proceeding to the exposure correction in the step S406, executes the process, and thereafter ends the process. .

これに対して、図5(c)の上段及び下段のいずれにも該当しない場合には、ある撮影画像の合成比率を他の撮影画像と同程度にすることが望ましい。よって、この場合には、CPU203は、ステップS404からステップS407の露出補正へ進ませ、更にステップS408の多重露光へと処理を進ませるルートを選択して処理を実行し、その後、処理を終了させる。   On the other hand, when it does not correspond to either the upper stage or the lower stage in FIG. Therefore, in this case, the CPU 203 proceeds from step S404 to exposure correction in step S407, further selects a route for proceeding to multiple exposure in step S408, executes the process, and then ends the process. .

なお、撮影時情報の解析においては、図5で挙げている複数の要素の全てを考慮対象とする必要はなく、それら複数の要素の一部のみを使用して解析に用いてもよい。また、図5で挙げている複数の要素の他にも、ユーザによる別のマニュアル操作が含まれていた場合には、図4のステップS404からステップS405に進むように構成することも可能である。   Note that in the analysis of the shooting time information, it is not necessary to consider all of the plurality of elements listed in FIG. 5, and only a part of the plurality of elements may be used for the analysis. Further, in addition to the plurality of elements shown in FIG. 5, when another manual operation by the user is included, it is possible to proceed from step S <b> 404 to step S <b> 405 in FIG. 4. .

以上の説明の通り、第1実施形態によれば、多重露光撮影において、撮影時情報を解析して露出補正方法を切り替える。これにより、より好ましい合成画像、すなわち、ユーザの撮影意図を反映した合成画像を得ることができるようになる。   As described above, according to the first embodiment, in the multiple exposure shooting, the exposure correction method is switched by analyzing the shooting information. As a result, a more preferable composite image, that is, a composite image reflecting the user's intention to shoot can be obtained.

<第2の実施形態>
第2実施形態では、多重露光撮影の際に、合成する複数の撮影画像の合成比率を各撮影画像の撮影時情報を用いて変更する画像処理装置について説明する。第2実施形態に係る画像処理装置は、第1実施形態に係る画像処理装置と比べると、同様のハードウェア構成を有するが、CPU203が実行するプログラムに違いがあるだけであるので、ここでは、画像処理装置のハードウェア構成についての説明を省略する。
<Second Embodiment>
In the second embodiment, an image processing apparatus will be described that changes the composition ratio of a plurality of photographed images to be composited using information at the time of photographing of each photographed image during multiple exposure photography. The image processing apparatus according to the second embodiment has the same hardware configuration as the image processing apparatus according to the first embodiment, but only the program executed by the CPU 203 is different. A description of the hardware configuration of the image processing apparatus is omitted.

第2実施形態では、具体的には、CPU203は、撮影時情報から複数の撮影画像が時間的に連続して撮影されたものであると判断した場合に、一部の撮影画像の合成比率を他の撮影画像よりも高くする。また、第2実施形態では、CPU203は、撮影時情報から複数の撮影画像の中に顔を含むものがあると判断した場合に、顔を含まない撮影画像よりも顔を含む撮影画像の合成比率が高くする。これらについて、図6を参照して、詳細に説明する。   In the second embodiment, specifically, when the CPU 203 determines that a plurality of photographed images are photographed continuously in time from the photographing time information, the composite ratio of some photographed images is set. Make it higher than other captured images. In the second embodiment, when the CPU 203 determines from the shooting information that a plurality of captured images include a face, the composite ratio of the captured image including the face rather than the captured image not including the face. Be high. These will be described in detail with reference to FIG.

図6は、第2実施形態に係る画像処理装置で実行される、合成する複数の撮影画像の合成比率の変更方法を模式的に示す図である。図6(a)は、移動する物体を同じ位置から連続撮影(連写)した複数の類似した撮影画像を示している。この場合に、各撮影画像に対して同じ合成比率で多重露光を行うと、図6(b)に示される合成画像が得られる。このような多重露光撮影において、例えば、最初の撮影画像の合成比率を高くする、又は、最後の撮影画像の合成比率を高くする、或いは、最初と最後の撮影画像の合成比率を高くする等の表現手法が考えられる。   FIG. 6 is a diagram schematically illustrating a method for changing a composition ratio of a plurality of captured images to be synthesized, which is executed by the image processing apparatus according to the second embodiment. FIG. 6A shows a plurality of similar captured images obtained by continuously capturing (continuous shooting) a moving object from the same position. In this case, if multiple exposure is performed on each captured image at the same composition ratio, a composite image shown in FIG. 6B is obtained. In such multiple exposure shooting, for example, the composite ratio of the first captured image is increased, the composite ratio of the last captured image is increased, or the composite ratio of the first and last captured images is increased. An expression method can be considered.

図6(c)は、最後の撮影画像の合成比率を高くするという手法を用いた場合に得られる合成画像を示しており、図6(b)の合成画像とは大きく違った印象を与える合成画像が得られることがわかる。このことから、撮影時情報を利用することにより、撮影シーンを判別して、例えば撮影時情報から連写モードであると判定された場合には特定の撮影画像の合成比率を高くするといった処理を行うことができることがわかる。   FIG. 6C shows a composite image obtained when a method of increasing the composite ratio of the last photographed image is used. The composite image gives an impression greatly different from the composite image of FIG. 6B. It can be seen that an image is obtained. From this, by using the shooting time information, the shooting scene is determined. For example, when it is determined from the shooting time information that the continuous shooting mode is set, a process of increasing the composition ratio of a specific shot image is performed. You can see that it can be done.

そこで、次に、図6(d)に示される、顔のあるシーンと顔のないシーンの各撮影画像の多重露光による画像合成を考える。この場合、各撮影画像の合成比率を同じにして多重露光を行うと、図6(e)に示されるような合成画像が得られる。しかしながら、このような場合、主要被写体は顔である場合が多く、顔のあるシーンの合成比率を高くして、図6(f)に示されるような合成画像を生成させることが好ましい。   Then, next, consider image synthesis by multiple exposure of each shot image of a scene with a face and a scene without a face, as shown in FIG. In this case, when multiple exposure is performed with the same composition ratio of the captured images, a composite image as shown in FIG. 6E is obtained. However, in such a case, the main subject is often a face, and it is preferable to generate a composite image as shown in FIG. 6F by increasing the composition ratio of a scene with a face.

そこで、撮影時情報から顔情報を抽出してシーン判定を行い、ある撮影画像において顔が検出された場合には、顔が検出されていない撮影画像に対して顔が検出された撮影画像の合成比率が高くなるように処理する。なお、顔の大きさ、位置等を考慮して合成比率を変更する等の処理を行うことも可能である。例えば、顔が大きな撮影画像、顔がセンターにある撮影画像では、その合成比率を高める等する処理である。   Therefore, the face information is extracted from the shooting time information and scene determination is performed. When a face is detected in a shot image, the shot image in which the face is detected is combined with the shot image in which no face is detected. Process to increase the ratio. It is also possible to perform processing such as changing the composition ratio in consideration of the size, position, etc. of the face. For example, for a photographed image with a large face and a photographed image with a face in the center, this is a process of increasing the composition ratio.

このようにして、多重露光撮影において、合成する複数の撮影画像の合成比率を各撮影画像の撮影時情報を用いて変更することで、より好ましい画像を得ることができる。   In this way, in multiple exposure shooting, a more preferable image can be obtained by changing the combination ratio of a plurality of shot images to be combined using the shooting time information of each shot image.

<第3実施形態>
第3実施形態では、多重露光撮影の際に、合成する複数の撮影画像のそれぞれの撮影時情報を用いて、現像に用いるパラメータの合成を行う画像処理装置について説明する。第3実施形態に係る画像処理装置は、第1実施形態に係る画像処理装置と比べると、同様のハードウェア構成を有するが、CPU203が実行するプログラムに違いがあるだけであるので、ここでは、画像処理装置のハードウェア構成についての説明を省略する。
<Third Embodiment>
In the third embodiment, an image processing apparatus that combines parameters used for development using shooting time information of a plurality of shot images to be combined at the time of multiple exposure shooting will be described. The image processing apparatus according to the third embodiment has the same hardware configuration as the image processing apparatus according to the first embodiment, but only the program executed by the CPU 203 is different. A description of the hardware configuration of the image processing apparatus is omitted.

第3実施形態に係る画像処理装置では、多重露光によって合成画像を得るに際して、複数回の撮影により生成された複数のRAW画像データを合成して合成RAW画像データを作成し、作成した合成RAW画像データを現像する。その際、ホワイトバランス設定値や色変換テーブル等の現像に用いるパラメータ(現像パラメータ)として、例えば1回目の撮影の撮影時情報から得られた現像パラメータのみを用いると、1回目の撮影の撮影画像にのみ適した現像パラメータを用いることになる。しかし、例えば2回目以降の撮影に主要被写体が含まれており、1回目の撮影の合成比率が低くなるように撮影された場合、このような現像パラメータを用いて合成RAW画像データの現像を行うのは好ましくない。そこで、第3実施形態では、複数回の撮影で得られる各撮影時情報を用いて各RAW画像データの現像に用いられるパラメータを合成し、合成RAW画像データの現像に用いる合成現像パラメータを生成させる。   In the image processing apparatus according to the third embodiment, when a composite image is obtained by multiple exposure, a plurality of RAW image data generated by a plurality of shootings are combined to generate combined RAW image data, and the generated combined RAW image Develop data. At this time, if only development parameters obtained from the shooting time information of the first shooting are used as parameters (development parameters) used for development such as the white balance setting value and the color conversion table, the shot image of the first shooting is used. Development parameters that are suitable only for the above are used. However, for example, when the main subject is included in the second and subsequent shooting and the shooting is performed so that the combination ratio of the first shooting is low, the development of the combined RAW image data is performed using such development parameters. Is not preferred. Therefore, in the third embodiment, parameters used for developing each RAW image data are synthesized using each shooting time information obtained by a plurality of times of shooting, and a composite development parameter used for developing the synthesized RAW image data is generated. .

図7は、第3実施形態に係る画像処理装置で実行される、現像パラメータの合成処理のフローチャートである。最初に、光学系201を通して撮像素子202に結像された画像の撮影が行われる(ステップS701)。次に、CPU203は、撮影時情報を取得し(ステップS702)、多重露光撮影が終了したか否かを判定する(ステップS703)。   FIG. 7 is a flowchart of a development parameter composition process executed by the image processing apparatus according to the third embodiment. First, an image formed on the image sensor 202 through the optical system 201 is captured (step S701). Next, the CPU 203 acquires shooting time information (step S702), and determines whether or not the multiple exposure shooting has been completed (step S703).

多重露光撮影を継続する場合(S703で“NO”)、処理はステップS701に戻され、多重露光撮影を終了する場合(S703で“YES”)、処理はステップS704に進められる。ステップS704では、CPU203は、複数回の撮影によって得られた複数のRAW画像データの合成を行うことにより合成RAW画像データを生成させる。その後、CPU203は、複数回の撮影における複数の撮影時情報から現像パラメータの合成比率を算出し(ステップS705)、算出した合成比率を用いてパラメータ合成を行う(ステップS706)。   If multiple exposure shooting is to be continued (“NO” in S703), the process returns to step S701. If multiple exposure shooting is to be ended (“YES” in S703), the process proceeds to step S704. In step S <b> 704, the CPU 203 generates combined RAW image data by combining a plurality of RAW image data obtained by a plurality of shootings. Thereafter, the CPU 203 calculates a development parameter composition ratio from a plurality of pieces of shooting time information in a plurality of photographing operations (step S705), and performs parameter composition using the calculated composition ratio (step S706).

ステップS705における合成比率の算出は、第1実施形態で説明したように図5に示される撮影時情報を解析して決定することが可能である。例えば、ユーザの設定により、他の撮影画像の明るさに対して暗く撮影された撮影画像に対して、その撮影画像に適した現像パラメータの合成比率を、他の撮影画像に適した現像パラメータの合成比率よりも低くする等の方法を採ることができる。これにより、ステップS706において、CPU203は、より合成比率の高い撮影画像に適した現像パラメータの比率を高くした現像パラメータの合成を行い、合成現像パラメータを得る。   The calculation of the composition ratio in step S705 can be determined by analyzing the shooting time information shown in FIG. 5 as described in the first embodiment. For example, the composite ratio of the development parameter suitable for the captured image is set to the development parameter suitable for the other captured image with respect to the captured image captured dark with respect to the brightness of the other captured image. A method such as lowering the synthesis ratio can be employed. As a result, in step S706, the CPU 203 synthesizes development parameters with a higher development parameter ratio suitable for a captured image having a higher synthesis ratio to obtain a composite development parameter.

CPU203は、複数回の撮影により生成された複数のRAW画像データを合成した合成RAW画像データに対し、ステップS706で合成したより好ましい合成現像パラメータを用いて現像を行う(ステップS707)。これにより、より好ましい画像を得ることができる。   The CPU 203 develops the combined RAW image data obtained by combining the plurality of RAW image data generated by the plurality of shootings using the more preferable combined development parameter combined in Step S706 (Step S707). Thereby, a more preferable image can be obtained.

<その他の実施形態>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
<Other embodiments>
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

例えば、撮影時情報は、上述した絞り数値等(図5参照)や撮影画像内の顔の有無等(図6参照)、色変換テーブル設定値等(第3実施形態)に限られない。他の撮影時情報としては、サムネイル情報や露光時間、調光補正、レンズ情報、被写体までの距離、フラッシュ発光の状態、カスタム設定情報等を用いることができる。   For example, the shooting time information is not limited to the above-described aperture value (see FIG. 5), the presence / absence of a face in the shot image (see FIG. 6), the color conversion table setting value, etc. (third embodiment). As other shooting information, thumbnail information, exposure time, light adjustment correction, lens information, distance to the subject, flash emission state, custom setting information, and the like can be used.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介して画像処理装置に供給し、その画像処理装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to the image processing apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the image processing apparatus reads the program. It is a process to be executed.

100,101 撮影画像
103,104 合成画像
105 露出補正画像
201 光学系
202 撮像素子
203 CPU
100, 101 Captured image 103, 104 Composite image 105 Exposure correction image 201 Optical system 202 Image sensor 203 CPU

Claims (6)

被写体像を撮影する撮像手段と、
前記撮像手段による撮影の際に、撮影画像毎に撮影時情報を取得する取得手段と、
前記撮像手段によって得られる複数の撮影画像を多重露光する際に、撮影された前記複数の撮影画像のそれぞれについて前記取得手段により取得された撮影時情報を解析して、前記複数の撮影画像の合成比率を設定する設定手段と、
前記合成比率に応じて前記複数の撮影画像を合成する合成手段と、を備えることを特徴とする撮像装置。
Imaging means for capturing a subject image;
An acquisition unit that acquires shooting time information for each captured image at the time of shooting by the imaging unit;
When multiple exposure of a plurality of captured images obtained by the imaging unit is performed, the shooting time information acquired by the acquisition unit is analyzed for each of the plurality of captured images captured, and the plurality of captured images are synthesized. Setting means for setting the ratio;
An image pickup apparatus comprising: a combining unit that combines the plurality of captured images according to the combining ratio.
前記設定手段は、前記撮影時情報から前記複数の撮影画像が類似したシーンを連続して撮影したものであると判断した場合に、前記複数の撮影画像の中の一部の撮影画像の合成比率を他の撮影画像よりも高くすることを特徴とする請求項1に記載の撮像装置。   When the setting unit determines from the shooting time information that the scenes in which the plurality of captured images are similar are continuously captured, a combination ratio of a part of the captured images in the plurality of captured images The image pickup apparatus according to claim 1, wherein the image pickup device is set higher than other photographed images. 前記一部の撮影画像は、前記連続した撮影の最初または最後の撮影画像であることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the part of the captured images is a first or last captured image of the continuous shooting. 前記設定手段は、前記撮影時情報から前記複数の撮影画像の中に顔を含むものがあると判断した場合に、顔を含まない撮影画像よりも顔を含む撮影画像の合成比率を高くすることを特徴とする請求項1に記載の撮像装置。   The setting means, when judging from the shooting time information that there is an image including a face in the plurality of imaged images, increases the composition ratio of the imaged image including the face than the image captured without the face. The imaging apparatus according to claim 1. 撮影時情報には、顔の有無、顔の位置、顔の大きさ、色変換テーブル設定値、ホワイトバランス設定値、サムネイル情報、露光時間、絞り数値、撮影モード、ISO感度、シャッター速度、調光補正、露出補正、レンズ情報、被写体までの距離、フラッシュ発光の状態、測光情報、カスタム設定情報、のうち少なくとも一つが含まれることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   The shooting information includes presence / absence of face, face position, face size, color conversion table setting value, white balance setting value, thumbnail information, exposure time, aperture value, shooting mode, ISO sensitivity, shutter speed, and light control. 5. The apparatus according to claim 1, wherein at least one of correction, exposure correction, lens information, distance to a subject, flash emission state, photometry information, and custom setting information is included. Imaging device. 被写体像の撮影時に撮影画像毎に撮影時情報が取得されることにより、前記撮影時情報が前記撮影画像に付加された画像データを、複数、重ね合わせて合成画像を生成する画像処理装置であって、
前記複数の撮影画像のそれぞれに付加されている撮影時情報を解析して、前記複数の撮影画像を重ね合わせる際の各撮影画像の合成比率を設定する設定手段を備えることを特徴とする画像処理装置。
An image processing apparatus that generates a composite image by superimposing a plurality of image data in which the shooting time information is added to the captured image, by acquiring shooting time information for each captured image when shooting a subject image. And
Image processing characterized by comprising setting means for analyzing shooting time information added to each of the plurality of photographed images and setting a composite ratio of the photographed images when the plurality of photographed images are superimposed. apparatus.
JP2015075120A 2015-04-01 2015-04-01 Imaging apparatus and control method thereof Expired - Fee Related JP6039726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015075120A JP6039726B2 (en) 2015-04-01 2015-04-01 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015075120A JP6039726B2 (en) 2015-04-01 2015-04-01 Imaging apparatus and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010269366A Division JP5725821B2 (en) 2010-12-02 2010-12-02 Image processing apparatus, image processing method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2015156693A true JP2015156693A (en) 2015-08-27
JP6039726B2 JP6039726B2 (en) 2016-12-07

Family

ID=54775700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015075120A Expired - Fee Related JP6039726B2 (en) 2015-04-01 2015-04-01 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6039726B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333416A (en) * 2002-05-17 2003-11-21 Minolta Co Ltd Digital camera
JP2009232385A (en) * 2008-03-25 2009-10-08 Sony Corp Image processing apparatus, image processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333416A (en) * 2002-05-17 2003-11-21 Minolta Co Ltd Digital camera
JP2009232385A (en) * 2008-03-25 2009-10-08 Sony Corp Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP6039726B2 (en) 2016-12-07

Similar Documents

Publication Publication Date Title
JP6259185B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6267502B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6218389B2 (en) Image processing apparatus and image processing method
JP2009212853A (en) White balance controller, its control method, and imaging apparatus
JP2010166289A (en) Imaging apparatus, image processing method and program
JP6116299B2 (en) Imaging apparatus and control method thereof
JP6506036B2 (en) Imaging device
JP5279636B2 (en) Imaging device
JP2016208306A (en) Image processing device, imaging system having the same and image processing method
JP2010147786A (en) Imaging device and image processing method
JP6261205B2 (en) Image processing device
JP2008054293A (en) System for and method of photographing, and computer program
JP2018186514A (en) Image processing device, imaging system having the same and image processing method
JP2008271024A (en) Image processing apparatus and method and program
JP2015019397A (en) Imaging synthesizing apparatus, image synthesizing method and program
JP2008017198A (en) Device and method for calculating light source color, and photographing device
JP6231814B2 (en) EXPOSURE DETERMINING DEVICE, IMAGING DEVICE, CONTROL METHOD, AND PROGRAM
JP6039726B2 (en) Imaging apparatus and control method thereof
JP5725821B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2014225786A (en) Imaging device, control method therefor, and program
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP2017229025A (en) Image processing apparatus, image processing method, and program
JP2016208118A (en) Image processing apparatus, image processing method, and program
JP5543636B2 (en) Imaging device
JP2020191546A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161104

R151 Written notification of patent or utility model registration

Ref document number: 6039726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees