JP2017098777A - Imaging apparatus and control method, and program thereof - Google Patents
Imaging apparatus and control method, and program thereof Download PDFInfo
- Publication number
- JP2017098777A JP2017098777A JP2015229747A JP2015229747A JP2017098777A JP 2017098777 A JP2017098777 A JP 2017098777A JP 2015229747 A JP2015229747 A JP 2015229747A JP 2015229747 A JP2015229747 A JP 2015229747A JP 2017098777 A JP2017098777 A JP 2017098777A
- Authority
- JP
- Japan
- Prior art keywords
- period
- divided
- photometric value
- flicker
- photometric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Exposure Control For Cameras (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、ローリングシャッタ方式で駆動される撮像素子を備える撮像装置及びその制御方法、プログラムに関する。 The present invention relates to an imaging apparatus including an imaging element driven by a rolling shutter system, a control method thereof, and a program.
近年のデジタルカメラ等の撮像装置が備える撮像素子の高感度化に伴い、室内のような比較的暗い環境下においても高速シャッタでブレのない写真を撮影できるようになってきている。また、室内光源として普及している人工光源、例えば蛍光灯の下では、商用電源の周期的な電圧変化により、周期的に照明光がゆらぐフリッカ現象が起きる。このような周期的に照明光がゆらぐ蛍光灯等のフリッカ光源下での高速シャッタ撮影では、フリッカの影響により、フレーム毎に画像の露出や色温度のバラつきが発生したり、1フレーム内での露出ムラや色ムラが発生したりしてしまうことがある。 With the recent increase in sensitivity of an image sensor provided in an imaging apparatus such as a digital camera, it has become possible to take a blur-free photograph with a high-speed shutter even in a relatively dark environment such as a room. Further, under an artificial light source that is widely used as an indoor light source, for example, a fluorescent lamp, a flicker phenomenon in which illumination light periodically fluctuates due to a periodic voltage change of a commercial power source. In such a high-speed shutter shooting under a flicker light source such as a fluorescent lamp whose illumination light periodically fluctuates, the exposure of the image and the variation of the color temperature occur every frame due to the effect of flicker, or within one frame. Exposure unevenness and color unevenness may occur.
このような問題に対して、フリッカの周期と位相を検出して、明暗の変化が少ないフリッカの光量のピークタイミングに合わせて露光できるようにフリッカ同期信号を生成し、露光を行うフリッカ除去技術が提案されている。しかし、人工光源によってフリッカ波形は異なり、光量が大きい期間が長い光源や短い光源など様々である。光源のフリッカ波形に応じて、フリッカ除去撮影が可能な期間やタイミングは異なってくる。 To solve this problem, there is a flicker removal technology that detects the flicker period and phase, generates a flicker synchronization signal so that exposure can be performed in accordance with the peak timing of the flicker light quantity with little change in brightness, and performs exposure. Proposed. However, the flicker waveform varies depending on the artificial light source, and there are various light sources such as a light source having a long light amount and a long light source. Depending on the flicker waveform of the light source, the period and timing at which flicker-removed imaging can be performed vary.
特許文献1に開示される技術では、フリッカのピークである特徴点を検出して撮影している。また、特許文献2に開示される技術では、50Hzと60Hzの両方の周波数に対処するために、フレーム毎に位相が約180度ずれるフレームレートで撮影し、前後2フレームの画像の比からフリッカ周波数を求めている。 In the technique disclosed in Patent Document 1, a feature point that is a flicker peak is detected and photographed. Further, in the technique disclosed in Patent Document 2, in order to cope with both frequencies of 50 Hz and 60 Hz, shooting is performed at a frame rate in which the phase is shifted by about 180 degrees for each frame, and the flicker frequency is calculated from the ratio of the images of the two frames before and after. Seeking.
しかしながら、特許文献1では、人工光源によって異なるフリッカ波形を考慮していないので、ピーク以外でフリッカ除去撮影が可能な撮影タイミングがあっても、撮影で利用をすることはできない。また、特許文献2では、フリッカ波形を求めることができず、また、フリッカのピークも求めていないので、フリッカを除去した撮影を行うことはできない。 However, since Patent Document 1 does not consider a flicker waveform that varies depending on the artificial light source, even if there is a shooting timing that allows flicker-removed shooting other than the peak, it cannot be used for shooting. Further, in Patent Document 2, since the flicker waveform cannot be obtained and the flicker peak is not obtained, it is not possible to perform photographing without removing the flicker.
フリッカの1周期以上の期間を一括で露光し、輝度の変化を計測してフリッカ波形を生成する場合、画像データに映り込む被写体の影響を大きく受けてしまう。図8に、1周期以上の期間で画像データを取得し、輝度変化から算出したフリッカ波形を示している。画像データ200を複数に分割して輝度を取得することで輝度の時間変化が観測される。領域201は、画像データ200のうち被写体の影響を受けた領域である。領域201に対応する輝度値によると、被写体の影響を受けたことで、本来の波形とは異なる波形がフリッカ波形として形成されてしてしまう。すなわち、フリッカ光源下において正確なフリッカ波形を生成することが困難であるという問題があった。 When a flicker waveform is generated by exposing a period of one or more cycles of flicker at once and measuring a change in luminance, the influence of the subject reflected in the image data is greatly affected. FIG. 8 shows a flicker waveform obtained by acquiring image data in a period of one cycle or more and calculating from a luminance change. A change in luminance with time is observed by dividing the image data 200 into a plurality of pieces and acquiring the luminance. An area 201 is an area affected by the subject in the image data 200. According to the luminance value corresponding to the area 201, a waveform different from the original waveform is formed as a flicker waveform due to the influence of the subject. That is, there is a problem that it is difficult to generate an accurate flicker waveform under a flicker light source.
ところで、光源が発光しているタイミングで撮像するフリッカレス撮影においては、光源が発光している状態で撮像できるか否かによって、撮影画像の品質に大きく影響する。光源が発光している状況は、光源の種類(蛍光灯かLED照明か等)によって異なる。従って、フリッカレス撮影期間を適切に設定するためには、正確なフリッカ波形を得ることが重要となる。 By the way, in flickerless photography that captures images at the timing when the light source emits light, the quality of the captured image is greatly influenced by whether or not the image can be captured while the light source emits light. The situation where the light source emits light varies depending on the type of the light source (fluorescent lamp or LED illumination or the like). Therefore, in order to appropriately set the flickerless shooting period, it is important to obtain an accurate flicker waveform.
本発明の目的は、フリッカ光源下においてフリッカ波形を精度よく求めることである。 An object of the present invention is to accurately obtain a flicker waveform under a flicker light source.
上記目的を達成するために本発明は、ローリングシャッタ方式で駆動される撮像素子を備える撮像装置であって、前記撮像素子により取得された複数の画像ごとに測光値を取得する第1の取得手段と、前記複数の画像から代表画像を選択する選択手段と、前記選択手段により選択された前記代表画像を、露光タイミングの異なる複数の領域に分割する第1の分割手段と、前記第1の分割手段により分割された分割領域ごとの測光値を取得する第2の取得手段と、前記第2の取得手段により取得された分割領域ごとの測光値に基づいて、フリッカ光源下におけるフリッカ波形の生成に際し除外する測光値に対応する分割領域を特定する特定手段と、前記第1の分割手段により分割された分割領域に対応させて、前記複数の画像のうち前記代表画像以外の画像の各々を、露光タイミングの異なる複数の領域に分割する第2の分割手段と、前記第2の分割手段により分割された分割領域のうち前記特定手段により特定された分割領域に対応するものを除く分割領域ごとの測光値を取得する第3の取得手段と、前記代表画像の分割領域ごとの測光値のうち前記除外する測光値を除外した測光値と、前記第3の取得手段により取得された分割領域ごとの測光値とに基づいて、前記フリッカ波形を生成する生成手段と、を有することを特徴とする。 In order to achieve the above object, the present invention is an image pickup apparatus including an image pickup device driven by a rolling shutter system, and obtains a photometric value for each of a plurality of images acquired by the image pickup device. Selection means for selecting a representative image from the plurality of images, first division means for dividing the representative image selected by the selection means into a plurality of regions having different exposure timings, and the first division A second acquisition unit that acquires a photometric value for each divided region divided by the unit, and a flicker waveform generated under a flicker light source based on the photometric value for each divided region acquired by the second acquisition unit. A specifying unit that specifies a divided region corresponding to the photometric value to be excluded; and the representative image of the plurality of images in correspondence with the divided region divided by the first dividing unit. Corresponding to the divided area specified by the specifying means among the divided areas divided by the second dividing means and a second dividing means for dividing each of the images other than the plurality of areas having different exposure timings A third acquisition means for acquiring a photometric value for each divided area excluding the object, a photometric value excluding the photometric value to be excluded from the photometric values for each divided area of the representative image, and the third acquiring means. Generating means for generating the flicker waveform based on the obtained photometric value for each divided region.
本発明によれば、フリッカ光源下においてフリッカ波形を精度よく求めることができる。 According to the present invention, a flicker waveform can be accurately obtained under a flicker light source.
以下、本発明の実施の形態を図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施の形態に係る撮像装置の概略構成図である。この撮像装置は、デジタル一眼レフカメラとして構成され、カメラ本体100と、カメラ本体100に着脱可能なレンズユニット120とを含む。 FIG. 1 is a schematic configuration diagram of an imaging apparatus according to an embodiment of the present invention. This imaging apparatus is configured as a digital single-lens reflex camera, and includes a camera body 100 and a lens unit 120 that can be attached to and detached from the camera body 100.
まず、カメラ本体100の構成について説明する。マイクロコンピュータCPUであるカメラマイコン101は、カメラ本体100の各部を制御する。メモリ102は、カメラマイコン101に接続されているRAMやROM等のメモリである。撮像素子103は、赤外カットフィルタやローパスフィルタ等を含むCCD、CMOS等の撮像素子であり、レンズユニット120を介して入射した光束を光電変換して画像信号を出力する。 First, the configuration of the camera body 100 will be described. A camera microcomputer 101 which is a microcomputer CPU controls each part of the camera body 100. The memory 102 is a memory such as a RAM or a ROM connected to the camera microcomputer 101. The image sensor 103 is an image sensor such as a CCD or CMOS including an infrared cut filter, a low-pass filter, and the like, and photoelectrically converts a light beam incident through the lens unit 120 and outputs an image signal.
シャッタ104は、非撮影時には撮像素子103を遮光し、撮影時には開いて撮像素子103へ光線を導く。すなわち、シャッタ104は、レンズユニット120を介して入射した光束から撮像素子103を遮光する遮光状態、及び、レンズユニット120を介して入射した光束を撮像素子103に導く退避状態となるように走行する。ハーフミラー105は、レンズユニット120を介して入射した光束の光路変更を行い、撮影時には、レンズユニット120を介して入射した光束を撮像素子103へ導く。ハーフミラー105は、非撮影時には、入射した光を測光センサ108へ導くと共に、入射した光の一部を反射させてピント板106に結像させる。 The shutter 104 shields the image sensor 103 when not photographing, and opens to guide the light beam to the image sensor 103 when photographing. That is, the shutter 104 travels so as to be in a light shielding state in which the image sensor 103 is shielded from a light beam incident through the lens unit 120 and in a retracted state in which the light beam incident through the lens unit 120 is guided to the image sensor 103. . The half mirror 105 changes the optical path of the light beam incident through the lens unit 120 and guides the light beam incident through the lens unit 120 to the image sensor 103 during photographing. The half mirror 105 guides incident light to the photometric sensor 108 when not photographing, and reflects a part of the incident light to form an image on the focusing plate 106.
表示素子107は、PN液晶等を用いた表示素子であり、自動焦点調節制御(AF制御)に用いられる焦点検出領域を示す枠(AF枠)などを表示し、光学ファインダを覗いたときにどの位置でAFしているか等をユーザに示す。測光センサ108は、CMOS等の入射光量に応じた電荷を蓄積する電荷蓄積型撮像素子であり、出力される画像信号に基づいて測光だけでなく被写体の顔検出や被写体追尾、フリッカの検出などを行うことができる。本実施の形態では、フリッカを検出するデバイスとして測光センサを例に挙げているが、フリッカ検出用のデバイスとしても撮像素子103を用いても良い。 The display element 107 is a display element using a PN liquid crystal or the like, displays a frame (AF frame) indicating a focus detection area used for automatic focus adjustment control (AF control), and the like when looking into the optical viewfinder. It indicates to the user whether AF is being performed at the position. The photometric sensor 108 is a charge storage type image sensor that accumulates electric charges according to the amount of incident light such as a CMOS, and performs not only photometry but also subject face detection, subject tracking, flicker detection, etc. based on the output image signal. It can be carried out. In the present embodiment, a photometric sensor is taken as an example of a device that detects flicker, but the image sensor 103 may be used as a device for detecting flicker.
ペンタプリズム109は、ピント板106の被写体像を測光センサ108及び不図示の光学ファインダに導く。測光センサ108は、ペンタプリズム109を介してピント板106に結像した被写体像を斜めから見る位置に配置される。焦点検出回路110は、AF制御のために焦点検出を行うものであって、AFミラー111により、レンズユニット120を介して入射しハーフミラー105を通過した光束の一部が焦点検出回路110内の不図示のAFセンサに導かれる。 The pentaprism 109 guides the subject image on the focusing screen 106 to the photometric sensor 108 and an optical finder (not shown). The photometric sensor 108 is disposed at a position where the subject image formed on the focusing screen 106 via the pentaprism 109 is viewed obliquely. The focus detection circuit 110 performs focus detection for AF control, and a part of the light beam incident through the lens unit 120 and passing through the half mirror 105 by the AF mirror 111 is contained in the focus detection circuit 110. It is guided to an AF sensor (not shown).
ICPU112は、測光センサ108の駆動制御や画像処理・演算用のCPUであって、測光センサ108からの出力信号(画像信号)に基づいて測光、被写体の顔検出、被写体追尾、フリッカ検出などに関わる各種演算を行う。メモリ113は、ICPU112に接続されているRAMやROM等のメモリである。なお、本実施の形態では、カメラマイコン101とは別にICPU112を有する構成を説明するが、ICPU112で実行する処理をカメラマイコン101が実行する構成としても構わない。 The ICPU 112 is a CPU for driving control of the photometric sensor 108 and image processing / calculation, and is related to photometry, subject face detection, subject tracking, flicker detection and the like based on an output signal (image signal) from the photometric sensor 108. Perform various calculations. The memory 113 is a memory such as a RAM or a ROM connected to the ICPU 112. In this embodiment, a configuration in which the ICPU 112 is provided separately from the camera microcomputer 101 is described. However, a configuration in which the camera microcomputer 101 executes processing executed by the ICPU 112 may be used.
操作部114は、ユーザがカメラ本体100に撮影準備動作の開始指示(SW1のオン)や撮影動作の開始指示(SW2のオン)を行うためのレリーズボタンや、ユーザがカメラ本体100の各種設定を行うための設定ボタンなどを含む。また、操作部114は、ユーザがカメラ本体100の電源のオンオフを切り替えるための電源スイッチや、ユーザがカメラ本体100の動作モードを複数のモードの中から選択するためのモードダイヤル、タッチパネルなどを含む。レンズCPU121(以下、LPUとする)は、レンズユニット120の各部、例えば、フォーカスレンズ、ズームレンズ、絞りの駆動部などを制御するものであって、レンズに関する情報をカメラマイコン101に送信する。 The operation unit 114 is a release button for the user to instruct the camera body 100 to start a shooting preparation operation (SW1 is turned on) or a shooting operation is started (SW2 is turned on), and the user can set various settings of the camera body 100. Includes setting buttons to do. The operation unit 114 includes a power switch for the user to turn on / off the power of the camera body 100, a mode dial for the user to select an operation mode of the camera body 100 from a plurality of modes, a touch panel, and the like. . The lens CPU 121 (hereinafter referred to as LPU) controls each unit of the lens unit 120, for example, a focus lens, a zoom lens, a diaphragm driving unit, and the like, and transmits information about the lens to the camera microcomputer 101.
ところで、測光センサ108は、ローリングシャッタ方式で駆動可能な撮像素子である。概略として、ICPU112は、測光センサ108における2次元配列された複数の画素を所定ライン毎に順次走査して画素の電荷のリセットを実施し、所定の露光時間経過後に、所定ライン毎に順次走査して、蓄積した電荷の読み出しと信号の出力を行う。所定ライン数は、1であっても2以上であってもよい。 Incidentally, the photometric sensor 108 is an image sensor that can be driven by a rolling shutter system. In general, the ICPU 112 sequentially scans a plurality of pixels arranged two-dimensionally in the photometric sensor 108 for each predetermined line, resets the charge of the pixels, and sequentially scans for each predetermined line after a predetermined exposure time has elapsed. The accumulated charge is read out and a signal is output. The predetermined number of lines may be 1 or 2 or more.
次に、フリッカ光源下におけるフリッカ波形の生成について説明する。図2は、フリッカ波形生成処理のフローチャートである。図2の処理において、ICPU112は、本発明における、選択手段、第1、第2、第3の分割手段、第1、第2の取得手段、特定手段及び生成手段としての役割を果たす。この処理は、例えば、電源スイッチのオン操作によりカメラ本体100の電源がオン状態になると開始される。まずステップS101で、ICPU112は、測光センサ108を連続的に駆動して、複数の画像を取得する。この動作は、図3に示すように、フリッカを検知するための蓄積と読み出しの動作となる。 Next, generation of a flicker waveform under a flicker light source will be described. FIG. 2 is a flowchart of the flicker waveform generation process. In the process of FIG. 2, the ICPU 112 serves as a selection unit, first, second, and third division unit, first and second acquisition unit, identification unit, and generation unit in the present invention. This process is started, for example, when the power of the camera body 100 is turned on by turning on the power switch. First, in step S101, the ICPU 112 continuously drives the photometric sensor 108 to acquire a plurality of images. As shown in FIG. 3, this operation is an accumulation and readout operation for detecting flicker.
図3(a)、(b)は、フリッカ検出のための電荷の蓄積タイミング及び画像信号の読み出しタイミングを示す図である。ICPU112は、600fps、約1.667ms周期で蓄積・読み出しを連続して12回、行うよう制御する。この600fpsは、予め想定されるフリッカ周波数(100Hzと120Hz)の最小公倍数と等しい値となっている。また、600fpsで12回、蓄積を行うことで、全体として20msの期間で蓄積を行うことになり、商用電源周波数が50Hz、60Hzのどちらであっても、フリッカ光源の光量変化が2周期分、含まれることになる。蓄積・読み出しについては、短くても1周期分の期間を確保する必要がある。 FIGS. 3A and 3B are diagrams showing charge accumulation timing and image signal readout timing for flicker detection. The ICPU 112 performs control so that accumulation and reading are continuously performed 12 times at a cycle of 600 fps and about 1.667 ms. This 600 fps is a value equal to the least common multiple of the flicker frequencies (100 Hz and 120 Hz) assumed in advance. Further, by accumulating 12 times at 600 fps, accumulation is performed in a period of 20 ms as a whole, and the light quantity change of the flicker light source is equivalent to two cycles regardless of whether the commercial power supply frequency is 50 Hz or 60 Hz. Will be included. Regarding accumulation / reading, it is necessary to secure a period of at least one cycle.
近年の一眼レフカメラには、撮影の直前にペンタプリズムの測光センサで画像信号を取得し、その画像信号を処理することにより顔検出や被写体追尾を行い、さらにその画像信号を元に測光を行うシステムがある。CMOSのセンサの場合は、部分読み出しが比較的簡単にできるので、いわゆる間引き読み出しによって蓄積と読み出しの合計時間が約1.667msとなるように調整する。このようにして、測光センサ108を600fps(1.667ms周期)で駆動する。 In recent single-lens reflex cameras, an image signal is acquired by a pentaprism photometric sensor immediately before shooting, and the image signal is processed to perform face detection and subject tracking, and then perform photometry based on the image signal. There is a system. In the case of a CMOS sensor, partial reading can be performed relatively easily, so that the total time of accumulation and reading is adjusted to about 1.667 ms by so-called thinning-out reading. In this way, the photometric sensor 108 is driven at 600 fps (cycle of 1.667 ms).
次に、ステップS102では、ICPU112は、フリッカ検出用の輝度評価用に、ステップS101で取得された複数の画像ごとに測光値(輝度値)を取得する。図3(a)、(b)ではそれぞれ、商用電源周波数が50Hz、60Hzであるときの電荷の蓄積タイミング、画像信号の読み出しタイミング及び測光値の推移を示している。n回目の蓄積を「蓄積n」、蓄積nの読み出しを「読み出しn」、読み出しnの結果から得られる測光値を「AE(n)」と記述する。なお、各測光値の取得時間に関し、蓄積は有限の時間で行われる。ICPU112は、画像の各々について、測光センサ108における複数のラインごとの測光値の中央値(メジアン)を得て、得られた複数の測光値を、各画像の測光値として取得する。なお、複数のラインの測光値の平均値を、各画像の測光値として取得するようにしてもよい。 Next, in step S102, the ICPU 112 acquires a photometric value (luminance value) for each of the plurality of images acquired in step S101 for luminance evaluation for flicker detection. FIGS. 3A and 3B show transitions of charge accumulation timing, image signal readout timing, and photometric value when the commercial power supply frequency is 50 Hz and 60 Hz, respectively. The nth accumulation is described as “accumulation n”, the readout of the accumulation n is described as “readout n”, and the photometric value obtained from the result of the readout n is described as “AE (n)”. In addition, regarding the acquisition time of each photometric value, accumulation | storage is performed in finite time. The ICPU 112 obtains the median value (median) of the photometric values for each of the plurality of lines in the photometric sensor 108 for each of the images, and acquires the obtained plural photometric values as the photometric values of each image. In addition, you may make it acquire the average value of the photometric value of a some line as a photometric value of each image.
商用電源周波数が50Hzのときのフリッカ光源の発光周期(光量変化周期)は約10msであり、10÷1.667≒6であるから、図3(a)に示すように、蓄積のタイミングによらず、6回周期で同じ測光値が得られる。すなわち、AE(n)≒AE(n+6)の関係となる。同様に、商用電源周波数が60Hzのときのフリッカ光源の発光周期は約8.33msであり、8.33÷1.667≒5であるから、図3(b)に示すように、5回周期で同じ測光値が得られ、AE(n)≒AE(n+5)の関係となる。 When the commercial power supply frequency is 50 Hz, the light emission period (light quantity change period) of the flicker light source is about 10 ms and 10 ÷ 1.667≈6. Therefore, as shown in FIG. In other words, the same photometric value is obtained in six cycles. That is, the relationship of AE (n) ≈AE (n + 6) is established. Similarly, since the light emission period of the flicker light source when the commercial power supply frequency is 60 Hz is about 8.33 ms and is 8.33 ÷ 1.667≈5, as shown in FIG. The same photometric value is obtained with AE (n) ≈AE (n + 5).
一方、フリッカがない(光量変化がない)光源下であれば、nによらずAE(n)は略一定である。そこで、ICPU112は、数式1、2を用いて、商用電源周波数50Hz、60Hzのときのそれぞれの評価値F50、F60を算出する。 On the other hand, under a light source having no flicker (no change in light amount), AE (n) is substantially constant regardless of n. Therefore, the ICPU 112 calculates the evaluation values F50 and F60 when the commercial power supply frequencies are 50 Hz and 60 Hz, using Equations 1 and 2.
ICPU112は、評価値F50及び評価値F60を所定の閾値F_thと比較することで、フリッカ検出を行う。具体的には、F50<F_th且つ、F60<F_thが成立する場合、複数の測光値のすべてが略等しいといえるため、フリッカが生じていないと判断される。F50<F_th且つ、F60≧F_thが成立する場合、複数の測光値が6回周期で略等しい値となっていて、5回周期では略等しい値となっていないといえる。そのため、光量変化周期が10msのフリッカが生じている(商用電源周波数が50Hzのフリッカ光源下である)と判断される。F50≧F_th且つ、F60<F_thが成立する場合、複数の測光値が、5回周期で略等しい値となっていて、6回周期では略等しい値となっていないといえる。そのため、光量変化周期が8.33msのフリッカが生じている(商用電源周波数が60Hzのフリッカ光源下である)と判断される。 The ICPU 112 performs flicker detection by comparing the evaluation value F50 and the evaluation value F60 with a predetermined threshold value F_th. Specifically, when F50 <F_th and F60 <F_th are satisfied, it can be said that all of the plurality of photometric values are substantially equal, and therefore it is determined that no flicker occurs. When F50 <F_th and F60 ≧ F_th are satisfied, it can be said that the plurality of photometric values are substantially equal in six cycles and are not substantially equal in five cycles. Therefore, it is determined that a flicker with a light quantity change period of 10 ms occurs (under a flicker light source with a commercial power supply frequency of 50 Hz). When F50 ≧ F_th and F60 <F_th are satisfied, it can be said that the plurality of photometric values are substantially equal in the five-time cycle and are not substantially equal in the six-time cycle. For this reason, it is determined that flicker having a light quantity change period of 8.33 ms occurs (under a flicker light source having a commercial power supply frequency of 60 Hz).
なお、パンニング等の撮像装置の移動や被写体の移動によって測光値が大きく変化して、F50≧F_th且つ、F60≧F_thとなる場合も考えられる。その場合、ICPU112は、評価値F50と評価値F60とを比較してフリッカ検出を行う。具体的には、F50≧F_th且つ、F60≧F_th且つ、F50≦F60が成立する場合、光量変化周期が10msのフリッカが生じている(商用電源周波数が50Hzのフリッカ光源下である)と判断される。F50≧F_th且つ、F60≧F_th且つ、F50>F60が成立する場合、光量変化周期が8.33msのフリッカが生じている(商用電源周波数が60Hzのフリッカ光源下である)と判断される。なお、F50≧F_th且つ、F60≧F_th且つ、F50=F60の場合は、フリッカ光源の発光周期を判断できないため、フリッカが生じていないあるいはフリッカの検出不可と判断してもよい。なお、F50≧F_th且つ、F60≧F_thが成立する場合に、フリッカ検出結果の信頼性が低いとして、フリッカ検出をやり直すようにしてもよい。 It is also conceivable that the photometric value changes greatly due to the movement of the imaging device such as panning or the movement of the subject, and F50 ≧ F_th and F60 ≧ F_th. In that case, the ICPU 112 compares the evaluation value F50 with the evaluation value F60 and performs flicker detection. Specifically, when F50 ≧ F_th, F60 ≧ F_th, and F50 ≦ F60 are satisfied, it is determined that a flicker with a light quantity change period of 10 ms occurs (under a flicker light source with a commercial power supply frequency of 50 Hz). The When F50 ≧ F_th and F60 ≧ F_th and F50> F60 are satisfied, it is determined that flicker with a light amount change period of 8.33 ms is generated (under a flicker light source with a commercial power supply frequency of 60 Hz). If F50 ≧ F_th, F60 ≧ F_th, and F50 = F60, the light emission cycle of the flicker light source cannot be determined, and therefore it may be determined that no flicker occurs or flicker cannot be detected. When F50 ≧ F_th and F60 ≧ F_th are satisfied, flicker detection may be performed again, assuming that the reliability of the flicker detection result is low.
次に、ステップS103では、ICPU112は、ステップS102で算出した画像ごとの測光値を用いて、粗いフリッカ波形(以下、粗波形と称する)を生成する。図4は、複数の画像と粗波形とを示す図である。図4における画像301〜306は、1.667ms周期で撮影した6枚の画像である。画像301〜306の測光値Y301〜Y306は、AE(1)〜AE(6)に相当する。ICPU112は、ステップS102でも説明したように、ラインごとの測光値を蓄積期間中の中央値で代表させて測光値Y301〜Y306を得る。そして、ICPU112は、測光値Y301と測光値Y302、測光値Y302と測光値Y303というように、隣り合う測光値を結んでグラフ化することで、粗波形を生成する。なお、図4では画像は6枚としたが、取得した全ての画像の測光値Yを用いて粗波形を生成してもよい。 Next, in step S103, the ICPU 112 generates a coarse flicker waveform (hereinafter referred to as a coarse waveform) using the photometric value for each image calculated in step S102. FIG. 4 is a diagram illustrating a plurality of images and a rough waveform. Images 301 to 306 in FIG. 4 are six images taken at a period of 1.667 ms. Photometric values Y301 to Y306 of the images 301 to 306 correspond to AE (1) to AE (6). As described in step S102, the ICPU 112 obtains the photometric values Y301 to Y306 by representing the photometric value for each line by the median value during the accumulation period. Then, the ICPU 112 generates a rough waveform by connecting adjacent photometric values and graphing them, such as the photometric value Y301 and the photometric value Y302, and the photometric value Y302 and the photometric value Y303. In FIG. 4, the number of images is six, but a rough waveform may be generated using the photometric values Y of all acquired images.
次に、ステップS104では、ICPU112は、画像301〜306の中から、粗波形における変化度合いが最も小さい領域に相当する画像を代表画像として選択する。ここで、波形変化が小さい画像の判断は、例えば、フリッカ周期と測光値Y301〜Y306との比較により行える。例えば、ICPU112は、着目する測光値Yに隣接する2つの測光値Y同士の差が最小となるような測光値Yを決定し、決定した測光値Yを有する画像を代表画像として選択する。または、輝度変化が少ない画像を選択することが困難な場合は、輝度が単調に変化している画像を選択してもよい。後述するステップS105において、代表画像が更に領域毎に分割されて輝度値が算出されるので、新たに求める輝度値の予測がつくような画像を代表画像として選択するのが望ましい。本実施の形態では、画像301が代表画像として選択されたとする。なお、波形変化が小さい画像を代表画像とする方が高精度となるため好ましいが、代表画像は、波形変化が最小の画像であることは必須でない。 Next, in step S <b> 104, the ICPU 112 selects an image corresponding to an area having the smallest degree of change in the coarse waveform from the images 301 to 306 as a representative image. Here, the determination of an image with a small waveform change can be made by, for example, comparing the flicker cycle with the photometric values Y301 to Y306. For example, the ICPU 112 determines a photometric value Y that minimizes the difference between two photometric values Y adjacent to the target photometric value Y, and selects an image having the determined photometric value Y as a representative image. Alternatively, when it is difficult to select an image with little change in luminance, an image whose luminance changes monotonously may be selected. In step S105, which will be described later, since the representative image is further divided into regions and the luminance value is calculated, it is desirable to select an image that can predict the newly obtained luminance value as the representative image. In the present embodiment, it is assumed that the image 301 is selected as the representative image. Note that it is preferable to use an image with a small waveform change as a representative image because the accuracy is high, but it is not essential that the representative image is an image with a minimum waveform change.
次に、ステップS105では、ICPU112は、代表画像を水平方向に分割して、分割した分割領域毎に測光値(輝度値)を求める。すなわち、ICPU112はまず、選択された代表画像を分割する。ここでは、測光センサ108における所定数のラインごとに1つの分割領域となるよう代表画像が分割される。CMOSセンサでは、ローリングシャッタ方式で撮影すると、1画面内の画像データでも、ラインによって蓄積タイミングが異なった画像データとなる。そこで、センサの読み出し順序に対して、蓄積開始・終了時間に時間差が生じるように、画像を複数の分割領域に分割する。さらに分割領域のそれぞれについて測光値を求めることで、1画面内で、露光タイミングすなわち取得タイミングが異なった測光値を求めることができる。 Next, in step S105, the ICPU 112 divides the representative image in the horizontal direction and obtains a photometric value (luminance value) for each divided area. That is, the ICPU 112 first divides the selected representative image. Here, the representative image is divided so as to be one divided region for every predetermined number of lines in the photometric sensor 108. In the CMOS sensor, when the image is taken by the rolling shutter method, even in the case of image data within one screen, the image data has different accumulation timing depending on the line. Therefore, the image is divided into a plurality of divided regions so that a time difference occurs in the accumulation start / end times with respect to the sensor reading order. Further, by obtaining a photometric value for each of the divided areas, it is possible to obtain a photometric value with different exposure timing, that is, acquisition timing, within one screen.
図5に、画像301を分割領域301−1〜301−5の5つに分割した例を示す。なお、領域の分割数は5つで無くても構わない。細かく分割すれば、異なるタイミングでの輝度変化をより細かく計測することが可能となるが、輝度を演算する上での画素数が減少してしまうため、撮影する画像やノイズの影響を受け易くなってしまう。従って、分割数は撮像素子の画素数や特性から決定するのが好ましい。分割領域301−1〜301−5のそれぞれで求めた測光値が、測光値Y301−1〜Y301−5である。1つの分割領域に複数のラインが対応する場合は、分割領域に対応する各ラインの測光値の中央値(メジアン)を、分割領域ごとの測光値とする。なお、分割領域に対応する各ラインの測光値の平均値を、分割領域ごとの測光値としてもよい。 FIG. 5 shows an example in which the image 301 is divided into five divided areas 301-1 to 301-5. Note that the number of divisions of the area is not limited to five. If you divide it finely, you can measure the luminance change at different timings more finely, but the number of pixels for calculating the luminance decreases, so it is more susceptible to the image and noise that you shoot. End up. Therefore, the number of divisions is preferably determined from the number of pixels and characteristics of the image sensor. The photometric values obtained in each of the divided regions 301-1 to 301-5 are photometric values Y301-1 to Y301-5. When a plurality of lines correspond to one divided region, the median value (median) of the photometric values of each line corresponding to the divided region is set as a photometric value for each divided region. The average value of the photometric values of each line corresponding to the divided area may be used as the photometric value for each divided area.
次に、ステップS106では、ICPU112は、フリッカ波形の生成に際し除外すべき測光値に対応する分割領域を除外領域として特定する。まず、ICPU112は、各分割領域の測光値Y301−1〜Y301−5を、利用できるデータと利用できないデータとに選別をする。撮像画像には被写体が写っているので、領域によっては被写体の影響を大きく受けて、フリッカ検出の観点からは不適切な測光値が算出されている場合がある。図5に示すように、ICPU112は、粗波形に測光値Y301−1〜Y301−5を重ねて配置する。 Next, in step S106, the ICPU 112 identifies a divided area corresponding to a photometric value to be excluded when generating a flicker waveform as an excluded area. First, the ICPU 112 sorts the photometric values Y301-1 to Y301-5 of each divided area into usable data and unusable data. Since the subject is shown in the captured image, depending on the region, the subject is greatly influenced, and an inappropriate photometric value may be calculated from the viewpoint of flicker detection. As shown in FIG. 5, the ICPU 112 arranges the photometric values Y301-1 to Y301-5 on the rough waveform.
図5から、粗波形に測光値Y301−1〜Y301−5を重ねて描画すると、特に測光値Y301−5が粗波形から大きく乖離している(外れている)ことがわかる。これは、分割領域301−5が被写体の影響を大きく受けた測光値を有する領域であることを示している。従って、精度の高いフリッカ波形を生成する観点からは、測光値Y301−5を使用しないと共に、画像302〜306における、分割領域301−5に対応する領域から求めた測光値も使用しないようにしたい。そこで、ICPU112は、分割領域301−5を、フリッカ波形の生成に際し除外領域として記憶しておく。なお、粗波形から最も乖離する測光値Yを求めるために、閾値などを用いて判定してもよい。また、被写体の状態によっては各分割領域の測光値Y301−1〜Y301−5のすべてが利用できるデータの場合がある。その場合は、いずれの測光値Yも除外する必要はない。 From FIG. 5, it can be seen that when the photometric values Y301-1 to Y301-5 are drawn on the coarse waveform, the photometric value Y301-5 is particularly deviated (displaced) from the coarse waveform. This indicates that the divided area 301-5 is an area having a photometric value greatly influenced by the subject. Therefore, from the viewpoint of generating a flicker waveform with high accuracy, it is desirable not to use the photometric value Y301-5 and to use the photometric value obtained from the area corresponding to the divided area 301-5 in the images 302 to 306. . Therefore, the ICPU 112 stores the divided area 301-5 as an excluded area when generating the flicker waveform. In addition, in order to obtain the photometric value Y that is most deviated from the rough waveform, it may be determined using a threshold value or the like. Further, depending on the state of the subject, there are cases where all of the photometric values Y301-1 to Y301-5 of each divided area can be used. In that case, it is not necessary to exclude any photometric value Y.
分割領域301−5に相当する位置の輝度値は、フリッカ波形の生成には使用されなくなるが、分割領域301−5は、1.667msの短い期間で取得される画像の一部分である。図8は、従来の手法で算出されたフリッカ波形を示す図である。複数の画像を撮影して輝度値を並べることで、図8の領域201のように、フリッカ波形の一部の領域全てで輝度値が使用できなくなることを避けられ、正確なフリッカ波形を求めるための輝度値をフリッカ1周期中に点在させることが可能となる。 The luminance value at the position corresponding to the divided area 301-5 is not used for generating the flicker waveform, but the divided area 301-5 is a part of an image acquired in a short period of 1.667 ms. FIG. 8 is a diagram showing a flicker waveform calculated by a conventional method. By capturing a plurality of images and arranging the luminance values, it is possible to avoid that the luminance values cannot be used in all the partial areas of the flicker waveform as in the area 201 in FIG. 8 and to obtain an accurate flicker waveform. Can be scattered in one flicker cycle.
次に、ステップS107では、ICPU112は、分割領域の測光値の取得対象となる次の画像を選択する。例えば、取得タイミングの昇順に選択されるとし、現在選択されている画像の直後に取得された画像(例えば、画像301の後であれば画像302)が選択される。ステップS108では、ICPU112は、選択した画像を、ステップS105と同様に複数に分割する。その際、代表画像と同じ態様(同じ分割数で且つ同じ分割位置)で分割される。例えば、図6に示す例では、画像302が分割領域302−1〜302−5の5つに分割されている。ステップS107ではさらに、ICPU112は、分割領域のうち1つを選択する。例えば、取得タイミングの昇順に選択されるとし、最初は分割領域302−1が選択される。 Next, in step S107, the ICPU 112 selects the next image from which to obtain the photometric value of the divided area. For example, assuming that the images are selected in ascending order of acquisition timing, an image acquired immediately after the currently selected image (for example, the image 302 after the image 301) is selected. In step S108, the ICPU 112 divides the selected image into a plurality of pieces as in step S105. At that time, the image is divided in the same manner as the representative image (the same number of divisions and the same division position). For example, in the example shown in FIG. 6, the image 302 is divided into five divided areas 302-1 to 302-5. In step S107, the ICPU 112 further selects one of the divided areas. For example, assuming that selection is performed in ascending order of acquisition timing, the divided region 302-1 is initially selected.
次に、ステップS109では、ICPU112は、今回選択されている分割領域が、除外領域に対応する領域であるか否かを判別する。その判別の結果、今回選択されている分割領域が、除外領域に対応している場合は、被写体の影響を受けて、フリッカ生成に用いるのに適さないため、ICPU112は、処理をステップS112に進める。一方、今回選択されている分割領域が、除外領域に対応していない場合は、ICPU112は、ステップS110で、今回選択されている分割領域について測光値(輝度値)を算出する。 Next, in step S109, the ICPU 112 determines whether or not the currently selected divided area is an area corresponding to the excluded area. As a result of the determination, if the currently selected divided area corresponds to the excluded area, the ICPU 112 advances the processing to step S112 because it is affected by the subject and is not suitable for use in flicker generation. . On the other hand, if the currently selected divided area does not correspond to the excluded area, the ICPU 112 calculates a photometric value (luminance value) for the currently selected divided area in step S110.
次に、ICPU112は、ステップS111で、算出した輝度値を粗波形に重ねて配置し、ステップS112で、現在選択している画像における、除外領域に対応していない分割領域の全てについて測光値の算出が完了したか否かを判別する。その判別の結果、ICPU112は、測光値が未算出の分割領域がある場合は、処理をステップS108に戻し、処理対象を次の分割領域に進める。一方、除外領域に対応していない分割領域の全てについて測光値の算出が完了した場合は、ICPU112は、処理をステップS113に進める。図6に示す例では、画像302の分割領域302−1〜302−4に対して測光値Y302−1〜Y302−4が算出されるが、分割領域302−5は、除外領域である分割領域301−5に対応するため、測光値は算出されない。こうして、測光値Y302−1〜Y302−4が粗波形に重ねて配置される。 Next, in step S111, the ICPU 112 arranges the calculated luminance value so as to be superimposed on the rough waveform, and in step S112, the ICPU 112 sets the photometric values for all the divided areas that do not correspond to the excluded area in the currently selected image. It is determined whether or not the calculation is completed. As a result of the determination, if there is a divided area for which the photometric value has not been calculated, the ICPU 112 returns the process to step S108 and advances the process target to the next divided area. On the other hand, if the calculation of the photometric value is completed for all the divided areas that do not correspond to the excluded area, the ICPU 112 advances the process to step S113. In the example shown in FIG. 6, photometric values Y302-1 to Y302-4 are calculated for the divided areas 302-1 to 302-4 of the image 302. The divided area 302-5 is a divided area that is an excluded area. Since it corresponds to 301-5, a photometric value is not calculated. Thus, the photometric values Y302-1 to Y302-4 are arranged so as to overlap the rough waveform.
次に、ステップS113では、ICPU112は、全ての画像についての処理が完了したか否かを判別し、未処理の画像がある場合は、処理をステップS107に戻す。ステップS107〜S113の繰り返しにより、図6に示すように、画像303に対しても同様に測光値Y303−1〜Y303−4が算出され、残りの画像304〜306に対しても同様に測光値が算出され、粗波形に重ねられる。一方、全ての画像についての処理が完了した場合は、ステップS114で、ICPU112は、粗でなく密のフリッカ波形を生成する。すなわち、ICPU112は、図7に示すように、全画像の分割領域毎の測光値Y301−1〜Y306−4までを繋いて、正確なフリッカ波形を生成する。なお、粗波形に重ねられた全ての測光値を繋ぐ近似曲線を求めることで、フリッカ波形を描画でき、その際、適宜、補間処理を用いてもよい。 Next, in step S113, the ICPU 112 determines whether or not processing for all images has been completed. If there is an unprocessed image, the processing returns to step S107. By repeating steps S107 to S113, as shown in FIG. 6, photometric values Y303-1 to Y303-4 are similarly calculated for the image 303, and the photometric values are similarly applied to the remaining images 304 to 306. Is calculated and overlaid on the coarse waveform. On the other hand, if the processing for all the images is completed, in step S114, the ICPU 112 generates a fine flicker waveform that is not coarse. That is, as shown in FIG. 7, the ICPU 112 connects the photometric values Y301-1 to Y306-4 for each divided region of all images to generate an accurate flicker waveform. Note that a flicker waveform can be drawn by obtaining an approximate curve that connects all photometric values superimposed on the coarse waveform, and interpolation processing may be used as appropriate.
図2の処理によれば、代表画像の分割領域ごとの測光値に基づいて除外領域が特定され、代表画像以外の画像の各々の分割領域のうち除外領域に対応するものを除く分割領域ごとの測光値が取得される。そして、代表画像の分割領域ごとの測光値のうち除外すべき測光値を除外した測光値と、代表画像以外の画像の除外領域に対応するものを除く分割領域ごとの測光値とに基づいて、フリッカ波形が生成される。これにより、フリッカ光源下においてフリッカ波形を精度よく取得することができる。 According to the processing in FIG. 2, an excluded area is specified based on a photometric value for each divided area of the representative image, and for each divided area excluding those corresponding to the excluded area among the divided areas of images other than the representative image. A photometric value is obtained. Then, based on the photometric value excluding the photometric value to be excluded among the photometric values for each divided area of the representative image, and the photometric value for each divided area excluding those corresponding to the excluded area of the image other than the representative image, A flicker waveform is generated. Thereby, the flicker waveform can be obtained with high accuracy under the flicker light source.
次に、上記のようにして適切に求めたフリッカ波形を用いて撮影タイミングのバラつきを抑えたフリッカレス撮影を実現する方法について説明する。 Next, a description will be given of a method for realizing flicker-less shooting that suppresses variations in shooting timing by using the flicker waveform appropriately obtained as described above.
図9(a)、(b)は、互いに異なる光源下で生成されたフリッカ波形の例を示す図である。図9(a)は光源の発光時間が長い環境下でのフリッカ波形、図9(b)は光源の発光時間が短い環境下でのフリッカ波形を示す。 FIGS. 9A and 9B are diagrams illustrating examples of flicker waveforms generated under different light sources. FIG. 9A shows a flicker waveform in an environment where the light emission time of the light source is long, and FIG. 9B shows a flicker waveform in an environment where the light emission time of the light source is short.
適切なフリッカレス撮影を実現するためには、フリッカ波形の最高輝度付近の輝度が出ているタイミングで撮影する必要がある。図9(b)の波形では、図9(a)の波形と比較して、最高輝度(ピーク)に近い輝度を計測できる期間が短く、フリッカレス撮影を実現できるフリッカレス撮影期間(撮影可能期間)が短くなっていることが分かる。適切なフリッカレス撮影を実現するためには、最高輝度に近い輝度を計測できる期間をフリッカレス撮影期間として決定し、その期間に合わせて撮影すれば良い。そのためには、最高輝度から予め決められた輝度低下までを計測できる期間をフリッカレス撮影期間と決定すればよい。例えば、フリッカ波形において、ピークに対して所定値Xだけ低い値よりも高い期間が、フリッカレス撮影期間として決定される。特に、図2の処理で生成した正確なフリッカ波形を用いることで、適切なフリッカレス撮影期間を決定することができる。正確でないフリッカ波形を用いると、正確なフリッカレス撮影期間を決定することができず、フリッカレス撮影期間に撮影したつもりなのにフリッカレス撮影にならなかったり、フリッカレス撮影ができるタイミングを逃がしたりする。よって、上記した手法を用いて正確なフリッカ波形を算出することが重要になる。 In order to realize appropriate flicker-less shooting, it is necessary to perform shooting at a timing when the luminance near the maximum luminance of the flicker waveform is obtained. In the waveform of FIG. 9B, compared to the waveform of FIG. 9A, the period in which the luminance close to the maximum luminance (peak) can be measured is short, and the flickerless shooting period (shootable period) in which flickerless shooting can be realized. ) Is shorter. In order to realize appropriate flickerless shooting, a period in which luminance close to the maximum luminance can be measured is determined as the flickerless shooting period, and shooting is performed in accordance with the period. For this purpose, a period during which the maximum luminance to a predetermined luminance decrease can be measured may be determined as the flickerless shooting period. For example, in the flicker waveform, a period higher than a value lower than the peak by a predetermined value X is determined as the flickerless imaging period. In particular, an appropriate flickerless imaging period can be determined by using an accurate flicker waveform generated by the processing of FIG. If an inaccurate flicker waveform is used, an accurate flickerless shooting period cannot be determined, and the flickerless shooting is not performed even though it is intended to have shot during the flickerless shooting period, or the timing when flickerless shooting can be performed is missed. Therefore, it is important to calculate an accurate flicker waveform using the method described above.
図10は、撮影タイミング制御の処理のフローチャートである。まず、ステップS201では、ICPU112は、図2のフリッカ波形生成処理により、フリッカ波形を生成し取得する。ステップS202以降の処理は、フリッカ波形が取得された後に開始される。 FIG. 10 is a flowchart of the photographing timing control process. First, in step S201, the ICPU 112 generates and acquires a flicker waveform by the flicker waveform generation processing of FIG. The processing after step S202 is started after the flicker waveform is acquired.
ステップS202では、カメラマイコン101は、フリッカレス撮影期間を決定する。カメラマイコン101は、上記したように、ステップS201で得たフリッカ波形において、ピークに対して所定値Xだけ低い値よりも高い期間をフリッカレス撮影期間として決定する(図9(a)参照)。ステップS203以降の処理では、カメラマイコン101は、シャッタ走行期間(すなわちシャッタ開期間、あるいはシャッタ秒時)とフリッカレス撮影期間とを比較し、さらにレリーズ安定タイマを考慮して、実際の撮影タイミングを決定する。 In step S202, the camera microcomputer 101 determines a flickerless shooting period. As described above, the camera microcomputer 101 determines, as the flickerless imaging period, a period higher than the peak by a predetermined value X in the flicker waveform obtained in step S201 (see FIG. 9A). In the processing after step S203, the camera microcomputer 101 compares the shutter travel period (that is, the shutter open period or shutter time) with the flickerless shooting period, and further considers the release stabilization timer to determine the actual shooting timing. decide.
ところで、通常の撮影では、操作部114のレリーズボタンによる撮影動作の開始を指示するSW2のオンからシャッタ104の先幕を走行させるタイミングを、レリーズ安定タイマによって計測する。この時間計測は、SW2のオンからの撮像素子103による撮影タイミングのバラつきが発生しないよう、撮影指示から露光許可までの時間を確保し、安定した時間で撮影できるようにするために行われる。レリーズ安定タイマが満了すると、シャッタ104の先幕が走行し、シャッタ秒時に応じてシャッタ104の後幕が走行することで、撮像素子103による撮影が実現される。しかしながら、フリッカレス撮影ではフリッカレス撮影期間に撮影動作をさせなければ、フリッカの影響を適切に抑制できない。そのため、実際の撮影開始タイミングとレリーズ安定タイマの満了とが極力ずれないようにするのが望ましい。 By the way, in normal shooting, the timing at which the front curtain of the shutter 104 travels from turning on SW2 instructing the start of the shooting operation by the release button of the operation unit 114 is measured by a release stabilization timer. This time measurement is performed in order to secure a time from the photographing instruction to the permission of exposure so that photographing can be performed in a stable time so as not to cause a variation in photographing timing by the image sensor 103 after SW2 is turned on. When the release stabilization timer expires, the front curtain of the shutter 104 travels, and the rear curtain of the shutter 104 travels according to the shutter speed, so that shooting by the image sensor 103 is realized. However, in flickerless shooting, the influence of flicker cannot be suppressed appropriately unless shooting is performed during the flickerless shooting period. For this reason, it is desirable to prevent the actual shooting start timing and the expiration of the release stabilization timer as much as possible.
ステップS203では、カメラマイコン101は、シャッタ走行期間(シャッタ開期間)とフリッカレス撮影期間とを比較し、シャッタ走行期間≦フリッカレス撮影期間が成立するか否かを判別する。シャッタ走行期間(シャッタ開期間)は、図11に示す、先幕走行開始から後幕走行完了までの期間である。その判別の結果、シャッタ走行期間≦フリッカレス撮影期間が成立しない場合は、シャッタ走行期間はフリッカレス撮影期間より長いので、フリッカレス撮影期間内(撮影可能期間内)に収まらない。そこで、カメラマイコン101は、ステップS208へ処理を進め、図11に示すように、シャッタ走行期間の時間的中心とフリッカレス撮影期間の時間的中心とが合うように、シャッタ走行期間の開始タイミングを制御する。図11に示すように、フリッカレス撮影期間の時間的中心に、先幕開始から後幕完了までの時間的中心が一致している。その後、図10の処理は終了する。 In step S203, the camera microcomputer 101 compares the shutter travel period (shutter opening period) with the flickerless shooting period, and determines whether or not the shutter travel period ≦ flickerless shooting period is satisfied. The shutter travel period (shutter opening period) is a period from the start of the front curtain travel to the completion of the rear curtain travel shown in FIG. As a result of the determination, if the shutter running period ≦ flickerless shooting period does not hold, the shutter running period is longer than the flickerless shooting period, and thus does not fall within the flickerless shooting period (shootable period). Therefore, the camera microcomputer 101 advances the process to step S208 and sets the start timing of the shutter travel period so that the time center of the shutter travel period matches the time center of the flickerless shooting period as shown in FIG. Control. As shown in FIG. 11, the time center from the start of the first curtain to the completion of the second curtain coincides with the time center of the flickerless shooting period. Thereafter, the process of FIG. 10 ends.
一方、ステップS203の判別の結果、シャッタ走行期間≦フリッカレス撮影期間が成立する場合は、シャッタ走行期間はフリッカレス撮影期間より長くないので、フリッカレス撮影期間内に収めることが可能である。従って、シャッタ104の先幕の走行開始タイミングによってシャッタ104の後幕の走行完了タイミングがフリッカレス撮影期間内になるのかどうかを判断する必要がある。そこで、カメラマイコン101は、処理をステップS204に進める。 On the other hand, if the result of determination in step S203 is that the shutter running period ≦ flickerless shooting period is satisfied, the shutter running period is not longer than the flickerless shooting period, and therefore can be within the flickerless shooting period. Therefore, it is necessary to determine whether the travel completion timing of the rear curtain of the shutter 104 falls within the flickerless shooting period based on the travel start timing of the front curtain of the shutter 104. Therefore, the camera microcomputer 101 advances the process to step S204.
ステップS204では、カメラマイコン101は、レリーズ安定タイマの満了タイミング、すなわちレリーズ安定期間の満了タイミングが、フリッカレスレス撮影期間内であるか否かを判別する。その判別の結果、レリーズ安定期間の満了タイミングがフリッカレスレス撮影期間内に含まれない場合は、カメラマイコン101は、ステップS207に処理を進める。すなわち、仮に、レリーズ安定タイマの満了タイミングでシャッタ104の先幕を走行させると、シャッタ104の先幕の走行開始タイミングがフリッカレス撮影期間の時間的前方へ外れてしまう。そこで、カメラマイコン101は、ステップS207で、カメラマイコン101は、図12に示すように、シャッタ走行期間の開始タイミングをフリッカレスレス撮影期間の開始タイミングに合わせる。このように制御することで、フリッカレスレス撮影期間内にシャッタ走行期間を収めることができ、レリーズ安定タイマの満了タイミングから実際の撮影開始タイミングまでのずれを最小限に留めることができる。これにより、フリッカ波形の最大輝度に合わせて撮影するよりも、撮影タイミングのずれを小さく抑えることができる。その後、図10の処理は終了する。 In step S204, the camera microcomputer 101 determines whether or not the expiration timing of the release stabilization timer, that is, the expiration timing of the release stabilization period is within the flickerless shooting period. As a result of the determination, if the expiration timing of the release stable period is not included in the flickerless-less shooting period, the camera microcomputer 101 advances the process to step S207. That is, if the front curtain of the shutter 104 travels at the expiration timing of the release stabilization timer, the travel start timing of the front curtain of the shutter 104 deviates forward in the flickerless shooting period. Therefore, in step S207, the camera microcomputer 101 matches the start timing of the shutter travel period with the start timing of the flickerless-less shooting period, as shown in FIG. By controlling in this way, the shutter running period can be included in the flickerless-less shooting period, and the deviation from the expiration timing of the release stabilization timer to the actual shooting start timing can be minimized. Thereby, it is possible to suppress the deviation of the photographing timing to be smaller than when photographing according to the maximum luminance of the flicker waveform. Thereafter, the process of FIG. 10 ends.
ステップS204の判別の結果、レリーズ安定期間の満了タイミングがフリッカレスレス撮影期間内に含まれる場合は、そのままでも本来のレリーズ安定タイマによる撮影タイミングでフリッカレス撮影を実現できる可能性がある。これはシャッタ104の後幕の走行完了タイミングにもよる。そこで、カメラマイコン101は、処理をステップS205に進める。ステップS205では、カメラマイコン101は、レリーズ安定期間の満了タイミングからのシャッタ走行期間がフリッカレス撮影期間内であるか否かを判別する。すなわち、カメラマイコン101は、レリーズ安定期間の満了タイミングからシャッタ走行期間を開始した場合に想定されるシャッタ走行期間の終了タイミングがフリッカレス撮影期間内に含まれるか否かを判別する。 As a result of the determination in step S204, when the expiration timing of the release stabilization period is included in the flickerless less shooting period, there is a possibility that flickerless shooting can be realized at the shooting timing by the original release stabilization timer. This also depends on the travel completion timing of the rear curtain of the shutter 104. Therefore, the camera microcomputer 101 advances the process to step S205. In step S205, the camera microcomputer 101 determines whether or not the shutter travel period from the expiration timing of the release stable period is within the flickerless shooting period. In other words, the camera microcomputer 101 determines whether or not the end timing of the shutter travel period assumed when the shutter travel period starts from the expiration timing of the release stabilization period is included in the flickerless shooting period.
ステップS205の判別の結果、上記想定されるシャッタ走行期間の終了タイミングがフリッカレス撮影期間内に含まれない場合、このままでは、シャッタ104の後幕の走行完了タイミングがフリッカレス撮影期間の時間的後方へ外れてしまう。そこでカメラマイコン101は、処理をステップS207に移行させる。この場合のステップS207では、カメラマイコン101は、シャッタ走行期間の開始タイミングをフリッカレスレス撮影期間の開始タイミングに合わせる。このように制御することで、フリッカレスレス撮影期間内にシャッタ走行期間を収めることができる。 As a result of the determination in step S205, when the expected shutter travel period end timing is not included in the flickerless shooting period, the timing of completion of the rear curtain of the shutter 104 is the time behind the flickerless shooting period. It will come off. Therefore, the camera microcomputer 101 shifts the process to step S207. In step S207 in this case, the camera microcomputer 101 matches the start timing of the shutter travel period with the start timing of the flickerless-less shooting period. By controlling in this way, it is possible to set the shutter travel period within the flickerless shooting period.
一方、ステップS205の判別の結果、上記想定されるシャッタ走行期間の終了タイミングがフリッカレス撮影期間内に含まれる場合、レリーズ安定タイマの完了タイミングで撮影を開始してもフリッカレス撮影を実現することが可能である。そこで、カメラマイコン101は、処理をステップS206に進め、図13に示すように、シャッタ走行期間の開始タイミングをレリーズ安定期間の満了タイミングに合わせる。これにより、本来のレリーズタイムラグのまま実際の撮影が開始される。より詳細には、図13に示すように、カメラマイコン101は、レリーズ安定タイマの満了タイミングでシャッタ104の先幕を走行させ、シャッタ秒時に応じてシャッタ104の後幕を走行させる。すると、シャッタ先幕走行開始タイミングとシャッタ後幕走行完了タイミングの両方が、フリッカレス撮影期間に入っており、撮影タイミングのバラつきを発生させずにフリッカレス撮影を実現できる。その後、図10の処理は終了する。 On the other hand, if the end timing of the assumed shutter travel period is included in the flickerless shooting period as a result of the determination in step S205, flickerless shooting can be realized even if shooting is started at the completion timing of the release stabilization timer. Is possible. Therefore, the camera microcomputer 101 advances the process to step S206, and matches the start timing of the shutter travel period with the expiration timing of the release stable period, as shown in FIG. Thus, actual shooting is started with the original release time lag. More specifically, as shown in FIG. 13, the camera microcomputer 101 causes the front curtain of the shutter 104 to travel at the expiration timing of the release stabilization timer, and causes the rear curtain of the shutter 104 to travel according to the shutter time. Then, both the shutter front curtain travel start timing and the shutter rear curtain travel completion timing are in the flickerless shooting period, and flickerless shooting can be realized without causing variations in shooting timing. Thereafter, the process of FIG. 10 ends.
本実施の形態によれば、フリッカ光源下においてフリッカ波形を精度よく求めることができる。また、図2の処理で求めた正確なフリッカ波形と当該フリッカ波形におけるピークとに基づいてフリッカレス撮影期間(撮影可能期間)が決定されるので、正確な波形に基づき撮影可能期間を決定し、撮影画像の品質を高めることができる。さらに、図10の処理により、シャッタ走行期間(シャッタ開期間)とフリッカレス撮影期間との比較に基づいて、シャッタ走行期間の開始タイミングが制御される。従って、シャッタ走行期間とフリッカレス撮影期間とが重なる実際の撮影期間を長く確保することができる。しかも、さらにレリーズ安定タイマを考慮して、実際の撮影タイミングを決定するので、実際の撮影期間を長く確保すると共に、撮影タイミングのバラつきを抑えることができる。 According to this embodiment, a flicker waveform can be obtained with high accuracy under a flicker light source. In addition, since the flickerless shooting period (shootable period) is determined based on the accurate flicker waveform obtained by the processing of FIG. 2 and the peak in the flicker waveform, the shooting possible period is determined based on the accurate waveform, The quality of the captured image can be improved. Further, the start timing of the shutter travel period is controlled based on the comparison between the shutter travel period (shutter open period) and the flickerless shooting period by the processing of FIG. Therefore, it is possible to ensure a long actual shooting period in which the shutter running period and the flickerless shooting period overlap. In addition, since the actual shooting timing is determined in consideration of the release stabilization timer, it is possible to secure a long actual shooting period and to suppress variations in shooting timing.
なお、図2のステップS106で、除外領域として特定される分割領域の数は1つに限定されず、2つ以上であってもよい。 Note that the number of divided areas identified as excluded areas in step S106 of FIG. 2 is not limited to one, and may be two or more.
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included.
101 カメラマイコン
108 測光センサ
112 ICPU
101 Camera microcomputer 108 Photometric sensor 112 ICPU
Claims (16)
前記撮像素子により取得された複数の画像ごとに測光値を取得する第1の取得手段と、
前記複数の画像から代表画像を選択する選択手段と、
前記選択手段により選択された前記代表画像を、露光タイミングの異なる複数の領域に分割する第1の分割手段と、
前記第1の分割手段により分割された分割領域ごとの測光値を取得する第2の取得手段と、
前記第2の取得手段により取得された分割領域ごとの測光値に基づいて、フリッカ光源下におけるフリッカ波形の生成に際し除外する測光値に対応する分割領域を特定する特定手段と、
前記第1の分割手段により分割された分割領域に対応させて、前記複数の画像のうち前記代表画像以外の画像の各々を、露光タイミングの異なる複数の領域に分割する第2の分割手段と、
前記第2の分割手段により分割された分割領域のうち前記特定手段により特定された分割領域に対応するものを除く分割領域ごとの測光値を取得する第3の取得手段と、
前記代表画像の分割領域ごとの測光値のうち前記除外する測光値を除外した測光値と、前記第3の取得手段により取得された分割領域ごとの測光値とに基づいて、前記フリッカ波形を生成する生成手段と、を有することを特徴とする撮像装置。 An imaging apparatus including an imaging element driven by a rolling shutter system,
First acquisition means for acquiring a photometric value for each of a plurality of images acquired by the imaging device;
Selecting means for selecting a representative image from the plurality of images;
First division means for dividing the representative image selected by the selection means into a plurality of regions having different exposure timings;
Second acquisition means for acquiring a photometric value for each divided area divided by the first dividing means;
A specifying unit for specifying a divided region corresponding to a photometric value to be excluded when generating a flicker waveform under a flicker light source based on a photometric value for each divided region acquired by the second acquiring unit;
A second dividing unit that divides each of the plurality of images other than the representative image into a plurality of regions having different exposure timings in correspondence with the divided regions divided by the first dividing unit;
Third acquisition means for acquiring a photometric value for each divided area excluding one corresponding to the divided area specified by the specifying means among the divided areas divided by the second dividing means;
The flicker waveform is generated based on the photometric value excluding the photometric value to be excluded from the photometric value for each divided area of the representative image and the photometric value for each divided area acquired by the third acquisition unit. And an image generating apparatus.
前記選択手段は、前記生成手段により生成された前記粗波形において変化度合いが最も小さい領域に相当する画像を代表画像として選択することを特徴とする請求項2に記載の撮像装置。 The generating means generates a rough waveform based on a photometric value for each of the plurality of images,
The imaging apparatus according to claim 2, wherein the selection unit selects, as a representative image, an image corresponding to a region having the smallest degree of change in the coarse waveform generated by the generation unit.
前記特定手段は、前記分割領域ごとの測光値のうち前記生成手段により生成された前記粗波形からの乖離が最大となる測光値を、前記除外する測光値と決定することを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。 The generating means generates a rough waveform based on a photometric value for each of the plurality of images,
The determining means determines a photometric value having a maximum deviation from the rough waveform generated by the generating means among the photometric values for each of the divided regions as the excluded photometric value. The imaging device according to any one of 1 to 3.
前記撮像素子により取得された複数の画像ごとに測光値を取得する第1の取得ステップと、
前記複数の画像から代表画像を選択する選択ステップと、
前記選択ステップにより選択された前記代表画像を、露光タイミングの異なる複数の領域に分割する第1の分割ステップと、
前記第1の分割ステップにより分割された分割領域ごとの測光値を取得する第2の取得ステップと、
前記第2の取得ステップにより取得された分割領域ごとの測光値に基づいて、フリッカ光源下におけるフリッカ波形の生成に際し除外する測光値に対応する分割領域を特定する特定ステップと、
前記第1の分割ステップにより分割された分割領域に対応させて、前記複数の画像のうち前記代表画像以外の画像の各々を、露光タイミングの異なる複数の領域に分割する第2の分割ステップと、
前記第2の分割ステップにより分割された分割領域のうち前記特定ステップにより特定された分割領域に対応するものを除く分割領域ごとの測光値を取得する第3の取得ステップと、
前記代表画像の分割領域ごとの測光値のうち前記除外する測光値を除外した測光値と、前記第3の取得ステップにより取得された分割領域ごとの測光値とに基づいて、前記フリッカ波形を生成する生成ステップと、を有することを特徴とする撮像装置の制御方法。 A method for controlling an image pickup apparatus including an image pickup element driven by a rolling shutter method,
A first acquisition step of acquiring a photometric value for each of a plurality of images acquired by the imaging device;
A selection step of selecting a representative image from the plurality of images;
A first division step of dividing the representative image selected in the selection step into a plurality of regions having different exposure timings;
A second acquisition step of acquiring a photometric value for each of the divided areas divided by the first division step;
A specifying step for specifying a divided region corresponding to a photometric value to be excluded when generating a flicker waveform under a flicker light source based on the photometric value for each divided region acquired in the second acquiring step;
A second dividing step of dividing each of the plurality of images other than the representative image into a plurality of regions having different exposure timings in correspondence with the divided regions divided by the first dividing step;
A third acquisition step of acquiring a photometric value for each divided region excluding one corresponding to the divided region specified by the specifying step among the divided regions divided by the second dividing step;
The flicker waveform is generated based on the photometric value excluding the excluded photometric value among the photometric values for each divided area of the representative image and the photometric value for each divided area acquired by the third acquiring step. A method for controlling the imaging apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015229747A JP2017098777A (en) | 2015-11-25 | 2015-11-25 | Imaging apparatus and control method, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015229747A JP2017098777A (en) | 2015-11-25 | 2015-11-25 | Imaging apparatus and control method, and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017098777A true JP2017098777A (en) | 2017-06-01 |
Family
ID=58803947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015229747A Pending JP2017098777A (en) | 2015-11-25 | 2015-11-25 | Imaging apparatus and control method, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017098777A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019116746A1 (en) * | 2017-12-11 | 2019-06-20 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method and image capturing device |
-
2015
- 2015-11-25 JP JP2015229747A patent/JP2017098777A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019116746A1 (en) * | 2017-12-11 | 2019-06-20 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method and image capturing device |
US11375137B2 (en) | 2017-12-11 | 2022-06-28 | Sony Semiconductor Solutions Corporation | Image processor, image processing method, and imaging device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6370134B2 (en) | Imaging device, control method thereof, and control program | |
JP6108946B2 (en) | Imaging apparatus, control method, program, and storage medium | |
US9648249B2 (en) | Image capturing apparatus, method of controlling the same, and storage medium | |
JP6362091B2 (en) | Imaging device, control method thereof, and control program | |
JP6320503B1 (en) | Imaging apparatus, flicker detection method, and program | |
JP6460829B2 (en) | IMAGING DEVICE, ELECTRONIC DEVICE, AND METHOD FOR CALCULATION OF LIGHT CHANGE CHARACTERISTICS | |
JP6391352B2 (en) | Imaging apparatus, control method, program, and storage medium | |
JP6614853B2 (en) | Imaging device, control method thereof, and control program | |
JP2019212989A (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP6501463B2 (en) | Image pickup apparatus and control method thereof | |
JP6391319B2 (en) | Imaging device, control method thereof, and control program | |
JP6541312B2 (en) | Image pickup apparatus and control method thereof | |
JP2017098777A (en) | Imaging apparatus and control method, and program thereof | |
JP6456038B2 (en) | Electronic device, light amount change characteristic calculation method, program, and storage medium | |
JP6505295B2 (en) | Imaging device, control method therefor, and control program | |
JP6598927B2 (en) | Imaging apparatus, control method, program, and storage medium | |
JP6704946B2 (en) | Imaging device, control method, program, and storage medium | |
JP2012063664A (en) | Photometric device and electronic camera | |
JP2018006802A (en) | Imaging apparatus, control method therefor, and program | |
JP2017108336A (en) | Imaging apparatus, control method therefor, and control program | |
JP6768372B2 (en) | Imaging device, its control method, and program | |
JP6739248B2 (en) | Imaging device, control method thereof, and program | |
JP2020072392A (en) | Imaging apparatus, control method of imaging apparatus, and program | |
JP2015220673A (en) | Imaging apparatus, control method, program, and storage medium | |
JP2019220921A (en) | Imaging device, control method thereof, and program |