[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6119235B2 - Imaging control apparatus, imaging system, imaging control method, and program - Google Patents

Imaging control apparatus, imaging system, imaging control method, and program Download PDF

Info

Publication number
JP6119235B2
JP6119235B2 JP2012277659A JP2012277659A JP6119235B2 JP 6119235 B2 JP6119235 B2 JP 6119235B2 JP 2012277659 A JP2012277659 A JP 2012277659A JP 2012277659 A JP2012277659 A JP 2012277659A JP 6119235 B2 JP6119235 B2 JP 6119235B2
Authority
JP
Japan
Prior art keywords
imaging
condition
optical systems
exposure
imaging optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012277659A
Other languages
Japanese (ja)
Other versions
JP2014123797A (en
Inventor
誠 庄原
誠 庄原
今江 望
望 今江
山本 英明
英明 山本
伊藤 洋一
洋一 伊藤
聡 澤口
聡 澤口
竹中 博一
博一 竹中
憲介 増田
憲介 増田
佐藤 裕之
裕之 佐藤
康雄 上田
康雄 上田
亨 原田
亨 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012277659A priority Critical patent/JP6119235B2/en
Publication of JP2014123797A publication Critical patent/JP2014123797A/en
Application granted granted Critical
Publication of JP6119235B2 publication Critical patent/JP6119235B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像制御装置、撮像システム、撮像制御方法およびプログラムに関し、より詳細には、複数の撮像光学系に対する適切な撮像条件を与えることができる撮像制御装置、該撮像制御装置を含む撮像システム、該撮像制御装置が実行する撮像制御方法、および該撮像制御装置を実現するためのプログラムに関する。   The present invention relates to an imaging control device, an imaging system, an imaging control method, and a program, and more specifically, an imaging control device capable of providing appropriate imaging conditions for a plurality of imaging optical systems, and an imaging system including the imaging control device The present invention relates to an imaging control method executed by the imaging control apparatus, and a program for realizing the imaging control apparatus.

魚眼レンズや超広角レンズなどの広角なレンズを複数使用して全方位(以下、全天球という。)を一度に撮像する全天球撮像システムが知られている。上記全天球撮像システムでは、各々のレンズからの像をセンサ面に投影し、得られる各画像を画像処理により結合することで、全天球画像を生成する。例えば、180度を超える画角を有する2つの広角なレンズを用いて、全天球画像を生成することができる。上記画像処理では、各レンズ光学系により撮影された部分画像に対して、歪み補正および射影変換を施し、部分画像に含まれる重複領域を用いて部分画像をつなぎ合わせ、1枚の全天球画像を生成する。   2. Description of the Related Art An omnidirectional imaging system is known that uses a plurality of wide-angle lenses such as fish-eye lenses and super-wide-angle lenses to image omnidirectional (hereinafter referred to as omnidirectional sphere) at once. In the omnidirectional imaging system, an image from each lens is projected onto the sensor surface, and the obtained images are combined by image processing to generate an omnidirectional image. For example, an omnidirectional image can be generated using two wide-angle lenses having an angle of view exceeding 180 degrees. In the image processing, distortion correction and projective transformation are performed on the partial images photographed by each lens optical system, and the partial images are connected using the overlapping regions included in the partial images, thereby producing one omnidirectional image. Is generated.

また、従来、撮像した画像から適正露出を得るデジタルカメラにおける露出補正技術が知られている。この露出補正技術では、各センサから画像を取り込み、画像処理回路ブロックで積算値を演算し、その積算値に基づいて、露出条件を設定している。このため、従来技術では、適切な露出条件を得るためには、数フレーム程度の時間がかかる場合があった。   Conventionally, an exposure correction technique in a digital camera that obtains an appropriate exposure from a captured image is known. In this exposure correction technique, an image is acquired from each sensor, an integrated value is calculated by an image processing circuit block, and an exposure condition is set based on the integrated value. For this reason, in the prior art, in order to obtain appropriate exposure conditions, it may take several frames.

上記したような露出補正の高速化を目的とした技術としては、例えば、特開平11−341342号公報(特許文献1)が知られている。特許文献1の従来技術では、レリーズ操作に応答して、CCD内の電子素子シャッタのシャッタ速度を高速から低速に順次設定して複数の露光検出値を得て、これら露光検出値から最適な露光検出値を選択する構成を採用している。   For example, Japanese Patent Application Laid-Open No. 11-341342 (Patent Document 1) is known as a technique for increasing the speed of exposure correction as described above. In the prior art of Patent Document 1, in response to the release operation, the shutter speed of the electronic element shutter in the CCD is sequentially set from a high speed to a low speed to obtain a plurality of exposure detection values, and an optimum exposure is obtained from these exposure detection values. A configuration for selecting a detection value is adopted.

特許文献1の構成によれば、レリーズ操作開始から本露光に至るまでの処理時間を短縮することができる。しかしながら、本露出の前に、シャッタ速度を高速から低速に順次設定して複数の露光検出値を得る必要がある。また、特に全天球複眼カメラやパノラマ複眼カメラなど複数の撮像光学系を用いる場合、複数のセンサ個々の露出補正に加えて、センサ間での調整を行う必要がある。このため、適切な露出条件を得るためには、より長い時間が必要となる傾向があった。上記特許文献1の従来技術は、単眼の露出制御の高速化を目的としているものの、複眼カメラの高速化を図れるものではなかった。   According to the configuration of Patent Document 1, the processing time from the start of the release operation to the main exposure can be shortened. However, before the main exposure, it is necessary to sequentially set the shutter speed from high to low to obtain a plurality of exposure detection values. In particular, when a plurality of imaging optical systems such as an omnidirectional compound eye camera and a panoramic compound eye camera are used, it is necessary to perform adjustment between the sensors in addition to the exposure correction of each of the plurality of sensors. For this reason, in order to obtain appropriate exposure conditions, a longer time tends to be required. Although the prior art of the above-mentioned Patent Document 1 aims at speeding up the monocular exposure control, it has not been able to speed up the compound eye camera.

本発明は、上記従来技術の問題点に鑑みてなされたものであり、本発明は、複数の撮像光学系を用いた撮像システムにおいて、複数の撮像光学系に対する撮像条件を得るまでに要する時間を短縮することが可能な撮像制御装置、撮像システム、撮像制御方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and in the imaging system using a plurality of imaging optical systems, the present invention takes time required to obtain imaging conditions for the plurality of imaging optical systems. An object is to provide an imaging control device, an imaging system, an imaging control method, and a program that can be shortened.

本発明では、上記課題を解決するために、下記特徴を有する撮像制御装置を提供する。本撮像制御装置は、それぞれ撮像光学系毎に独立して撮像条件を計算する、複数の独立撮像条件計算手段を含む。本撮像制御装置は、さらに、上記独立撮像条件計算手段による計算結果の下、撮像光学系各々により撮像された複数の撮像画像に基づき、撮像光学系間で調整された調整後の撮像条件を計算する調整撮像条件計算手段とを含む。これにより、本撮像制御装置は、複数の撮像光学系に対する撮像条件を与える。     In order to solve the above problems, the present invention provides an imaging control apparatus having the following characteristics. The imaging control apparatus includes a plurality of independent imaging condition calculation means for calculating imaging conditions independently for each imaging optical system. The imaging control apparatus further calculates an adjusted imaging condition adjusted between the imaging optical systems based on a plurality of captured images taken by each imaging optical system based on the calculation result by the independent imaging condition calculation unit. Adjusting imaging condition calculation means. Thereby, this imaging control apparatus gives the imaging condition with respect to several imaging optical system.

上記構成により、複数の撮像光学系を用いた撮像システムにおいて、複数の撮像光学系に対する撮像条件を得るまでに要する時間を短縮することができる。   With the above configuration, in an imaging system using a plurality of imaging optical systems, the time required to obtain imaging conditions for the plurality of imaging optical systems can be shortened.

本実施形態による全天球撮像システムを示す断面図。A sectional view showing an omnidirectional imaging system by this embodiment. 本実施形態による全天球撮像システムのハードウェア構成図。The hardware block diagram of the omnidirectional imaging system by this embodiment. 本実施形態による全天球撮像システムにおける画像処理全体の流れを説明する図。The figure explaining the flow of the whole image processing in the omnidirectional imaging system by this embodiment. (A,B)魚眼レンズで撮影された撮像画像A,Bおよび(C)撮像画像A,Bを合成して得られる合成画像を例示する図。(A, B) The figure which illustrates the synthesized image obtained by synthesize | combining the captured images A and B image | photographed with the fisheye lens, and (C) the captured images A and B. 撮像画像の領域分割方式を模式的に説明する図。The figure which illustrates typically the area | region division system of a captured image. 本実施形態による撮像システムが実行する、露出制御のメインフローを示すフローチャート。6 is a flowchart showing a main flow of exposure control executed by the imaging system according to the present embodiment. 本実施形態の撮像システムが実行する、複眼適正露出計算処理を示すフローチャート。The flowchart which shows the compound eye appropriate exposure calculation process which the imaging system of this embodiment performs. 照度値を露出目標レベルに対応付ける関数を示す図。The figure which shows the function which matches an illumination value with an exposure target level. 特定の実施形態において、全天球撮像システム10で撮像された複数の撮像画像における、両センサ間で互い対応付けられる分割領域を説明する図。The figure explaining the divided area mutually matched between both sensors in a plurality of picked-up images imaged with omnidirectional imaging system 10 in a specific embodiment. 本実施形態の撮像システムにおいて実行される露出制御を示すシーケンス図。The sequence diagram which shows the exposure control performed in the imaging system of this embodiment.

以下、実施形態について説明するが、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、撮像制御装置の一例として、2つの魚眼レンズを光学系に含む撮像体を備えるとともに、2つの魚眼レンズで撮像された撮像画像に基づいて撮像条件を決定する機能を備えた、全天球撮像システム10を用いて説明する。つまり、全天球撮像システム10は、3つ以上の魚眼レンズを光学系に含む撮像体を備えるとともに、3つ以上の魚眼レンズで撮像された撮像画像に基づいて撮像条件を決定する機能を備えていてもよい。なお、説明する実施形態では、魚眼レンズは、広角レンズや、超広角レンズと呼ばれるものを含むものとする。   Hereinafter, although embodiment is described, it is not limited to embodiment described below. In the following embodiments, as an example of an imaging control device, an imaging body including two fisheye lenses in an optical system is provided, and a function for determining imaging conditions based on a captured image captured by two fisheye lenses is provided. A description will be given using the omnidirectional imaging system 10. That is, the omnidirectional imaging system 10 includes an imaging body that includes three or more fisheye lenses in an optical system, and has a function of determining imaging conditions based on captured images captured by three or more fisheye lenses. Also good. In the embodiment to be described, the fisheye lens includes a so-called wide-angle lens or a super-wide-angle lens.

以下、図1および図2を参照しながら、本実施形態による全天球撮像システムの全体構成について説明する。図1は、本実施形態による全天球撮像システム(以下、単に、撮像システムと参照する。)10を示す断面図である。図1に示す撮像システム10は、撮像体12と、上記撮像体12および図示しないコントローラやバッテリなどの部品を保持する筐体14と、上記筐体14に設けられたシャッター・ボタン18とを備える。   Hereinafter, the overall configuration of the omnidirectional imaging system according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a sectional view showing an omnidirectional imaging system (hereinafter simply referred to as an imaging system) 10 according to the present embodiment. An imaging system 10 shown in FIG. 1 includes an imaging body 12, a casing 14 that holds the imaging body 12 and components such as a controller and a battery (not shown), and a shutter button 18 provided on the casing 14. .

図1に示す撮像体12は、2つの結像光学系20A,20Bと、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの2つの固体撮像素子22A,22Bとを含む。本実施形態において、結像光学系20と固体撮像素子22とを1個ずつ組み合わせたものを撮像光学系と参照する。結像光学系20は、それぞれ、例えば6群7枚で魚眼レンズとして構成することができる。上記魚眼レンズは、図1に示す実施形態では、180度(=360度/n;n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。   The imaging body 12 shown in FIG. 1 includes two imaging optical systems 20A and 20B and two solid-state imaging devices 22A and 22B such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor. In the present embodiment, a combination of the imaging optical system 20 and the solid-state imaging device 22 one by one is referred to as an imaging optical system. The imaging optical system 20 can be configured as a fish-eye lens, for example, with 7 elements in 6 groups. In the embodiment shown in FIG. 1, the fisheye lens has a total angle of view greater than 180 degrees (= 360 degrees / n; n = 2), and preferably has an angle of view of 185 degrees or more. Has an angle of view of 190 degrees or more.

2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、その光軸が、対応する固体撮像素子22の受光領域の中心部に直交して位置するように固体撮像素子22A,22Bに対して位置関係が定められる。光学素子は、同時に、受光領域が、対応する魚眼レンズの結像面となるように位置決めされる。固体撮像素子22は、それぞれ、受光領域が面積エリアを成す2次元の撮像素子であり、組み合わせられる結像光学系20により集光された光を画像信号に変換する。   The optical elements (lens, prism, filter, and aperture stop) of the two imaging optical systems 20A and 20B are solid so that their optical axes are positioned orthogonal to the center of the light receiving region of the corresponding solid-state imaging element 22. A positional relationship is determined with respect to the imaging elements 22A and 22B. At the same time, the optical element is positioned so that the light receiving area is the image plane of the corresponding fisheye lens. Each of the solid-state imaging devices 22 is a two-dimensional imaging device in which a light receiving region forms an area area, and converts light collected by the combined imaging optical system 20 into an image signal.

図1に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するように、互いに逆向きに組み合わせられる。固体撮像素子22A,22Bは、受光した光分布を画像信号に変換して、図示しないコントローラ上の画像処理手段に出力する。画像処理手段では、固体撮像素子22A,22Bからそれぞれ入力される撮像画像をつなぎ合わせて合成し、立体角4πラジアンの画像(以下「全天球画像」と参照する。)を生成する。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。ここで、図1に示す実施形態では、全天球画像を生成しているが、水平面のみ360度を撮影した、いわゆるパノラマ画像であってもよい。   In the embodiment shown in FIG. 1, the imaging optical systems 20A and 20B have the same specifications, and are combined in opposite directions so that their optical axes match. The solid-state imaging elements 22A and 22B convert the received light distribution into image signals and output them to image processing means on a controller (not shown). In the image processing means, the captured images respectively input from the solid-state imaging devices 22A and 22B are connected and combined to generate an image with a solid angle of 4π radians (hereinafter referred to as “global celestial image”). The omnidirectional image is an image of all directions that can be seen from the shooting point. Here, in the embodiment shown in FIG. 1, the omnidirectional image is generated, but a so-called panoramic image obtained by photographing 360 degrees only on the horizontal plane may be used.

上述したように、魚眼レンズが180度を超える全画角を有するため、全天球画像を構成する際には、各撮像光学系で撮像した撮影画像において、重複する画像部分が、同一像を表す基準データとして画像つなぎ合わせの参考とされる。生成された全天球画像は、例えば、撮像システム10が備え、または外部接続される、ディスプレイ装置、印刷装置、SD(登録商標)カードやコンパクトフラッシュ(登録商標)などの外部記憶媒体などに出力される。   As described above, since the fisheye lens has a full angle of view exceeding 180 degrees, when composing an omnidirectional image, overlapping image portions represent the same image in the captured images captured by the respective imaging optical systems. It is used as reference data for image stitching as reference data. The generated omnidirectional image is output to, for example, an external storage medium such as a display device, a printing device, an SD (registered trademark) card, or a compact flash (registered trademark) that is included in or externally connected to the imaging system 10. Is done.

図2は、本実施形態による撮像システム10のハードウェア構成を示す。撮像システム10は、デジタル・スチルカメラ・プロセッサ(以下、単にプロセッサと参照する。)100と、鏡胴ユニット102と、プロセッサ100に接続される種々のコンポーネントとを含み構成される。鏡胴ユニット102は、上述した2組のレンズ光学系20A,20Bと、固体撮像素子22A,22Bとを含む。固体撮像素子22は、プロセッサ100内の後述するCPU130からの制御指令により制御される。   FIG. 2 shows a hardware configuration of the imaging system 10 according to the present embodiment. The imaging system 10 includes a digital still camera processor (hereinafter simply referred to as a processor) 100, a lens barrel unit 102, and various components connected to the processor 100. The lens barrel unit 102 includes the above-described two sets of lens optical systems 20A and 20B and the solid-state imaging elements 22A and 22B. The solid-state imaging device 22 is controlled by a control command from a CPU 130 described later in the processor 100.

プロセッサ100は、ISP(Image Signal Processor)108と、DMAC(Direct Memory Access Controller)110と、メモリアクセスの調停のためのアービタ(ARBMEMC)112と、メモリアクセスを制御するMEMC(Memory Controller)114と、歪曲補正・画像合成ブロック118とを含む。ISP108A,108Bは、それぞれ、固体撮像素子22A,22Bの信号処理を経て入力された画像に対し、自動露出(AE:Automatic Exposure)制御、ホワイトバランス設定やガンマ設定を行う。   The processor 100 includes an ISP (Image Signal Processor) 108, a DMAC (Direct Memory Access Controller) 110, an arbiter (ARBMEMC) 112 for arbitrating memory access, a MEMC (Memory Controller) 114 for controlling memory access, And a distortion correction / image synthesis block 118. The ISPs 108A and 108B perform automatic exposure (AE) control, white balance setting, and gamma setting on images input through signal processing of the solid-state imaging devices 22A and 22B, respectively.

MEMC114には、SDRAM116が接続される。SDRAM116には、ISP108A,180Bおよび歪曲補正・画像合成ブロック118において処理を施す際に、データが一時的に保存される。歪曲補正・画像合成ブロック118は、2つの撮像光学系から得られた2つの撮影画像に対し、3軸加速度センサ120からの情報を利用し、歪曲補正とともに天地補正を施し、画像合成する。   The SDRAM 116 is connected to the MEMC 114. Data is temporarily stored in the SDRAM 116 when processing is performed in the ISPs 108A and 180B and the distortion correction / image synthesis block 118. The distortion correction / image synthesis block 118 uses the information from the triaxial acceleration sensor 120 for two captured images obtained from the two imaging optical systems, performs distortion correction and top / bottom correction, and synthesizes the images.

プロセッサ100は、さらに、DMAC122と、画像処理ブロック124と、CPU130と、画像データ転送部126と、SDRAMC128と、メモリカード制御ブロック140と、USBブロック146と、ペリフェラル・ブロック150と、音声ユニット152と、シリアルブロック158と、LCDドライバ162と、ブリッジ168とを含む。   The processor 100 further includes a DMAC 122, an image processing block 124, a CPU 130, an image data transfer unit 126, an SDRAM C 128, a memory card control block 140, a USB block 146, a peripheral block 150, and an audio unit 152. Serial block 158, LCD driver 162, and bridge 168.

CPU130は、当該撮像システム10の各部の動作を制御する。画像処理ブロック124は、画像データに対し各種画像処理を施す。リサイズブロック132は、画像データのサイズを補間処理により拡大または縮小するためのブロックである。JPEGブロック134は、JPEG圧縮および伸張を行うコーデック・ブロックである。H.264ブロック136は、H.264などの動画圧縮および伸張を行うコーデック・ブロックである。画像データ転送部126は、画像処理ブロック124で画像処理された画像を転送する。SDRAMC128は、プロセッサ100に接続されるSDRAM138を制御する。SDRAM138には、プロセッサ100内で画像データに各種処理を施す際に、画像データが一時的に保存される。   The CPU 130 controls the operation of each unit of the imaging system 10. The image processing block 124 performs various image processing on the image data. The resize block 132 is a block for enlarging or reducing the size of the image data by interpolation processing. The JPEG block 134 is a codec block that performs JPEG compression and expansion. H. H.264 block 136 is an H.264 block. It is a codec block that performs video compression and decompression such as H.264. The image data transfer unit 126 transfers the image processed by the image processing block 124. The SDRAM C 128 controls the SDRAM 138 connected to the processor 100. The SDRAM 138 temporarily stores image data when various processes are performed on the image data in the processor 100.

メモリカード制御ブロック140は、メモリカードスロット142に挿入されたメモリカードおよびフラッシュROM144に対する読み書きを制御する。メモリカードスロット142は、撮像システム10にメモリカードを着脱可能に装着するためのスロットである。USBブロック146は、USBコネクタ148を介して接続される、パーソナル・コンピュータなどの外部機器とのUSB通信を制御する。ペリフェラル・ブロック150には、電源スイッチ166が接続される。   The memory card control block 140 controls reading and writing with respect to the memory card inserted into the memory card slot 142 and the flash ROM 144. The memory card slot 142 is a slot for detachably attaching a memory card to the imaging system 10. The USB block 146 controls USB communication with an external device such as a personal computer connected via the USB connector 148. A power switch 166 is connected to the peripheral block 150.

音声ユニット152は、ユーザが音声信号を入力するマイク156と、記録された音声信号を出力するスピーカ154とに接続され、音声入出力を制御する。シリアルブロック158は、パーソナル・コンピュータなどの外部機器とのシリアル通信を制御し、無線NIC(Network Interface Card)160が接続される。LCD(Liquid Crystal Display)ドライバ162は、LCDモニタ164を駆動するドライブ回路であり、LCDモニタ164に各種状態を表示するための信号に変換する。   The audio unit 152 is connected to a microphone 156 from which a user inputs an audio signal and a speaker 154 from which a recorded audio signal is output, and controls audio input / output. The serial block 158 controls serial communication with an external device such as a personal computer, and is connected with a wireless NIC (Network Interface Card) 160. An LCD (Liquid Crystal Display) driver 162 is a drive circuit that drives the LCD monitor 164, and converts it into signals for displaying various states on the LCD monitor 164.

フラッシュROM144には、CPU130が解読可能なコードで記述された制御プログラムや各種パラメータが格納される。電源スイッチ166の操作によって電源がオン状態になると、上記制御プログラムがメインメモリにロードされる。CPU130は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをSDRAM138と、図示しないローカルSRAMとに一時的に保存する。   The flash ROM 144 stores a control program and various parameters described by codes that can be read by the CPU 130. When the power is turned on by operating the power switch 166, the control program is loaded into the main memory. The CPU 130 controls the operation of each part of the apparatus according to a program read into the main memory, and temporarily stores data necessary for control in the SDRAM 138 and a local SRAM (not shown).

図3は、本実施形態による撮像システム10における画像処理全体の流れを説明する図である。また、図3には、本実施形態において撮像条件を制御するための主要な機能ブロックが示されている。まず、固体撮像素子22A,22Bを含む各センサ200A,200B各々によって、所定の露出条件パラメータの下、画像が撮像される。続いて、センサ200A,200B各々から出力された画像に対し、図2に示したISP108により、処理1で示されるオプティカル・ブラック補正処理、欠陥画素補正処理、リニア補正処理、シェーディング処理および領域分割処理が行われ、メモリに保存される。   FIG. 3 is a diagram illustrating the overall flow of image processing in the imaging system 10 according to the present embodiment. FIG. 3 shows main functional blocks for controlling imaging conditions in the present embodiment. First, an image is captured under a predetermined exposure condition parameter by each of the sensors 200A and 200B including the solid-state imaging elements 22A and 22B. Subsequently, an optical black correction process, a defective pixel correction process, a linear correction process, a shading process, and an area division process shown in process 1 are performed on the images output from the sensors 200A and 200B by the ISP 108 shown in FIG. Is stored in memory.

上記オプティカル・ブラック補正処理は、固体撮像素子22におけるオプティカル・ブラック領域の出力信号を黒の基準レベルとして、有効画素領域の出力信号をクランプ補正する処理である。CMOSなどの固体撮像素子は、半導体基板上に多数の感光素子を形成することにより製造されるところ、その製造に際して半導体基板に不純物が混入する等の理由により、局所的に画素値の取り込みが不能な欠陥画素が発生する場合がある。欠陥画素補正処理は、上述のような欠陥画素に隣接した複数の画素からの合成信号に基づいてその欠陥画素の画素値を補正する処理である。   The optical black correction process is a process in which the output signal of the effective pixel area is clamp-corrected with the output signal of the optical black area in the solid-state image sensor 22 as the black reference level. A solid-state imaging device such as a CMOS is manufactured by forming a large number of photosensitive elements on a semiconductor substrate, and pixel values cannot be captured locally because impurities are mixed into the semiconductor substrate during the manufacturing. Defective pixels may occur. The defective pixel correction process is a process of correcting the pixel value of the defective pixel based on the combined signal from a plurality of pixels adjacent to the defective pixel as described above.

リニア補正処理は、RGB毎にリニア補正を施す処理である。シェーディング補正処理は、所定の補正係数を有効画素領域の出力信号に乗じることで、有効画素領域の陰影の歪みを補正する処理である。領域分割処理は、撮像画像を構成する画像領域を複数領域に分割し、分割領域毎に積算値(または積算平均値。後述する。)を算出する処理を行う。分割領域毎の積算値は、説明する実施形態では、輝度の形式で算出されており、典型的には、経験則から導き出された係数を用いてR(赤)値、G(緑)値およびB(青)値の加重平均により行われる。   The linear correction process is a process for performing linear correction for each RGB. The shading correction process is a process for correcting the distortion of the shadow of the effective pixel region by multiplying the output signal of the effective pixel region by a predetermined correction coefficient. In the area dividing process, an image area constituting the captured image is divided into a plurality of areas, and an integrated value (or integrated average value, which will be described later) is calculated for each divided area. In the embodiment to be described, the integrated value for each divided region is calculated in the form of luminance, and typically, an R (red) value, a G (green) value, and a coefficient derived from an empirical rule are used. This is done by a weighted average of B (blue) values.

ISP108によって処理1が完了すると、続いて、ISP108により、さらに、処理2で示されるホワイトバランス処理、ガンマ補正処理、ベイヤー補間処理、YUV変換処理、エッジ強調処理および色補正処理が行われ、メモリに保存される。固体撮像素子22上のカラーフィルタの色によって透過する光量が変化するところ、ホワイトバランス処理は、R、GおよびBの各色の感度差を補正し、撮影画像の中の白色を白く見せるためゲインを設定する処理である。上記領域分割平均処理により計算された分割領域毎のRGBの積算値(または積算平均値)データに基づき、ホワイトバランス計算部220により、ホワイトバランス処理のパラメータが計算される。ガンマ補正処理は、出力装置の特性を考慮して、出力が線形性を保つように入力信号に行う処理である。   When the processing 1 is completed by the ISP 108, the ISP 108 further performs white balance processing, gamma correction processing, Bayer interpolation processing, YUV conversion processing, edge enhancement processing, and color correction processing shown in processing 2, and stores them in the memory. Saved. Where the amount of light transmitted varies depending on the color of the color filter on the solid-state image sensor 22, the white balance process corrects the sensitivity difference between the R, G, and B colors, and increases the gain to make white in the captured image appear white. It is a process to set. Based on the RGB integrated value (or integrated average value) data for each divided area calculated by the area dividing average process, the white balance calculating unit 220 calculates white balance processing parameters. The gamma correction process is a process performed on the input signal so that the output maintains linearity in consideration of the characteristics of the output device.

また、CMOSでは、固体撮像素子22の1画素にR、GおよびBのいずれか1色のカラーフィルタが貼付されているところ、ベイヤー補間処理は、不足する2色を周辺の画素から補間する補間処理である。YUV変換処理は、RGBデータ形式のRAWデータから輝度信号Yと色差信号UVのYUVデータ形式に変換する処理である。エッジ強調処理は、画像の輝度信号からエッジ部分を抽出し、エッジに対してゲインを掛け、エッジ抽出と並行して画像のノイズを除去する処理を行う。色補正処理は、彩度設定、色相設定、部分的な色相変更設定、色抑圧設定を行う。   In addition, in CMOS, a color filter of any one of R, G, and B is attached to one pixel of the solid-state imaging device 22, and Bayer interpolation processing is an interpolation that interpolates two insufficient colors from surrounding pixels. It is processing. The YUV conversion process is a process for converting the RAW data in the RGB data format into the YUV data format of the luminance signal Y and the color difference signal UV. In the edge enhancement process, an edge part is extracted from the luminance signal of the image, a gain is applied to the edge, and noise of the image is removed in parallel with the edge extraction. In the color correction process, saturation setting, hue setting, partial hue change setting, and color suppression setting are performed.

2つのセンサ200A,200B各々について上述した処理が完了すると、上記処理が施された各撮像画像に対し、歪曲補正および合成処理が行われ、適宜タグ付けされて、全天球画像が内蔵メモリまたは外部ストレージにファイル保存される。上記歪曲補正および合成処理の過程では、3軸加速度センサ120からの情報を得て傾き天地補正が行われてもよい。また、保存される画像ファイルには、適宜圧縮処理が施されてもよい。その他、クロップ処理が行われて、画像の中心領域を切り抜くことでサムネイル画像が生成されてもよい。   When the above-described processing is completed for each of the two sensors 200A and 200B, distortion correction and synthesis processing are performed on each captured image that has been subjected to the above-described processing, appropriately tagged, and the spherical image is stored in the built-in memory or Files are saved to external storage. In the process of the distortion correction and the synthesis process, the inclination upside down correction may be performed by obtaining information from the triaxial acceleration sensor 120. Further, the stored image file may be appropriately compressed. In addition, a thumbnail image may be generated by cropping and cutting out the central area of the image.

上述した画像処理全体の流れにおいて、センサ200A,200Bに対する露出条件パラメータは、センサ200の出力を利用した露出制御により決定される。撮像システム10では、備え付けられ、あるいは外部接続される液晶モニタやEVF(Electronic View Finder)に撮像画像を表示するために、常時、センサ200からの画像信号が読み出されている。自動露出制御では、読み出された画像信号に基づき測光し、レベルが適正かどうかを判断し、その結果に応じて、絞り値(F値)、露光時間(シャッタ・スピード)、アンプゲイン(ISO感度)などの露出条件パラメータを修正する。そして、このフローがフレーム毎に繰り返されることによって、適正露出が得られる。   In the overall flow of image processing described above, the exposure condition parameters for the sensors 200A and 200B are determined by exposure control using the output of the sensor 200. In the imaging system 10, in order to display a captured image on a liquid crystal monitor or EVF (Electronic View Finder) that is provided or externally connected, an image signal from the sensor 200 is always read out. In the automatic exposure control, photometry is performed based on the read image signal to determine whether the level is appropriate, and in accordance with the result, the aperture value (F value), exposure time (shutter speed), amplifier gain (ISO) Modify exposure condition parameters such as sensitivity. And this flow is repeated for every frame, and appropriate exposure is obtained.

一方、図1に示すような全天球撮像システム10を用いて全方位の撮影を行う場合、2つの撮像光学系により2つの撮像画像が生成される。このとき、全天球撮像システム10は、通常の単眼カメラなどに比較して、撮影範囲が広く、光源が直接写り込む場合が多くなる。撮影シーンに太陽などの高輝度体が写り込むと、多重反射等に起因して、図4(A)および(B)に例示するように、一方の撮像光学系の撮像画像にフレアが生じ、フレアが高輝度体を中心に面全体に広がる可能性がある。このような場合、両眼の露出制御が難しくなるとともに、合成画像において、図4(C)に示すように、一方のオフセットの上昇に起因し、片方だけの画像の全体的なコントラストが低下し、継ぎ目部分に明るさの違いが生じてしまい、全天球画像の画像品質が損なわれてしまう。また、複数の撮影画像のつなぎ目となる重複領域に、露出補正に適切な物体が存在しない場合(極端に黒い被写体や白い被写体が存在する場合など)も想定される。   On the other hand, when omnidirectional imaging is performed using the omnidirectional imaging system 10 as shown in FIG. 1, two captured images are generated by the two imaging optical systems. At this time, the omnidirectional imaging system 10 has a wider imaging range and more often a direct light source is captured as compared to a normal monocular camera or the like. When a high-luminance body such as the sun is reflected in the shooting scene, flare occurs in the captured image of one imaging optical system, as illustrated in FIGS. 4A and 4B, due to multiple reflections and the like. There is a possibility that the flare spreads over the entire surface centering on the high-luminance body. In such a case, exposure control for both eyes becomes difficult, and in the composite image, as shown in FIG. 4C, due to an increase in one offset, the overall contrast of only one image decreases. As a result, a difference in brightness occurs in the joint portion, and the image quality of the omnidirectional image is impaired. In addition, there may be a case where an object suitable for exposure correction does not exist in an overlapping region serving as a joint between a plurality of captured images (such as an extremely black subject or a white subject).

したがって、上述した全天球撮像システム10といった複数の撮像光学系を用いるシステムでは、個々のセンサで適正露出を得るように制御すると共に、センサ間で明るさの不連続が無くなるように露出条件を調整する必要がある。この露出制御の複雑性に起因して、複眼システム全体として適切な露出条件パラメータを得るために、単眼システムに比較して、より多くのフレーム数を必要とし、より長い時間がかかる傾向にある。   Therefore, in a system using a plurality of imaging optical systems, such as the omnidirectional imaging system 10 described above, the exposure conditions are controlled so that proper exposure is obtained by individual sensors and brightness discontinuity is eliminated between the sensors. It needs to be adjusted. Due to the complexity of this exposure control, in order to obtain appropriate exposure condition parameters for the compound eye system as a whole, a larger number of frames are required and a longer time is required compared to a monocular system.

そこで、本実施形態による撮像システム10では、上記適正露出を得るまでの時間の短縮を図るべく、多段階の露出制御を採用する。すなわち、本撮像システム10では、センサ毎に独立した露出制御を行う前段露出条件制御部202A,202Bと、複数のセンサ全体で調整された露出制御を行う後段露出条件制御部210とによって、個々のセンサの露出条件パラメータが決定される。好適な実施形態では、前段露出条件制御部202A,202Bにより個々のセンサの露出条件の計算が収束した時点から、後段露出条件制御部210による複数センサ間の調整を開始することができる。   Therefore, the imaging system 10 according to the present embodiment employs multi-stage exposure control in order to shorten the time required to obtain the appropriate exposure. That is, in the present imaging system 10, individual exposure control units 202A and 202B that perform independent exposure control for each sensor and a subsequent exposure condition control unit 210 that performs exposure control adjusted by the plurality of sensors as a whole are used. A sensor exposure condition parameter is determined. In the preferred embodiment, the adjustment between the plurality of sensors by the rear exposure condition control unit 210 can be started from the time when the calculation of the exposure conditions of the individual sensors has converged by the front exposure condition control units 202A and 202B.

前段露出条件制御部202A,202Bは、センサ200A,200B毎にセンサ内に設けられ、各センサ毎に独立して露出条件パラメータを計算し、自身のレジスタに設定する。前段露出条件制御部202A,202Bが採用する露出制御方式は、特に限定されるものではなく、例えば撮像画像を用いる露出補正方式とすることができる。前段露出条件制御部202の露出制御は、少なくとも、撮像光学系毎に独立して露出条件パラメータが計算されるという点で、複数の撮像光学系間で調整されて行われる露出制御と比較し簡略化されている。前段露出条件制御部202A,202Bは、それぞれ、本実施形態において、撮像光学系毎に独立して撮像条件を計算する独立撮像条件計算手段を構成する。   The pre-stage exposure condition control units 202A and 202B are provided in the sensors for the respective sensors 200A and 200B, calculate the exposure condition parameters independently for each sensor, and set them in their own registers. The exposure control method employed by the pre-stage exposure condition control units 202A and 202B is not particularly limited, and may be an exposure correction method using a captured image, for example. The exposure control of the pre-stage exposure condition control unit 202 is simpler than exposure control performed by adjusting between a plurality of imaging optical systems at least in that the exposure condition parameters are calculated independently for each imaging optical system. It has become. In the present embodiment, the front-stage exposure condition control units 202A and 202B constitute independent imaging condition calculation means for calculating the imaging conditions independently for each imaging optical system.

後段露出条件制御部210は、前段露出条件制御部202A,202Bによる計算結果の下、センサ200A,200B各々によって撮像された複数の撮像画像に基づき、センサ間で調整された、個々のセンサの露出条件パラメータを計算する。計算された調整後の露出条件パラメータは、各センサの露出条件レジスタ設定部204A,204Bにより、各センサのレジスタに設定される。後段露出条件制御部210は、本実施形態における調整撮像条件計算手段を構成する。なお、後段露出条件制御部210は、ISP108およびCPU130などにより実現することができる。   The rear exposure condition control unit 210 adjusts the exposure of individual sensors adjusted between the sensors based on a plurality of captured images captured by the sensors 200A and 200B based on the calculation results of the front exposure condition control units 202A and 202B. Calculate condition parameters. The calculated exposure condition parameter after adjustment is set in the register of each sensor by the exposure condition register setting unit 204A, 204B of each sensor. The post-exposure condition control unit 210 constitutes an adjustment imaging condition calculation unit in the present embodiment. The post-exposure condition control unit 210 can be realized by the ISP 108, the CPU 130, and the like.

後段露出条件制御部210は、より詳細には、前段安定判定部212と、両センサ200A,200Bの重複部分の画像の明るさが合うように調整された、露出条件パラメータを計算する複眼条件計算部214とを含み構成される。後段露出条件制御部210には、前段露出条件制御部202A,202B各々から、センサ毎に独立して計算された露出条件パラメータが入力される。前段安定判定部212は、前段露出条件制御部202A,202B各々により計算された露出条件の変化が所定の収束条件の範囲内に収まったか否かを判定し、その範囲内に収まったことを待って、複眼条件計算部214を呼び出す。上記収束条件は、露出条件パラメータの変化(従前の露出補正値と新しく取得した露出補正値との差分)が小さくなり、安定化されたことを検知するための基準であり、例えばベンダ側で実験等に基づいて予め定められる。   More specifically, the post-exposure condition control unit 210 calculates compound exposure condition parameters that are adjusted so that the brightness of the overlapped portion of the sensors 200A and 200B matches that of the pre-stage stability determination unit 212. Part 214. The exposure condition parameter calculated independently for each sensor is input to the rear exposure condition control unit 210 from each of the previous exposure condition control units 202A and 202B. The pre-stage stability determination unit 212 determines whether or not the change in the exposure condition calculated by each of the pre-stage exposure condition control units 202A and 202B falls within a predetermined convergence condition range, and waits for the change to fall within the range. Then, the compound eye condition calculation unit 214 is called. The convergence condition is a standard for detecting that the change in exposure condition parameter (the difference between the previous exposure correction value and the newly acquired exposure correction value) has become smaller and stabilized, and for example, an experiment is performed on the vendor side. Etc. based on the above.

複眼条件計算部214は、上記前段安定判定部212により、安定化されたと判定された場合に、上記前段露出条件制御部202A,202Bが計算した露出条件パラメータを初期条件として、調整にかかる計算を開始する。後段露出条件制御部210による制御が有効である期間中、前段露出条件制御部202A,202Bの計算は無効化される。一方、特定の実施形態において、複眼条件計算部214による計算の結果、不適当な露出条件の計算結果を示す事前定義された条件が成立した場合には、再び前段露出条件制御部202A,202Bによる計算に戻される。不適当な露出条件としては、少なくともいずれか一方が黒飽和または白飽和してしまった場合などを挙げることができる。   The compound eye condition calculation unit 214 performs calculation for adjustment using the exposure condition parameters calculated by the preceding stage exposure condition control units 202A and 202B as initial conditions when the preceding stage stability determination unit 212 determines that the stabilization has been achieved. Start. During the period when the control by the rear exposure condition control unit 210 is valid, the calculations of the front exposure condition control units 202A and 202B are invalidated. On the other hand, in a specific embodiment, when the pre-defined condition indicating the calculation result of the inappropriate exposure condition is satisfied as a result of the calculation by the compound eye condition calculation unit 214, the pre-stage exposure condition control units 202A and 202B again Return to calculation. Examples of inappropriate exposure conditions include a case where at least one of them is black saturated or white saturated.

また、ISP108による処理1では、領域分割処理により、各センサにより撮像された各撮像画像を構成する分割領域毎に積算値が計算され、領域分割積算データとして後段露出条件制御部210に入力される。図5は、撮像画像の領域分割方式を例示する図である。本実施形態において、結像光学系20に入射した光は、等距離射影方式などの所定の投影モデルに従って、固体撮像素子22の受光領域に結像される。撮像画像は、受光領域が面積エリアを成す2次元の固体撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。   Further, in process 1 by the ISP 108, an integrated value is calculated for each divided area constituting each captured image captured by each sensor by the area dividing process, and is input to the subsequent exposure condition control unit 210 as area divided integrated data. . FIG. 5 is a diagram illustrating an example of a region division method for a captured image. In the present embodiment, the light incident on the imaging optical system 20 is imaged on the light receiving region of the solid-state imaging device 22 according to a predetermined projection model such as an equidistant projection method. The picked-up image is picked up by a two-dimensional solid-state image pickup device in which the light receiving region forms an area area, and is image data expressed in a plane coordinate system.

また説明する実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成を採用するものとする。よって、得られる撮像画像各々は、図4(A)および(B)に示すような各撮影範囲が投影されたイメージサークル全体を含む平面画像となる。   In the embodiment to be described, a so-called circumferential fisheye lens configuration in which an image circle diameter is smaller than an image diagonal line is adopted. Therefore, each obtained captured image becomes a planar image including the entire image circle on which each imaging range is projected as shown in FIGS. 4 (A) and 4 (B).

本実施形態では、撮像画像の全領域を、図5(A)に示すような極座標系(動径rおよび偏角θを用いた円座標系)での小領域、または図5(B)に示すような直交座標系(x座標およびy座標を用いた平面座標系)での小領域に分割し、それぞれ分割領域とする。イメージサークルの外は、露光されない遮光領域であるので、特に限定されるものではないが、積算および平均の対象から除外してもよい。   In the present embodiment, the entire region of the captured image is a small region in a polar coordinate system (a circular coordinate system using the radius r and the declination θ) as shown in FIG. 5A, or in FIG. It divides | segments into the small area | region in the orthogonal coordinate system (The plane coordinate system using x coordinate and y coordinate) as shown, and let it be a division area, respectively. The outside of the image circle is a light-shielding region that is not exposed, and is not particularly limited, but may be excluded from the target of integration and averaging.

上記ISP108による領域分割処理では、図5(A)または(B)に例示するような態様で、撮像画像各々を複数の小領域に分割して、それぞれの小領域毎に、画素の輝度値の積算値または積算平均値が計算される。積算値は、分割された小領域内の全画素の輝度値を積算した値であり、一方、積算平均値は、輝度積算値を各小領域の面積(小領域を構成する画素数(遮光領域を除いてもよい。))で規格化した値である。   In the area dividing process by the ISP 108, the captured image is divided into a plurality of small areas in the manner illustrated in FIG. 5A or 5B, and the luminance value of the pixel is determined for each small area. The integrated value or integrated average value is calculated. The integrated value is a value obtained by integrating the luminance values of all the pixels in the divided small area. On the other hand, the integrated average value is obtained by dividing the luminance integrated value by the area of each small area (the number of pixels constituting the small area (the light shielding area). It is a value normalized by)).

さらに、図5においてハッチングで示すように、各撮像画像は、イメージサークルの中心に位置する撮像光学系間で重複していない単独領域(以下、中心領域ともいう。)と、撮像光学系間で重複する重複領域とに大きく区分される。重複領域は、イメージサークルの周辺に位置しており、以下、周辺領域ともいう。複眼条件計算部214は、調整にかかる計算において、入力された分割領域毎の積算値に基づき、センサ毎の単独領域と、センサ間の重複領域とを区別し評価して、この評価に応じて、複数のセンサ各々に対する調整後の露出条件パラメータを決定する。小領域が、重複領域に該当するか、単独領域に該当するかは、校正された画像中心座標値からの距離により判別することができる。   Furthermore, as indicated by hatching in FIG. 5, each captured image is between a single region (hereinafter also referred to as a central region) that does not overlap between the imaging optical systems located at the center of the image circle and the imaging optical system. It is broadly divided into overlapping areas. The overlapping area is located around the image circle, and is hereinafter also referred to as a peripheral area. In the calculation related to the adjustment, the compound eye condition calculation unit 214 distinguishes and evaluates the single area for each sensor and the overlapping area between the sensors based on the input integrated value for each divided area, and according to this evaluation. Then, an adjusted exposure condition parameter for each of the plurality of sensors is determined. Whether a small region corresponds to an overlapping region or a single region can be determined by a distance from the calibrated image center coordinate value.

単独領域および重複領域毎に画素の平均値が計算され、この単独領域および重複領域毎の画素平均値が、撮像画像の領域毎に撮影像状態を評価する領域別評価値として、露出条件の計算に供される。なお、図5に示した態様は例示であり、領域分割の方式や分割数は特に限定されるものではない。   The pixel average value is calculated for each single region and each overlapping region, and the pixel average value for each single region and each overlapping region is used as a region-based evaluation value for evaluating the captured image state for each region of the captured image. To be served. Note that the mode shown in FIG. 5 is an exemplification, and the region division method and the number of divisions are not particularly limited.

以下、図6〜図10を参照しながら、本実施形態による撮像システムが実行する、露出制御について詳細を説明する。図6は、本実施形態による撮像システムが実行する、露出制御のメインフローを示すフローチャートである。   Hereinafter, the exposure control executed by the imaging system according to the present embodiment will be described in detail with reference to FIGS. FIG. 6 is a flowchart showing a main flow of exposure control executed by the imaging system according to the present embodiment.

図6に示す制御は、例えば、撮像システム10が、電源が投入されたり、モード切替が指示されたりして撮影モードに移行したことに応答して、ステップS100から開始される。ステップS101では、撮像システム10は、各センサ200A,200Bからの検波完了の信号を受けたか否かに応じて制御を分岐させる。ここで、検波完了の信号は、センサが画像の読み取りを完了させ、適宜前段露出条件制御部202による露出条件の計算が完了したこと示す信号である。ステップS101では、検波完了の信号を受けるまでの間(NOの間)、本ステップS101をループさせる。ステップS101で検波完了の信号を受けた場合(YES)は、ステップS102へ制御が進められる。   The control shown in FIG. 6 is started from step S100 in response to, for example, the imaging system 10 shifting to the shooting mode by turning on the power or instructing mode switching. In step S101, the imaging system 10 branches control depending on whether or not a detection completion signal has been received from each of the sensors 200A and 200B. Here, the detection completion signal is a signal indicating that the sensor has completed reading of the image, and the calculation of the exposure condition by the pre-stage exposure condition control unit 202 has been appropriately completed. In step S101, this step S101 is looped until a detection completion signal is received (during NO). If a detection completion signal is received in step S101 (YES), control proceeds to step S102.

ステップS102では、撮像システム10は、前段制御が有効であるか否かに応じて制御を分岐させる。ステップS102で、前段制御が有効である場合(YES)は、ステップS103へ制御が進められる。ステップS103では、撮像システム10は、後段露出条件制御部210により、前段露出条件制御部202A,202Bに対し、前段での露出条件の計算結果を照会し、前段で計算された露出条件パラメータを取得する。   In step S102, the imaging system 10 branches the control depending on whether or not the pre-stage control is effective. If the pre-stage control is valid in step S102 (YES), the control proceeds to step S103. In step S103, the imaging system 10 uses the subsequent exposure condition control unit 210 to inquire the previous exposure condition control units 202A and 202B about the calculation result of the previous exposure condition, and obtains the exposure condition parameter calculated in the previous process. To do.

ステップS104では、撮像システム10は、前段安定判定部212により、前段露出条件制御部202A,202Bが計算した露出条件が安定化したか否かを判定する。ステップS104で、従前の露出条件と、新しく計算された露出条件とが、基準に照らして大きく異なるため、安定化していないと判定された場合(NO)は、ステップS101へ処理をループさせる。ここでは、後段の制御に進めず、次のフレームへと制御が進められる。一方、ステップS104で、所定の収束条件が満たされ安定化したと判定された場合(YES)は、ステップS105へと後段の制御に進められる。   In step S104, the imaging system 10 determines whether the exposure conditions calculated by the previous exposure condition control units 202A and 202B have been stabilized by the previous-stage stability determination unit 212. If it is determined in step S104 that the previous exposure condition and the newly calculated exposure condition are not stabilized because they are significantly different from the reference (NO), the process loops to step S101. Here, the control proceeds to the next frame without proceeding to the subsequent control. On the other hand, if it is determined in step S104 that the predetermined convergence condition is satisfied and stabilized (YES), the control proceeds to the subsequent stage to step S105.

ステップS105では、撮像システム10は、前段露出条件制御部202A,202Bによる個別の前段制御を無効化し、ステップS106へ制御を進める。これにより、前段露出条件制御部202A,202Bが計算した露出条件パラメータは、設定に反映されないようになり、後述する後段制御で算出されるパラメータが優先されることになる。ステップS102を再び参照すると、ステップS102で、前段制御が無効であると判定された場合(NO)は、以前のフレームでの処理により、所定の収束条件が満たされ安定化されているので、ステップS106へ直接制御が進められる。   In step S105, the imaging system 10 invalidates the individual upstream control by the upstream exposure condition control units 202A and 202B, and advances the control to step S106. As a result, the exposure condition parameters calculated by the front-stage exposure condition control units 202A and 202B are not reflected in the setting, and the parameters calculated in the later-stage control described later have priority. Referring back to step S102, if it is determined in step S102 that the pre-stage control is invalid (NO), the predetermined convergence condition is satisfied and stabilized by the processing in the previous frame. Control proceeds directly to S106.

ステップS106では、図7を参照して後述する複眼適正露出計算処理を呼び出す。複眼適正露出計算処理により複数のセンサの調整後の露出条件パラメータが決定されると、後段露出条件制御部210から各露出条件レジスタ設定部204A,204Bへ、露出条件パラメータの更新の依頼が行われる。そして、ステップS101へ制御がループされ、次のフレームへと制御が進められる。決定された露出条件パラメータは、例えば固体撮像素子22の垂直同期信号に合わせてセンサのレジスタに反映される。   In step S106, a compound eye proper exposure calculation process described later with reference to FIG. 7 is called. When the exposure condition parameters after adjusting the plurality of sensors are determined by the compound eye proper exposure calculation process, the subsequent exposure condition control unit 210 requests the exposure condition register setting units 204A and 204B to update the exposure condition parameters. . Then, the control loops to step S101, and the control proceeds to the next frame. The determined exposure condition parameter is reflected in the sensor register in accordance with, for example, the vertical synchronization signal of the solid-state imaging device 22.

図7は、本実施形態の撮像システムが実行する、複眼適正露出計算処理を示すフローチャートである。なお、以下説明する実施形態においては、便宜上、露出時間tおよびゲインgのみが、制御される露出条件パラメータであるとし、残りの絞り値aは、固定されるものとして説明する。そして、具体的な露出条件パラメータは、ゲイン1相当(g=1)での露出時間換算値exp(exp=g*t;ここで下付添え字のXは、カメラを識別し、AまたはBである。)として計算される露出補正値に対応して、プログラム線図に基づき求められるものとする。しかしながら、他の実施形態では、露出時間t、ゲインgおよび絞り値aすべてを露出条件パラメータとして計算してもよいし、露出時間t、ゲインgおよび絞り値aから選択される1または複数の任意のパラメータの組み合わせを露出条件パラメータとして計算してもよい。 FIG. 7 is a flowchart showing a compound eye proper exposure calculation process executed by the imaging system of the present embodiment. In the embodiment described below, for the sake of convenience, it is assumed that only the exposure time t and the gain g are controlled exposure condition parameters, and the remaining aperture value a is fixed. A specific exposure condition parameter is an exposure time equivalent value exp X (exp X = g X * t X ; gain X equivalent (g X = 1); where subscript X identifies the camera And A or B.) corresponding to the exposure correction value calculated as follows). However, in other embodiments, all of the exposure time t, the gain g, and the aperture value a may be calculated as exposure condition parameters, or one or more arbitrary selected from the exposure time t, the gain g, and the aperture value a. A combination of these parameters may be calculated as the exposure condition parameter.

図7に示す処理は、図6に示したステップS106で呼び出されて、ステップS200から開始される。ステップS201では、撮像システム10は、その前準備として、各撮像画像について算出されるオプティカル・ブラック(OB)値を、分割領域毎の積算値から減算する。各撮像画像のOB値は、図4(A),(B)に示したイメージサークル外の遮光領域における分割領域毎の積算値(当該フレームまたは前フレームの値)を採用することができる。   The process shown in FIG. 7 is called at step S106 shown in FIG. 6, and is started from step S200. In step S201, the imaging system 10 subtracts the optical black (OB) value calculated for each captured image from the integrated value for each divided region as a preparation. As the OB value of each captured image, an integrated value (the value of the frame or the previous frame) for each divided region in the light shielding region outside the image circle shown in FIGS. 4A and 4B can be adopted.

ステップS202では、撮像システム10は、複眼条件計算部214により、分割領域毎の積算値を用いて、各分割領域を重複領域および単独領域に区分して積算値の平均値を算出する。領域の区分は、画像中心を校正して求め、その画像中心の座標値からの例えば小領域の中央までの距離rが、所定閾値r1を超えたか否かにより判別することができる。説明する実施形態では、撮像画像Aの中心に位置する単独領域(r<r1)の平均値をsC、撮像画像Bの単独領域の平均値をsC、撮像画像Aの周辺に位置する重複領域(r1≦r<r2:ここでr2は、イメージサークルの外縁に対応する。)の平均値をsE、撮像画像Bの重複領域の平均値をsEとして定義する。 In step S202, the imaging system 10 uses the compound eye condition calculation unit 214 to divide each divided region into an overlap region and a single region using the integrated value for each divided region, and calculate an average value of the integrated values. The division of the region can be determined by calibrating the center of the image and determining whether the distance r from the coordinate value of the image center to the center of the small region, for example, exceeds a predetermined threshold r1. In the embodiment to be described, the average value of the single region (r <r1) located at the center of the captured image A is sC A , the average value of the single region of the captured image B is sC B , and the overlap is located around the captured image A. The average value of the region (r1 ≦ r <r2: where r2 corresponds to the outer edge of the image circle) is defined as sE A , and the average value of the overlapping region of the captured image B is defined as sE B.

ステップS203では、撮像システム10は、複眼条件計算部214により、撮像環境(シーン)の明るさ検知するため、平均値から照度値に換算する。各センサの中心領域の照度値bC(X=A,B)は、各センサの単独領域の積算値の平均値sCを用いて、露光時間t、アンプゲインg、および撮像システム10の特性に応じた係数kLxを用いて、下記式(1)により計算することができる。係数kLxは、典型的には、実験等に基づきベンダ側で設定されるものである。なお、下記式(1)は、絞り値aが固定される場合を示し、固定された絞り値は、係数kLxに加味されている。 In step S203, the imaging system 10 uses the compound eye condition calculation unit 214 to convert the average value into an illuminance value in order to detect the brightness of the imaging environment (scene). The illuminance value bC X (X = A, B) of the center area of each sensor is obtained by using the average value sC X of the integrated values of the individual areas of each sensor, the exposure time t, the amplifier gain g, and the characteristics of the imaging system 10. It can be calculated by the following equation (1) using the coefficient kLx corresponding to. The coefficient kLx is typically set on the vendor side based on experiments or the like. The following formula (1) shows a case where the aperture value a is fixed, and the fixed aperture value is added to the coefficient kLx.

中心領域の照度値bCは、現在設定されている露出条件パラメータを用いて、実際に撮像された画像の画素値から算出された、各受光領域の明るさを評価する評価値である。なお、周辺領域の照度値bE(x=A,B)についても、上記式(1)と同様な式により、重複領域の積算値の平均値sEを用いて計算することができる。 The illuminance value bC X in the central area is an evaluation value for evaluating the brightness of each light receiving area calculated from the pixel value of the actually captured image using the currently set exposure condition parameter. Incidentally, it is possible to intensity values of the surrounding area bE X (x = A, B ) for even, by the same formula as the formula (1) is calculated using the average value sE X of the integrated value of the overlap region.

ステップS204では、撮像システム10は、複眼条件計算部214により、各センサの照度値bCから暗時処理を必要とするか否かを判定する。暗時処理の要否の判定は、事前定義された照度値に対する閾値(darkTh)を用いて行うことができる。ステップS204で、両センサ共に照度値bCが所定閾値(darkTh)未満となり、暗時処理が必要であると判定された場合(YES)は、ステップS214へ制御を進める。一方、ステップS204で、いずれかのセンサの照度値bCが所定閾値(darkTh)以上となり、暗時処理が不要であると判定された場合(NO)は、ステップS205へ制御を進める。 In step S <b> 204, the imaging system 10 determines whether or not dark processing is necessary from the illuminance value bC X of each sensor by the compound eye condition calculation unit 214. Whether or not dark processing is necessary can be determined using a threshold (darkTh) for a predefined illuminance value. If it is determined in step S204 that the illuminance value bC X is less than the predetermined threshold (darkTh) for both sensors and dark processing is necessary (YES), the control proceeds to step S214. On the other hand, if it is determined in step S204 that the illuminance value bC X of one of the sensors is equal to or greater than a predetermined threshold (darkTh) and the dark process is not required (NO), the control proceeds to step S205.

ステップS205では、撮像システム10は、複眼条件計算部214により、センサ毎の露出目標レベルtL,tLを決定する。露出目標レベルtLは、好適には、換算された照度値bCから判別できるシーンの明るさに応じて決定することができる。図8は、照度値を露出目標レベルに対応付ける関数を示す図である。図8に示す関数は、各センサのダイナミックレンジ特性を踏まえて決定され、近似関数の係数またはテーブルとして保持される。図8に示す関数によれば、明るいシーンでは明るめに目標レベルが設定され、暗いシーンでは暗めに目標レベルが設定される。 In step S205, the imaging system 10, the multi-eye condition calculation unit 214, the target exposure level tL A for each sensor, to determine the tL B. The exposure target level tL X is preferably determined according to the brightness of the scene that can be determined from the converted illuminance value bC X. FIG. 8 is a diagram illustrating a function for associating an illuminance value with an exposure target level. The function shown in FIG. 8 is determined based on the dynamic range characteristics of each sensor, and is stored as an approximate function coefficient or table. According to the function shown in FIG. 8, the target level is set brighter in a bright scene, and the target level is set darker in a dark scene.

ステップS206では、撮像システム10は、複眼条件計算部214により、中心領域の平均値を上記決定された露出目標レベルに収束させるための中心領域に適用するゲイン(以下、中心ゲインと参照する。)を算出する。中心ゲインは、センサX(X=A,B)の中心ゲインをupdownCとし、所定の範囲(例えば、−4EV<updownC<+4EV)内で、下記式(2)を用いて計算することができる。所定の範囲外となった場合は、中心ゲインupdownCは、下限値(例えば−4EV)または上限値(例えば+4EV)に制限される。 In step S206, the imaging system 10 causes the compound eye condition calculation unit 214 to apply a gain to be applied to the central region for converging the average value of the central region to the determined exposure target level (hereinafter referred to as a central gain). Is calculated. The center gain can be calculated by using the following formula (2) within a predetermined range (for example, −4 EV <updownC X <+4 EV), where the center gain of the sensor X (X = A, B) is updC X. it can. When the value falls outside the predetermined range, the center gain uploadC X is limited to a lower limit value (for example, −4 EV) or an upper limit value (for example, +4 EV).

ステップS207では、撮像システム10は、得られた中心ゲインupdownCupdownCに応じて、中心ゲインupdownCが飽和を示唆する値となっているか否かを判定する。中心ゲインupdownCが極端に大きい場合は、画素平均値sCが小さく黒飽和している可能性を示しており、反対に極端に小さい場合は、平均値sCが大きく白飽和している可能性を示す。このため、中心ゲインupdownCが極端な場合は、露出が適正露出から大きくずれていると考えられる。そこで、ステップS207で、いずれかセンサの中心ゲインが極端に小さいまたは大きいと判定された場合(YES)は、ステップS213へ制御を分岐させる。つまり、中心領域の平均値sCに対する上限閾値(thHi)および下限閾値(thLo)を用いて、論理条件{sC>thHi OR sC<thLo OR sC>thHi OR sC<thLo}が満たされた場合は、ステップS213へ制御を分岐される。 In step S207, the imaging system 10 determines whether or not the center gain updateC X has a value that suggests saturation, according to the obtained center gain updateC A updownC B. When the center gain updC X is extremely large, it indicates the possibility that the pixel average value sC X is small and black-saturated. On the other hand, when it is extremely small, the average value sC X may be large and white-saturated. Showing gender. Therefore, if the center gain UpdownC X extreme is believed that exposure is greatly deviated from the correct exposure. Therefore, if it is determined in step S207 that the center gain of any sensor is extremely small or large (YES), the control is branched to step S213. That is, the logical condition {sC A > thHi OR sC A <thLo OR sC B > thHi OR sC B <thLo} is satisfied using the upper limit threshold (thHi) and the lower limit threshold (thLo) with respect to the average value sC X of the central region. If so, control branches to step S213.

ステップS213では、撮像システム10は、前段露出条件制御部202A,202Bによる個別の前段制御を有効化し、ステップS212で、本処理を終了させ、図6に示したステップS106後の制御に戻す。   In step S213, the imaging system 10 validates the individual pre-stage control by the pre-stage exposure condition control units 202A and 202B, ends the process in step S212, and returns to the control after step S106 illustrated in FIG.

一方、ステップS207で、中心ゲインが適切であると判定された場合(NO)は、ステップS208へ制御が分岐される。ステップS208では、撮像システム10は、複眼条件計算部214により、両センサの重複領域の平均値sEに収束させるような重複領域に適用する周辺ゲインを算出する。周辺ゲインは、センサX(X=A,B)の周辺ゲインをupdownEとして、所定の範囲(例えば、−4EV<updownE<+4EV)内で、下記式(3)を用いて計算することができる。所定の範囲外となった場合は、周辺ゲインupdownEは、下限値(例えば−4EV)または上限値(例えば+4EV)に制限される。 On the other hand, if it is determined in step S207 that the center gain is appropriate (NO), control branches to step S208. In step S208, the imaging system 10 uses the compound eye condition calculation unit 214 to calculate a peripheral gain to be applied to the overlapping region that converges to the average value sE of the overlapping regions of both sensors. Peripheral gain, sensor X (X = A, B) surrounding the gain as UpdownE X, a predetermined range (e.g., -4EV <updownE X <+ 4EV ) within, be calculated using the following equation (3) it can. If a predetermined range, the peripheral gain UpdownE X is limited to the lower limit value (for example, -4 eV) or the upper limit value (e.g. + 4EV).

ステップS209では、撮像システム10は、複眼条件計算部214により、複数のセンサ間での重複領域における積算値(属性値)の最大差分(maxSurroundDiff)を計算する。特定の実施形態において、全天球撮像システム10で撮像される撮像画像は、図9に示すようにセンサAおよびセンサB間で反転して一枚の画像として結合されている。上記最大差分を求める処理では、まず、両センサ間で、互い対応し合う分割領域毎に積算値の差分を計算する。図9に示すようにセンサ間で反転している場合は、結合された画像における画像中心座標をそれぞれ(cx,cy)および(cx,cy)として、HをセンサBの画像幅であるとして、センサAの位置(x,y)に対するセンサBの相対位置(x,y)は、下記式で求めることができる。得られた互いに対応し合う分割領域間の差分のうちの最大の値が、上記最大差分(maxSurroundDiff)となる。 In step S209, the imaging system 10 uses the compound eye condition calculation unit 214 to calculate the maximum difference (maxSurroundDiff) of the integrated value (attribute value) in the overlapping region between the plurality of sensors. In a specific embodiment, the captured image captured by the omnidirectional imaging system 10 is inverted between the sensor A and the sensor B as shown in FIG. In the process for obtaining the maximum difference, first, a difference between integrated values is calculated for each divided region corresponding to each other between the two sensors. As shown in FIG. 9, when the image is inverted between the sensors, the image center coordinates in the combined image are (cx A , cy A ) and (cx B , cy B ), respectively, and H B is the image of the sensor B. Assuming the width, the relative position (x B , y B ) of sensor B with respect to the position (x A , y A ) of sensor A can be obtained by the following equation. The maximum value among the obtained differences between the divided regions corresponding to each other is the maximum difference (maxSurroundDiff).

ステップS210では、撮像システム10は、複眼条件計算部214により、重み付けをして平均処理をして、重複領域の最大差分(maxSurroundDiff)と、2つのセンサについて算出換算された照度値bC,bCとに基づいて、設定すべき露出条件パラメータを決定する。露出条件パラメータは、適切な露出補正値の変化量の上限および下限の範囲内において決定される。 In step S210, the imaging system 10 performs weighting and averaging processing by the compound eye condition calculation unit 214, and calculates the maximum difference (maxSurroundDiff) of the overlapping region and the illuminance values bC A and bC calculated and converted for the two sensors. Based on B , an exposure condition parameter to be set is determined. The exposure condition parameter is determined within a range of an upper limit and a lower limit of an appropriate change amount of the exposure correction value.

露出補正値は、下記のように計算される。まず、ステップS209で計算された最大差分(maxSurroundDiff)と、事前設定された許容される平均値に対する許容差(diffNGLevel)とを用いて、下記式(4)により、中心領域と周辺領域の評価の比率(rC,rE)を計算する。中心領域と周辺領域の評価の比率(rC,rE)は、中心領域および周辺領域のどちらに評価の重みを置くかを決定付ける値である。ここで、Rは、定数(R=10)である。   The exposure correction value is calculated as follows. First, using the maximum difference (maxSurroundDiff) calculated in step S209 and a preset allowable difference (diffNGLevel), the following formula (4) is used to evaluate the central region and the peripheral region. The ratio (rC, rE) is calculated. The evaluation ratio (rC, rE) between the central region and the peripheral region is a value that determines which of the central region and the peripheral region the evaluation weight is placed on. Here, R is a constant (R = 10).

また、許容差(diffNGLevel)は、撮像システム10の特性に依存し、典型的には実験などから求められる。種々の撮影条件下で、平均値のセンサ間の差分を変化させて、片側にフレアなどによるボケが生じるか否かを判定し、これらを集計する。そして、明るさの違いが目立つ度合いを、ボケが生じる程度で表し、ボケの程度が所定の閾値を超える差分を許容差(diffNGLevel)として採用する。   Further, the tolerance (diffNGLevel) depends on the characteristics of the imaging system 10 and is typically obtained from experiments or the like. Under various photographing conditions, the difference between the sensors of the average value is changed to determine whether blur due to flare or the like occurs on one side, and these are totaled. The degree of conspicuous difference in brightness is expressed by the degree of blurring, and a difference in which the degree of blurring exceeds a predetermined threshold is adopted as a tolerance (diffNGLevel).

上記式(4)は、許容差(maxSurroundDiff=diffNGLevel)を境界として、重複部分のセンサ間の明るさの差異が大きい場合に、周辺領域に対する評価の比率rEが大きくなるように、中心領域の比率rCが小さくなるようにはたらく。一方、重複部分のセンサ間の明るさの差が許容差より小さければ、上記式(4)は、それだけ中心領域rCに対する評価の比率が大きくなるように、周辺領域の比率rEが小さくなるようにはたらく。   The above formula (4) is obtained by calculating the ratio of the central area so that the evaluation ratio rE with respect to the surrounding area becomes large when the difference in brightness between sensors in the overlapping portion is large with the tolerance (maxSurroundDiff = diffNGLevel) as a boundary. It works so that rC becomes small. On the other hand, if the difference in brightness between the sensors in the overlapping portion is smaller than the tolerance, the above equation (4) is such that the ratio rE of the peripheral area becomes small so that the evaluation ratio with respect to the central area rC increases accordingly. Work.

続いて、Bを定数(B=10)として、ステップS203で計算された各センサの中心領域の照度値bC(x=A,B)を用いて、下記式(5)により、各センサに対する評価の重み(r,r)を計算する。各センサの評価の重み(r,r)は、いずれのセンサに評価の重みを置くかを決定付ける値である。 Subsequently, B is a constant (B = 10), and the illuminance value bC X (x = A, B) of the central region of each sensor calculated in step S203 is used to calculate The evaluation weights (r A , r B ) are calculated. The evaluation weight (r A , r B ) of each sensor is a value that determines which sensor is assigned the evaluation weight.

上記式(5)は、画像間の中心領域の明るさを比較し、中心領域において換算された照度値bCが低い方く暗い方のセンサが重く評価されるようにはたらく。つまり、上記式(5)によれば、暗い方のセンサの評価の重みが大きくなる。 The above formula (5) compares the brightness of the central area between images, and works so that the sensor with the lower illuminance value bC X converted in the central area is evaluated more heavily. That is, according to the above formula (5), the evaluation weight of the darker sensor is increased.

続いて、露出補正値が急激に変化しないように上限および下限のリミッタ(minGain,maxGain)と、緩衝パラメータdumpingを用いて、下記式(6)および(7)により、センサ毎に調整ゲイン(k,k)を計算する。緩衝パラメータは、0<dumping≦1.0の範囲内の定数である。 Subsequently, using the upper and lower limiters (minGain, maxGain) and the buffer parameter dumping so that the exposure correction value does not change abruptly, the following equation (6) and (7) is used to adjust the adjustment gain (k a, it calculates the k B). The buffer parameter is a constant in the range of 0 <dumping ≦ 1.0.

上記式(6)は、中心ゲインupdownCおよび周辺ゲインupdownEが1に収束する、つまり中心領域および周辺領域の画素平均値がそれぞれ露出目標レベルおよびセンサ間の平均値sEに収束する方向に、ゲインk’を決定する。また、CLIP(x,max,min)関数は、min≦x≦maxについてxを与え、x<minについてminを与え、x>maxについてmaxを与える関数である。したがって、上記式(7)は、上限および下限の範囲で、上記式(6)で計算された値k’が緩衝された調整ゲイン(gain(k’),dumping)を与える。 The formula (6), the center gain UpdownC X and peripheral gain UpdownE X converges to 1, i.e. in the direction average pixel value of the central and peripheral regions converge to an average value sE between each exposure target level and sensor, Determine the gain k X '. The CLIP (x, max, min) function is a function that gives x for min ≦ x ≦ max, gives min for x <min, and gives max for x> max. Therefore, the above equation (7) gives an adjustment gain (gain (k X '), dumping) in which the value k X ' calculated by the above equation (6) is buffered in the range between the upper limit and the lower limit.

最後に、各センサの最終的な露出補正値(exp,exp)は、下記式(8)で計算される。ここで、Tは、反復回数を表し、更新される露出補正値(exp T+1)が、現在設定されている露出補正値(exp )と、調整ゲインk,kとから求められる。 Finally, final exposure correction values (exp A , exp B ) of each sensor are calculated by the following equation (8). Here, T represents the number of iterations, and the updated exposure correction value (exp X T + 1 ) is obtained from the currently set exposure correction value (exp X T ) and the adjustment gains k A and k B. .

更新後の露出補正値(exp T+1:ゲイン1相当での露出時間換算値)が求められると、撮像システム10の特性に応じて事前準備されたプログラム線図と呼ばれるテーブルを用いて、露出条件パラメータ(t,g)の組み合わせが決定される。絞り値aも制御対象となる実施形態では、露出条件パラメータ(t,g,a)の組み合わせが決定される。したがって、上記式(6)、(7)および(8)は、中心領域および周辺領域に対する評価の重み付けの比率と、センサ間での評価の重み付けとに応じて、調整後の露出条件パラメータを与えるようにはたらく。 When the updated exposure correction value (exp X T + 1 : exposure time converted value corresponding to gain 1) is obtained, the exposure condition is determined using a table called a program diagram prepared in advance according to the characteristics of the imaging system 10. A combination of parameters (t, g) is determined. In the embodiment in which the aperture value a is also a control target, a combination of exposure condition parameters (t, g, a) is determined. Therefore, the above formulas (6), (7) and (8) give the adjusted exposure condition parameters according to the ratio of the weighting of the evaluation to the central region and the peripheral region and the weighting of the evaluation between the sensors. Work.

ステップS211では、撮像システム10は、複眼条件計算部214により、決定された各センサの露出条件パラメータの設定を更新し、ステップS212で、本処理を終了させ、図6に示したステップS106以降の制御に戻す。図6および図7に示した処理を繰り返すことにより、露出条件パラメータが、センサ間の重複領域で明るさが合うような適正露出に収束される。   In step S211, the imaging system 10 updates the determined exposure condition parameter setting of each sensor by the compound eye condition calculation unit 214, ends the process in step S212, and the steps after step S106 illustrated in FIG. Return to control. By repeating the processes shown in FIG. 6 and FIG. 7, the exposure condition parameter is converged to an appropriate exposure that matches the brightness in the overlapping area between the sensors.

再びステップS204を参照すると、ステップS204で、両センサ共に照度値bCが所定閾値(darkTh)未満となり、暗時処理が必要であると判定された場合(YES)は、ステップS214へ制御が進められる。これは、両センサ共に暗時の場合は、フレア等が発生しにくく、2つの撮像画像間で露出の差が生じにくいためである。ステップS214では、撮像システム10は、複眼条件計算部214により、センサ間で共通の露出目標レベルtLAVEを決定する。共通の露出目標レベルtLAVEは、好適には、換算された照度値bC,bCの平均値bCAVE(bCAVE=(bC+bC)/2)から判別できるシーンの明るさに応じて決定することができる。 Referring to step S204 again, if it is determined in step S204 that the illuminance value bC X is less than the predetermined threshold value (darkTh) for both sensors and dark processing is necessary (YES), the control proceeds to step S214. It is done. This is because, when both sensors are dark, flare or the like is unlikely to occur and a difference in exposure between the two captured images hardly occurs. In step S214, the imaging system 10 uses the compound eye condition calculation unit 214 to determine a common exposure target level tL AVE among the sensors. The common exposure target level tL AVE preferably corresponds to the brightness of the scene that can be determined from the average value bC AVE (bC AVE = (bC A + bC B ) / 2) of the converted illuminance values bC A and bC B. Can be determined.

ステップS215では、明るい方の露出条件を、暗い方の露出条件に合わせるように各センサの露出条件パラメータを決定する。例えば、センサBの方が暗いとき(bC>bC)は、下記式(9)により、暗い方のセンサBに合わせて、両センサに同一の露出条件が設定される。 In step S215, the exposure condition parameter of each sensor is determined so that the brighter exposure condition matches the darker exposure condition. For example, when sensor B is darker (bC A > bC B ), the same exposure condition is set for both sensors according to the darker sensor B according to the following equation (9).

そして、ステップS211へ制御が進められ、撮像システム10は、決定された各センサの露出条件パラメータの設定を更新し、ステップS212で、本処理を終了させ、図6に示したステップS106以降の制御に戻す。   Then, the control proceeds to step S211, and the imaging system 10 updates the determined exposure condition parameter setting of each sensor, ends this processing in step S212, and performs the control after step S106 shown in FIG. Return to.

なお、上述した実施形態では、ステップS213では、前段制御を有効化し、前段制御に戻す態様としている。しなしながら、ステップS213の処理は、例外処理であり、種々の態様が考えられる。他の実施形態では、前段制御に戻さず、計算された中心ゲインupdownC,updownCを用いて、下記式によりカメラ毎の露出補正値を直接求めてもよい。 In the embodiment described above, in step S213, the pre-stage control is validated and returned to the pre-stage control. However, the process of step S213 is an exception process, and various modes can be considered. In another embodiment, the exposure correction value for each camera may be directly obtained by the following equation using the calculated center gains upC A and up C , without returning to the previous control.

図10は、本実施形態の撮像システムにおいて実行される露出制御を示すシーケンス図である。図10には、センサ毎に独立した前段露出条件制御に対応するステップと、複数のセンサを対象とした後段露出条件制御に対応するステップとが区分けされている。単眼露出補正時は、センサ200A,200B内の前段露出条件制御部202A,202Bによってセンサ毎に単独で露出補正が行われる。   FIG. 10 is a sequence diagram showing exposure control executed in the imaging system of the present embodiment. FIG. 10 shows a step corresponding to the front exposure condition control independent of each sensor and a step corresponding to the rear exposure condition control targeting a plurality of sensors. At the time of monocular exposure correction, exposure correction is performed independently for each sensor by the pre-stage exposure condition control units 202A and 202B in the sensors 200A and 200B.

ステップS301〜ステップS305までの処理が、1フレームの処理に対応し、同様に、ステップS306〜ステップS310までの処理が、次の1フレームの処理に対応する。ステップS301では、センサ200A,200Bは、それぞれ、ISP108に読出開始通知を行い、ステップS301では、センサ200A,200Bは、それぞれ、ISP108に読出完了通知を行う。センサ200A,200Bは、それぞれ、前段の露出条件パラメータの計算が完了すると、ステップS303で、後段露出条件制御部210を実現するタスクに対し、検波完了通知を行う。後段露出条件制御部210のタスクは、ISP108の割り込み信号により稼動する。   The processing from step S301 to step S305 corresponds to the processing of one frame. Similarly, the processing from step S306 to step S310 corresponds to the processing of the next one frame. In step S301, the sensors 200A and 200B each notify the ISP 108 of reading start, and in step S301, the sensors 200A and 200B respectively notify the ISP 108 of reading completion. When the calculation of the previous exposure condition parameter is completed, the sensors 200A and 200B respectively notify detection completion to the task realizing the rear exposure condition control unit 210 in step S303. The task of the post-stage exposure condition control unit 210 is activated by an interrupt signal from the ISP 108.

ステップS304では、後段露出条件制御部210は、センサ200A,200Bに対し、露出条件の照会を行い、ステップS305で、各センサの露出条件パラメータを取得する。後段露出条件制御部210は、各センサの露出条件を取得して、後段の複眼露出補正を実施するかどうかを判定する。前段露出条件制御部202A,202Bにより計算された露出条件パラメータは、次のフレームに対して適用される。   In step S304, the post-exposure condition control unit 210 inquires of the sensors 200A and 200B about the exposure condition, and acquires the exposure condition parameter of each sensor in step S305. The rear-stage exposure condition control unit 210 acquires the exposure conditions of each sensor and determines whether to perform the rear-stage compound eye exposure correction. The exposure condition parameters calculated by the previous exposure condition control units 202A and 202B are applied to the next frame.

引き続き、ステップS306〜ステップS310およびステップS311〜ステップS315で各フレームについて同様の処理が行われ、ここでは、前段の露出制御が安定化したものとして説明を続ける。ステップS316では、次のフレームの読み出し通知が、センサ200A,200BからISP108に対して行われるが、ステップS318の完了通知が行われるまでの間に、後段露出条件制御部210は、後段の露出条件パラメータの計算を行う。ステップS317では、後段露出条件制御部210は、計算を完了させて、システムの制御タスクに対して計算結果とともに計算完了を通知して、露出条件パラメータの更新を依頼する。   Subsequently, the same processing is performed for each frame in step S306 to step S310 and step S311 to step S315. Here, the description is continued assuming that the exposure control in the previous stage is stabilized. In step S316, the next frame readout notification is sent from the sensors 200A and 200B to the ISP 108. Until the completion notification in step S318 is performed, the rear exposure condition control unit 210 performs the rear exposure condition control. Calculate parameters. In step S317, the rear exposure condition control unit 210 completes the calculation, notifies the system control task of the calculation together with the calculation result, and requests the update of the exposure condition parameter.

ステップS318で、センサ200A,200BからISP108および制御タスクに読出完了通知が行われると、ステップS319では、制御タスクは、センサの垂直同期信号に合わせて、センサの読み出しが行われていないタイミングで、各センサのレジスタの露出条件パラメータを更新する。つまり、後段露出条件制御では、2つ先のフレームに新しい露出条件が適用される。   In step S318, when the reading completion notification is performed from the sensors 200A and 200B to the ISP 108 and the control task, in step S319, the control task is synchronized with the sensor vertical synchronization signal at a timing when the sensor is not read. Update the exposure condition parameter in the register of each sensor. That is, in the post-stage exposure condition control, a new exposure condition is applied to the two frames ahead.

上記前段制御では、センサ毎に独立して高速に適正露出が得られる。一方、後段制御により、複数のセンサを対象とした、各センサの状態を考慮したより高精度の露出制御が行われる。これにより、複数の撮像光学系を用いた撮像システムにおいて、撮像光学系間で調整された精度の高い露出条件を高速に適用することができる。また、好適には、センサ毎の露出制御が収束した後に後段制御が行われるので、CPUなどのリソースの使用時間が短縮され、ひいては消費電力も削減される。また、最終的に適用される露出条件は、撮像光学系間で調整がなされているので、複数の撮像光学系による複数の撮像画像を合成した際につなぎ目で見られる明るさの不連続性が軽減され、品質の高い合成画像を提供することができる。   In the preceding control, appropriate exposure can be obtained at high speed independently for each sensor. On the other hand, more accurate exposure control that considers the state of each sensor for a plurality of sensors is performed by subsequent control. Thereby, in an imaging system using a plurality of imaging optical systems, it is possible to apply high-precision exposure conditions adjusted between the imaging optical systems at high speed. Further, preferably, since the post-stage control is performed after the exposure control for each sensor has converged, the use time of resources such as the CPU is shortened, and the power consumption is also reduced. In addition, since the exposure conditions to be finally applied are adjusted between the imaging optical systems, there is a brightness discontinuity seen at the joint when a plurality of captured images by the plurality of imaging optical systems are combined. Reduced and high quality composite images can be provided.

以上説明したように、本実施形態によれば、複数の撮像光学系を用いた撮像システムにおいて、複数の撮像光学系に対する撮像条件を得るまでに要する時間を短縮することが可能な撮像制御装置、撮像システム、撮像制御方法およびプログラムを提供することができる。   As described above, according to the present embodiment, in an imaging system using a plurality of imaging optical systems, an imaging control apparatus capable of reducing the time required to obtain imaging conditions for the plurality of imaging optical systems, An imaging system, an imaging control method, and a program can be provided.

なお、上述した実施形態では、撮像制御装置の一例として、全天球の静止画を撮影する撮像システム10を用いて説明したが、撮像制御装置は、特に限定されるものではない。他の実施形態では、全天球を動画撮影する全天球動画撮像システム(または撮像装置)、全天球を撮影する機能を備えたスマートフォン、タブレットなどの携帯情報端末、撮像システムにおいて撮像体を制御するデジタル・スチルカメラ・プロセッサ(制御装置)などとして構成することもできる。また、上述した実施形態では、前段制御および後段制御の合計2段階の露出制御としたが、3以上に拡張することを妨げるものではない。   In the above-described embodiment, the imaging system 10 that captures a omnidirectional still image is described as an example of the imaging control device. However, the imaging control device is not particularly limited. In another embodiment, an omnidirectional video imaging system (or imaging device) that captures a moving image of a celestial sphere, a mobile information terminal such as a smartphone or a tablet that has a function of capturing the omnidirectional sphere, and an imaging device in an imaging system. It can also be configured as a digital still camera processor (control device) to be controlled. Further, in the above-described embodiment, the exposure control has a total of two stages including the front stage control and the rear stage control. However, this does not prevent expansion to three or more.

また、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(VHSIC(Very High Speed Integrated Circuits) Hardware Description Language))、Verilog−HDLなどにより記述されたデータとして記録媒体により配布することができる。   The functional unit can be realized by a computer-executable program written in a legacy programming language such as an assembler, C, C ++, C #, Java (registered trademark), an object-oriented programming language, or the like. ROM, EEPROM, EPROM , Stored in a device-readable recording medium such as a flash memory, a flexible disk, a CD-ROM, a CD-RW, a DVD-ROM, a DVD-RAM, a DVD-RW, a Blu-ray disc, an SD card, an MO, or through an electric communication line Can be distributed. In addition, a part or all of the functional unit can be mounted on a programmable device (PD) such as a field programmable gate array (FPGA) or mounted as an ASIC (application-specific integration). Circuit configuration data (bit stream data) downloaded to the PD in order to implement the above functional unit on the PD, HDL (Hardware Description Language) for generating the circuit configuration data, VHDL (VHSIC (Very High Speed) Integrated Circuits) Hardware Description Language)), data described in Verilog-HDL, etc. can be distributed by a recording medium.

これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art may conceive other embodiments, additions, modifications, deletions, and the like. It can be changed within the range that can be done, and any embodiment is included in the scope of the present invention as long as the effects of the present invention are exhibited.

10…撮像システム、12…撮像体、14…筐体、18…シャッター・ボタン、20…結像光学系、22…固体撮像素子、100…デジタル・スチルカメラ・プロセッサ、102…鏡胴ユニット、108…ISP、110…DMAC、112…アービタ(ARBMEMC)、114…MEMC、118…歪曲補正・画像合成ブロック、120…3軸加速度センサ、122…DMAC、124…画像処理ブロック、126…画像データ転送部、128…SDRAMC、130…CPU、132…リサイズブロック、134…JPEGブロック、136…H.264ブロック、138…SDRAM、140…メモリカード制御ブロック、142…メモリカードスロット、144…フラッシュROM、146…USBブロック、148…USBコネクタ、150…ペリフェラル・ブロック、152…音声ユニット、154…スピーカ、156…マイク、158…シリアルブロック、158…シリアルブロック、160…無線NIC、162…LCDドライバ、162…LCDドライバ、164…LCDモニタ、166…電源スイッチ、168…ブリッジ、200…センサ、202…前段露出条件制御部、204…露出条件レジスタ設定部、210…後段露出条件制御部、212…前段安定判定部、214…複眼条件計算部、220…ホワイトバランス計算部 DESCRIPTION OF SYMBOLS 10 ... Imaging system, 12 ... Imaging body, 14 ... Housing, 18 ... Shutter button, 20 ... Imaging optical system, 22 ... Solid-state image sensor, 100 ... Digital still camera processor, 102 ... Lens barrel unit, 108 ... ISP, 110 ... DMAC, 112 ... Arbiter (ARBMEMC), 114 ... MEMC, 118 ... Distortion correction / image synthesis block, 120 ... Three-axis acceleration sensor, 122 ... DMAC, 124 ... Image processing block, 126 ... Image data transfer unit 128 ... SDRAMC, 130 ... CPU, 132 ... Resize block, 134 ... JPEG block, 136 ... H. H.264 block, 138 ... SDRAM, 140 ... memory card control block, 142 ... memory card slot, 144 ... flash ROM, 146 ... USB block, 148 ... USB connector, 150 ... peripheral block, 152 ... audio unit, 154 ... speaker, 156: Microphone, 158 ... Serial block, 158 ... Serial block, 160 ... Wireless NIC, 162 ... LCD driver, 162 ... LCD driver, 164 ... LCD monitor, 166 ... Power switch, 168 ... Bridge, 200 ... Sensor, 202 ... Previous stage Exposure condition control unit, 204 ... Exposure condition register setting unit, 210 ... Rear stage exposure condition control unit, 212 ... Front stage stability determination unit, 214 ... Compound eye condition calculation unit, 220 ... White balance calculation unit

特開平11−341342号公報Japanese Patent Laid-Open No. 11-341342

Claims (9)

複数の撮像光学系に対する撮像条件を与える撮像制御装置であって、
それぞれ撮像光学系毎に独立して撮像条件を計算する、複数の独立撮像条件計算手段と、
前記撮像条件が安定化されたか否かを判定する判定手段と、
前記判定手段で、安定化されたと判定された場合、前記独立撮像条件計算手段により計算された撮像条件を初期条件として、前記撮像光学系各々により撮像された複数の撮像画像に基づき、前記撮像光学系間で調整された、前記複数の撮像光学系に対する調整後の撮像条件を計算する調整撮像条件計算手段と
を含む、撮像制御装置。
An imaging control device that provides imaging conditions for a plurality of imaging optical systems,
A plurality of independent imaging condition calculation means for calculating imaging conditions independently for each imaging optical system;
Determination means for determining whether or not the imaging condition is stabilized;
When it is determined by the determination means that the image has been stabilized, the imaging optical based on a plurality of captured images captured by each of the imaging optical systems with the imaging condition calculated by the independent imaging condition calculation means as an initial condition An imaging control apparatus comprising: adjusted imaging condition calculation means for calculating imaging conditions after adjustment for the plurality of imaging optical systems adjusted between systems.
前記調整撮像条件計算手段は、前記複数の撮像画像を構成する、前記撮像光学系毎の単独領域と、前記撮像光学系間の重複領域とに対し、撮影状態を評価する領域別評価値を計算する手段をさらに含み、前記調整撮像条件計算手段は、前記単独領域および前記重複領域の前記領域別評価値に基づき、前記複数の撮像光学系各々に対する調整後の撮像条件を計算することを特徴とする、請求項1に記載の撮像制御装置。 The adjusted imaging condition calculation means calculates an evaluation value for each area for evaluating a shooting state with respect to a single area for each imaging optical system and an overlapping area between the imaging optical systems constituting the plurality of captured images. The adjusted imaging condition calculation means calculates an adjusted imaging condition for each of the plurality of imaging optical systems based on the evaluation values for each of the single area and the overlapping area. The imaging control apparatus according to claim 1 . 前記調整撮像条件計算手段は、さらに、
前記撮像画像間の前記重複領域の画像の属性値の差に基づき前記重複領域および前記単独領域に対する評価の重み付けを計算する手段と、
前記撮像画像間の明るさの比較に基づき、前記撮像画像間での評価の重み付けを計算する手段と
を含み、前記調整撮像条件計算手段は、前記重複領域および前記単独領域に対する評価の重み付けと、前記撮像画像間での評価の重み付けとに応じて、前記調整後の撮像条件を計算することを特徴とする、請求項に記載の撮像制御装置。
The adjusted imaging condition calculation means further includes:
Means for calculating an evaluation weight for the overlap region and the single region based on a difference in image attribute values of the overlap region between the captured images;
Means for calculating an evaluation weight between the captured images based on a comparison of brightness between the captured images, and the adjusted imaging condition calculation means includes an evaluation weight for the overlapping region and the single region; The imaging control apparatus according to claim 2 , wherein the adjusted imaging condition is calculated according to a weighting of evaluation between the captured images.
前記調整撮像条件計算手段による計算中、前記独立撮像条件計算手段の計算が無効化されており、不適当な撮像条件の計算結果を示す事前定義された条件が成立した場合には、前記調整撮像条件計算手段の計算が無効化されるとともに、前記独立撮像条件計算手段の計算が再度有効化される、請求項1〜のいずれか1項に記載の撮像制御装置。 During the calculation by the adjustment imaging condition calculation means, the calculation of the independent imaging condition calculation means is invalidated, and if the predefined condition indicating the calculation result of the inappropriate imaging condition is satisfied, the adjustment imaging with the calculation of the condition calculation means is disabled, the calculation of the independent imaging condition calculation means is re-enabled, the imaging control device according to any one of claims 1-3. 前記撮像条件は、絞り、露光時間およびゲインの少なくとも1つを含む、請求項1〜のいずれか1項に記載の撮像制御装置。 The imaging condition, aperture, exposure time and gain of at least one image pickup device as claimed in any one of claims 1-4. 複数の撮像光学系と、請求項1〜のいずれか1項に記載の撮像制御装置とを含む、撮像システム。 An imaging system including a plurality of imaging optical systems and the imaging control device according to any one of claims 1 to 5 . 複数の撮像光学系に対する撮像条件を与える撮像制御方法であって、撮像制御装置が、
それぞれ撮像光学系毎に独立して撮像条件を計算する独立計算ステップと、
前記独立計算ステップでの計算結果の下、前記撮像光学系各々に対し撮像させる撮像ステップと、
前記独立計算ステップによる撮像条件が、安定化されたか否かを判定する判定ステップと、
前記判定ステップで安定化されたと判定された場合に、前記独立計算ステップで計算された撮像条件を初期条件として前記撮像光学系各々により撮像された複数の撮像画像に基づき、前記撮像光学系間で調整された、前記複数の撮像光学系に対する調整後の撮像条件を計算する調整計算ステップと
を実行する、撮像制御方法。
An imaging control method for providing imaging conditions for a plurality of imaging optical systems, wherein the imaging control device includes:
An independent calculation step for calculating imaging conditions independently for each imaging optical system;
Under the calculation result in the independent calculation step, an imaging step for causing each of the imaging optical systems to perform imaging,
A determination step of determining whether or not the imaging condition by the independent calculation step is stabilized;
Based on a plurality of captured images captured by each of the imaging optical systems using the imaging conditions calculated in the independent calculation step as initial conditions when determined to be stabilized in the determination step, between the imaging optical systems An adjustment calculation step of calculating an adjusted image pickup condition for the plurality of image pickup optical systems that has been adjusted.
前記調整計算ステップは、
撮像された前記複数の撮像画像を構成する、前記撮像光学系毎の単独領域と、前記撮像光学系間の重複領域とに対し、撮影状態を評価する領域別評価値を計算するサブステップと、
前記単独領域および前記重複領域の前記領域別評価値に基づき、前記複数の撮像光学系各々に対する調整後の撮像条件を計算するサブステップと、
を含む、請求項に記載の撮像制御方法。
The adjustment calculation step includes:
A sub-step of calculating an evaluation value for each region for evaluating a shooting state with respect to a single region for each of the imaging optical systems and an overlapping region between the imaging optical systems constituting the plurality of captured images that have been imaged;
A sub-step of calculating an adjusted imaging condition for each of the plurality of imaging optical systems based on the evaluation value for each of the single region and the overlapping region;
The imaging control method according to claim 7 , comprising:
撮像制御装置を、
それぞれ複数の撮像光学系のうちの各撮像光学系毎に独立して撮像条件を計算する、複数の独立撮像条件計算手段
前記撮像条件が安定化されたか否かを判定する判定手段、および、
前記判定手段で、安定化されたと判定された場合、前記独立撮像条件計算手段により計算された撮像条件を初期条件として、前記撮像光学系各々により撮像された複数の撮像画像に基づき、前記撮像光学系間で調整された、前記複数の撮像光学系に対する調整後の撮像条件を計算する調整撮像条件計算手段
として機能させるためのプログラム。
The imaging control device
A plurality of independent imaging condition calculation means for independently calculating imaging conditions for each imaging optical system of the plurality of imaging optical systems ,
Determination means for determining whether or not the imaging condition is stabilized; and
When it is determined by the determination means that the image has been stabilized, the imaging optical based on a plurality of captured images captured by each of the imaging optical systems with the imaging condition calculated by the independent imaging condition calculation means as an initial condition A program for functioning as an adjusted imaging condition calculation means for calculating imaging conditions after adjustment for the plurality of imaging optical systems adjusted between systems.
JP2012277659A 2012-12-20 2012-12-20 Imaging control apparatus, imaging system, imaging control method, and program Active JP6119235B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012277659A JP6119235B2 (en) 2012-12-20 2012-12-20 Imaging control apparatus, imaging system, imaging control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012277659A JP6119235B2 (en) 2012-12-20 2012-12-20 Imaging control apparatus, imaging system, imaging control method, and program

Publications (2)

Publication Number Publication Date
JP2014123797A JP2014123797A (en) 2014-07-03
JP6119235B2 true JP6119235B2 (en) 2017-04-26

Family

ID=51403978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012277659A Active JP6119235B2 (en) 2012-12-20 2012-12-20 Imaging control apparatus, imaging system, imaging control method, and program

Country Status (1)

Country Link
JP (1) JP6119235B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6065474B2 (en) 2012-09-11 2017-01-25 株式会社リコー Imaging control apparatus, imaging control method, and program
JP5843027B1 (en) * 2015-03-10 2016-01-13 株式会社リコー Imaging apparatus, control method, and program
CN108028894B (en) 2015-09-09 2020-07-10 株式会社理光 Control system, imaging apparatus, and computer-readable medium
US10200624B2 (en) * 2016-04-06 2019-02-05 Facebook, Inc. Three-dimensional, 360-degree virtual reality exposure control
JP6725105B2 (en) * 2016-06-16 2020-07-15 株式会社ザクティ Imaging device and image processing method
CN110402577B (en) * 2017-03-10 2021-06-22 富士胶片株式会社 Image processing system, image processing apparatus, image processing method, and storage medium storing image processing program
WO2019052890A1 (en) * 2017-09-15 2019-03-21 Lumileds Holding B.V. Automotive driving recorder
EP3719529A1 (en) 2019-03-20 2020-10-07 Ricoh Company, Ltd. Range finding device and range finding method
JP2021132159A (en) * 2020-02-20 2021-09-09 東京エレクトロン株式会社 Feature value measurement method and feature value measurement device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148865A (en) * 1999-11-19 2001-05-29 Minolta Co Ltd Image input device
JP4869795B2 (en) * 2006-06-06 2012-02-08 富士フイルム株式会社 Imaging control apparatus, imaging system, and imaging control method

Also Published As

Publication number Publication date
JP2014123797A (en) 2014-07-03

Similar Documents

Publication Publication Date Title
JP6065474B2 (en) Imaging control apparatus, imaging control method, and program
JP5971207B2 (en) Image adjustment apparatus, image adjustment method, and program
JP6119235B2 (en) Imaging control apparatus, imaging system, imaging control method, and program
US10477106B2 (en) Control system, imaging device, and computer-readable medium
US9723191B2 (en) RAW camera peripheral with handheld mobile unit for processing RAW image data
JP6267502B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6933059B2 (en) Imaging equipment, information processing system, program, image processing method
JP5843027B1 (en) Imaging apparatus, control method, and program
WO2020029679A1 (en) Control method and apparatus, imaging device, electronic device and readable storage medium
CN113315956A (en) Image processing apparatus, image capturing apparatus, image processing method, and machine-readable medium
JP6299116B2 (en) Imaging apparatus, imaging method, and recording medium
JP7247609B2 (en) Imaging device, imaging method and program
CN111434104A (en) Image processing device, imaging device, image processing method, and program
WO2014188647A1 (en) Image adjustment device, image adjustment method, image adjustment program, and image capture device
US11343438B1 (en) Instant auto exposure control with multiple cameras
JP2013192088A (en) Imaging apparatus, control method, and control program
JP6725105B2 (en) Imaging device and image processing method
JP2015119436A (en) Imaging apparatus
JP7379884B2 (en) Imaging device, image processing system, method and program
JP7451888B2 (en) Imaging device, imaging system, method and program
JP2015041869A (en) Imaging apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170313

R151 Written notification of patent or utility model registration

Ref document number: 6119235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151