[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019062392A - Image processing apparatus, imaging apparatus, image processing method, and program - Google Patents

Image processing apparatus, imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP2019062392A
JP2019062392A JP2017185322A JP2017185322A JP2019062392A JP 2019062392 A JP2019062392 A JP 2019062392A JP 2017185322 A JP2017185322 A JP 2017185322A JP 2017185322 A JP2017185322 A JP 2017185322A JP 2019062392 A JP2019062392 A JP 2019062392A
Authority
JP
Japan
Prior art keywords
unnecessary component
movement information
information
image
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017185322A
Other languages
Japanese (ja)
Other versions
JP6938309B2 (en
Inventor
祥吾 松本
Shogo Matsumoto
祥吾 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017185322A priority Critical patent/JP6938309B2/en
Publication of JP2019062392A publication Critical patent/JP2019062392A/en
Application granted granted Critical
Publication of JP6938309B2 publication Critical patent/JP6938309B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

To provide an image processing apparatus capable of precisely detecting unnecessary components.SOLUTION: In an imaging apparatus 100, an image processing apparatus 104 comprises: a light source position detection unit 111 for acquiring light source position information; a movement information detection unit 112 for acquiring movement information of an imaging optical system; an unnecessary component estimation unit 113 for acquiring estimated movement information of unnecessary components included in an image on the basis of the light source position information, the movement information of the imaging optical system, and imaging condition information about the imaging optical system; a movement body detection unit 114 for acquiring movement information of a mobile body; and an unnecessary component detection unit 115 for detecting the unnecessary components on the basis of the movement information of the mobile body and the estimated movement information of the unnecessary components.SELECTED DRAWING: Figure 1

Description

本発明は、ゴーストやフレア等の不要成分を低減することが可能な撮像装置に関する。   The present invention relates to an imaging device capable of reducing unnecessary components such as ghosts and flares.

近年、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備えたデジタルスチルカメラやビデオカメラ等の撮像装置が普及している。撮像装置を用いて撮影すると、撮像光学系に入射した光の一部がレンズの界面やレンズの保持部材により反射し、撮像面に撮影光束とは別の光束として到達する場合がある。撮像面に到達した撮影光束とは別の光束は、密度の高いスポット像を形成し、または、被写体像の広範囲に被ることにより、ゴーストやフレアと呼ばれる不要成分として撮影画像中に現れる。そこで、従来、ゴーストやフレア等の不要成分を撮影の際に検出する方法が提案されている。   2. Description of the Related Art In recent years, imaging devices such as digital still cameras and video cameras provided with imaging devices such as CCD image sensors and CMOS image sensors have become widespread. When imaging is performed using an imaging device, a part of light incident on the imaging optical system may be reflected by the interface of the lens or the lens holding member, and may reach the imaging surface as a light flux different from the imaging light flux. A luminous flux other than the imaging luminous flux that has reached the imaging surface forms a high-density spot image, or appears in a photographed image as an unnecessary component called a ghost or a flare by covering a wide area of the subject image. Therefore, conventionally, a method of detecting unnecessary components such as ghost and flare at the time of photographing has been proposed.

特許文献1には、一度の撮影で複数の視差画像を取得し、一つの画像を基準画像として、残りの画像との相対視差情報を求め、各視差画像に含まれる不要成分を検出する方法が開示されている。特許文献2には、連続撮影画像のコマ間におけるフォーカスレンズ合焦位置での、デフォーカス画像の差分、ズーム時の像倍率の相関関係、および、雲台回転時の像のズレの相関関係から得られるベクトル情報からゴーストを検出する方法が開示されている。   In Patent Document 1, there is a method of acquiring a plurality of parallax images in one shooting, using one image as a reference image, determining relative parallax information with the remaining images, and detecting an unnecessary component included in each parallax image. It is disclosed. Patent Document 2 describes the difference between defocused images, the correlation of image magnification during zooming, and the correlation of image misalignment during pan head rotation at the focus lens in-focus position between consecutive frames. A method is disclosed for detecting ghosts from the obtained vector information.

特開2015−115730号公報JP, 2015-115730, A 特開2008−54206号公報JP, 2008-54206, A

しかしながら、特許文献1に開示された方法では、光源の位置や撮像装置の撮像光学系の位置によっては、撮影画像に不要成分が写り込み、不要成分の検出に十分な相対視差情報を得ることができず、不要成分を検出することができない場合がある。特許文献2に開示された方法では、撮影画像間の差分情報や相関関係を見ているため、連続撮影中に動く被写体が写り込むと、その被写体を不要成分であると誤検出してしまう可能性がある。   However, in the method disclosed in Patent Document 1, depending on the position of the light source or the position of the imaging optical system of the imaging device, an unnecessary component may be reflected in the captured image, and relative parallax information sufficient for detecting the unnecessary component may be obtained. In some cases, unnecessary components can not be detected. In the method disclosed in Patent Document 2, since difference information and correlation between photographed images are seen, if a moving subject is captured during continuous shooting, the subject may be erroneously detected as an unnecessary component. There is sex.

そこで本発明は、不要成分を高精度に検出することが可能な画像処理装置、撮像装置、画像処理方法、および、プログラムを提供することを目的とする。   Then, this invention aims at providing the image processing apparatus which can detect an unnecessary component with high precision, an imaging device, the image processing method, and a program.

本発明の一側面としての画像処理装置は、光源の位置情報を取得する光源位置取得手段と、撮像光学系の移動情報を取得する移動情報取得手段と、前記光源の位置情報と、前記撮像光学系の移動情報と、前記撮像光学系に関する撮影条件情報とに基づいて、画像に含まれる不要成分の推定移動情報を取得する不要成分推定手段と、移動体の移動情報を取得する移動体取得手段と、前記移動体の移動情報と前記不要成分の推定移動情報とに基づいて前記不要成分を検出する不要成分検出手段とを有する。   An image processing apparatus according to one aspect of the present invention includes a light source position acquisition unit that acquires positional information of a light source, a movement information acquisition unit that acquires movement information of an imaging optical system, position information of the light source, and the imaging optical system. An unnecessary component estimating means for acquiring estimated movement information of an unnecessary component contained in an image based on movement information of a system and imaging condition information on the imaging optical system, and a moving body acquisition means for acquiring movement information of a moving body And unnecessary component detection means for detecting the unnecessary component based on movement information of the moving body and estimated movement information of the unnecessary component.

本発明の他の側面としての撮像装置は、撮像光学系を介して形成された光学像を光電変換して画像データを出力する撮像素子と、前記画像処理装置とを有する。   An imaging apparatus according to another aspect of the present invention includes an imaging element that photoelectrically converts an optical image formed through an imaging optical system to output image data, and the image processing apparatus.

本発明の他の側面としての画像処理方法は、光源の位置情報を取得するステップと、撮像光学系の移動情報を取得するステップと、前記光源の位置情報と、前記撮像光学系の移動情報と、前記撮像光学系に関する撮影条件情報とに基づいて、画像に含まれる不要成分の移動情報を推定するステップと、移動体の移動情報を取得するステップと、前記移動体の移動情報と前記不要成分の推定移動情報とに基づいて前記不要成分を検出するステップとを有する。   According to another aspect of the present invention, an image processing method includes: acquiring position information of a light source; acquiring movement information of an imaging optical system; position information of the light source; and movement information of the imaging optical system Estimating movement information of an unnecessary component included in an image based on photographing condition information on the imaging optical system, acquiring movement information of a moving body, movement information of the moving body, and the unnecessary component And detecting the unnecessary component based on the estimated movement information.

本発明の他の側面としてのプログラムは、前記画像処理方法をコンピュータに実行させる。   A program according to another aspect of the present invention causes a computer to execute the image processing method.

本発明の他の目的及び特徴は、以下の実施形態において説明される。   Other objects and features of the present invention will be described in the following embodiments.

本発明によれば、不要成分を高精度に検出することが可能な画像処理装置、撮像装置、画像処理方法、および、プログラムを提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, an imaging apparatus, an image processing method, and a program capable of detecting an unnecessary component with high accuracy.

各実施形態における撮像装置のブロック図である。It is a block diagram of an imaging device in each embodiment. 第1実施形態における不要成分検出補正処理を示すフローチャートである。It is a flowchart which shows the unnecessary component detection correction process in 1st Embodiment. 第1実施形態における不要成分移動情報推定処理の概略図である。It is the schematic of the unnecessary component movement information estimation process in 1st Embodiment. 第1実施形態における移動体検出処理の概略図である。It is the schematic of the mobile body detection process in 1st Embodiment. 第1実施形態における不要成分補正処理の概略図である。It is the schematic of the unnecessary component correction | amendment process in 1st Embodiment. 第2実施形態における不要成分検出補正処理を示すフローチャートである。It is a flowchart which shows the unnecessary component detection correction process in 2nd Embodiment. 第2実施形態における不要成分領域推定処理の概略図である。It is the schematic of the unnecessary component area | region estimation process in 2nd Embodiment. 第2実施形態における移動体検出処理の概略図である。It is the schematic of the moving body detection process in 2nd Embodiment. 第3実施形態における不要成分検出補正処理を示すフローチャートFlow chart showing unnecessary component detection and correction processing in the third embodiment

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1実施形態]
まず、図1を参照して、本発明の第1実施形態における撮像装置の全体構成について説明する。図1は、本実施形態における撮像装置100のブロック図である。
First Embodiment
First, with reference to FIG. 1, the entire configuration of an imaging device according to a first embodiment of the present invention will be described. FIG. 1 is a block diagram of an imaging device 100 in the present embodiment.

撮像光学系101は、絞り101aおよびフォーカスレンズ101bを含み、不図示の被写体からの光を撮像素子102上(撮像面上)に結像させる。撮像素子102は、CCDセンサやCMOSセンサ等の光電変換素子を備え、撮像光学系101を介して形成された光学像(被写体像)を光電変換してアナログ信号(画像信号)を生成する。A/Dコンバータ103は、撮像素子102から出力されたアナログ信号をデジタル信号に変換する。   The imaging optical system 101 includes a diaphragm 101a and a focusing lens 101b, and focuses light from a not-shown object on the imaging element 102 (on the imaging surface). The imaging element 102 includes photoelectric conversion elements such as a CCD sensor and a CMOS sensor, and photoelectrically converts an optical image (object image) formed through the imaging optical system 101 to generate an analog signal (image signal). The A / D converter 103 converts an analog signal output from the imaging element 102 into a digital signal.

画像処理部(画像処理装置)104は、A/Dコンバータ103から出力されたデジタル信号に対して、各種の画像処理を行うことにより、画像(画像データ)を生成する。また画像処理部104は、後述する不要光検出補正処理機能を有し、光源位置検出部111、移動情報検出部112、不要成分推定部113、移動体検出部114、不要成分検出部115、および、不要成分補正部116を有する。光源位置検出部(光源位置取得手段)111は、光源の位置を検出(取得)する。移動情報検出部(移動情報取得手段)112は、撮像装置100の移動に伴う撮像光学系101の移動情報を検出(取得)する。不要成分推定部(不要成分推定手段)113は、不要成分の移動方向および不要成分の発生位置(不要成分の移動情報)を推定する。本実施形態において、不要成分の移動情報は、光源の位置情報と、撮像光学系101の移動情報と、撮像光学系101に関する撮影条件情報とに基づいて取得することができる。移動体検出部(移動体取得手段)114は、移動体を検出(取得)する。不要成分検出部(不要成分検出手段)115は、移動体検出部114により検出された移動体が不要成分であるか否かを判定する(不要成分を検出する)。不要成分補正部(不要成分補正手段)116は、不要成分検出部115により検出された不要成分を除去(低減)するように画像(画像データ)を補正する。   An image processing unit (image processing apparatus) 104 performs various types of image processing on the digital signal output from the A / D converter 103 to generate an image (image data). The image processing unit 104 also has an unnecessary light detection and correction processing function described later, and includes a light source position detection unit 111, a movement information detection unit 112, an unnecessary component estimation unit 113, a moving object detection unit 114, an unnecessary component detection unit 115, and , And the unnecessary component correction unit 116. The light source position detection unit (light source position acquisition unit) 111 detects (acquires) the position of the light source. The movement information detection unit (movement information acquisition means) 112 detects (acquires) movement information of the imaging optical system 101 accompanying movement of the imaging device 100. The unnecessary component estimation unit (necessary component estimation means) 113 estimates the movement direction of the unnecessary component and the generation position of the unnecessary component (movement information of the unnecessary component). In the present embodiment, the movement information of the unnecessary component can be acquired based on the position information of the light source, the movement information of the imaging optical system 101, and the imaging condition information on the imaging optical system 101. A mobile detection unit (mobile acquisition means) 114 detects (acquires) a mobile. The unnecessary component detection unit (unnecessary component detection means) 115 determines whether or not the moving object detected by the moving object detection unit 114 is an unnecessary component (detects the unnecessary component). The unnecessary component correction unit (necessary component correction unit) 116 corrects the image (image data) so as to remove (reduce) the unnecessary component detected by the unnecessary component detection unit 115.

表示部105は、例えばLCD等を備えて構成されており、撮影モードに関する情報、撮影前のプレビュー画像、画像処理部104により生成され出力された画像を表示する。撮像光学系制御部106は、撮影設定やユーザの操作により指定される絞り値(F値)およびズーム倍率に従い、システムコントローラ110から送信される制御値に基づいて、絞り101aおよびフォーカスレンズ101bを制御する。状態検知部107は、撮像装置100の各部の処理状態や設定を検知し、画像処理部104に対して適切な画像処理を行うように検知結果を通知する。   The display unit 105 includes, for example, an LCD and the like, and displays information related to a shooting mode, a preview image before shooting, and an image generated and output by the image processing unit 104. The imaging optical system control unit 106 controls the aperture 101 a and the focus lens 101 b based on the control value transmitted from the system controller 110 in accordance with the aperture value (F value) and zoom magnification specified by the shooting setting or the user's operation. Do. The state detection unit 107 detects the processing state and setting of each unit of the imaging apparatus 100, and notifies the image processing unit 104 of the detection result so as to perform appropriate image processing.

記憶部108は、RAMまたはROM等のメモリであり、所定のプログラムを記憶するとともに、画像処理中の画像データや画像処理に必要なパラメータデータを保持している。画像記録媒体109は、着脱可能なフラッシュメモリ等であり、画像処理部104により生成され出力された画像(画像データ)をファイルとして記録する。   The storage unit 108 is a memory such as a RAM or a ROM, stores a predetermined program, and holds image data during image processing and parameter data necessary for image processing. The image recording medium 109 is a removable flash memory or the like, and records the image (image data) generated and output by the image processing unit 104 as a file.

システムコントローラ110は、撮像装置100の全体の制御を担っている。システムコントローラ110は、画像処理部104、表示部105、撮像光学系制御部106、状態検知部107、および、画像記録媒体109のそれぞれに適切なタイミングで制御命令を出力することにより、画像の生成、保存、表示を統制する。   The system controller 110 is responsible for overall control of the imaging device 100. The system controller 110 generates an image by outputting control commands to the image processing unit 104, the display unit 105, the imaging optical system control unit 106, the state detection unit 107, and the image recording medium 109 at appropriate timings. Control, save, display.

光源位置検出部111は、特定の輝度を超える被写体を光源として検出し、または、被写体認識技術により、被写体の反射特性値と画像視差情報とに基づいて光源を検出する。移動情報検出部112は、撮像装置100に設置されている不図示の加速度センサによる検出情報や、連続撮影により撮影された画像と以前の撮影画像とを比較して得られる差分情報を用いて、撮像装置100に連動する撮像光学系101の移動情報を検出する。   The light source position detection unit 111 detects an object having a specific luminance as a light source, or detects the light source based on the reflection characteristic value of the object and the image parallax information by using an object recognition technique. The movement information detection unit 112 uses detection information by an acceleration sensor (not shown) installed in the imaging apparatus 100, or difference information obtained by comparing an image photographed by continuous photographing with a previously photographed image. The movement information of the imaging optical system 101 interlocked with the imaging device 100 is detected.

光源位置検出部111により検出した不図示の光源からの入射光が撮像光学系101内の部材で反射することにより、撮像素子102に被写体撮影光束とは別の光束として到達する不要光が発生する。不要成分推定部113は、その不要光について、画像中に不要成分として現れる位置と、移動情報検出部112により検出された撮像光学系101の移動情報とに基づいて、不要成分の移動方向や発生位置(不要成分の移動情報)を推定する。   When incident light from a light source (not shown) detected by the light source position detection unit 111 is reflected by a member in the imaging optical system 101, unnecessary light reaching the imaging element 102 as a light flux different from the subject photographing light flux is generated. . The unnecessary component estimation unit 113 determines the moving direction or generation of the unnecessary component based on the position where the unnecessary light appears as an unnecessary component in the image and the movement information of the imaging optical system 101 detected by the movement information detection unit 112. The position (movement information of unnecessary components) is estimated.

移動体検出部114は、連続撮影により撮影された画像について、以前の撮影画像と比較して差分情報を抽出することにより、移動体の移動情報を検出する。不要成分検出部115は、不要成分推定部113により推定された不要成分の移動情報と、移動体検出部114により検出された移動体の移動情報とを比較し、移動体が不要成分であるか、または、不要成分ではない別の被写体であるかを判定する(区別する)。不要成分補正部116は、不要成分検出部115により判定(検出)された不要成分を、周囲の画素情報または連続撮影の前後の画像情報に基づいて、除去(低減)するように画像を補正する。   The moving body detection unit 114 detects movement information of the moving body by extracting difference information from images captured by continuous shooting in comparison with previously captured images. The unnecessary component detection unit 115 compares the movement information of the unnecessary component estimated by the unnecessary component estimation unit 113 with the movement information of the mobile detected by the mobile detection unit 114, and determines whether the mobile is an unnecessary component Or, it is determined (distinguished) whether it is another object that is not an unnecessary component. The unnecessary component correction unit 116 corrects the image to remove (reduce) the unnecessary component determined (detected) by the unnecessary component detection unit 115 based on the surrounding pixel information or the image information before and after the continuous shooting. .

次に、図2乃至図5を参照して、本実施形態における不要成分検出補正処理について説明する。図2は、不要成分検出補正処理を示すフローチャートである。図2の各ステップは、主にシステムコントローラ110の指令に基づいて、画像処理部104の各部により実行される。図3は、不要成分移動情報推定処理(図2のステップS203)の概略図である。図4は、移動体検出処理(図2のステップS204)の概略図である。図5は、不要成分補正処理(図2のステップS206)の概略図である。   Next, with reference to FIG. 2 to FIG. 5, the unnecessary component detection and correction processing in the present embodiment will be described. FIG. 2 is a flowchart showing the unnecessary component detection and correction process. Each step in FIG. 2 is executed by each unit of the image processing unit 104 mainly based on an instruction from the system controller 110. FIG. 3 is a schematic view of the unnecessary component movement information estimation process (step S203 in FIG. 2). FIG. 4 is a schematic view of the mobile object detection process (step S204 in FIG. 2). FIG. 5 is a schematic view of the unnecessary component correction process (step S206 in FIG. 2).

まず、図2のステップS201において、光源位置検出部111は、特定の輝度を超える被写体を光源302として検出し、または、被写体認識技術により、その被写体の反射特性値と画像の視差情報とに基づいて光源を検出することにより、光源の位置を検出する。続いてステップS202において、移動情報検出部112は、連続撮影により撮影された画像について、以前の撮影画像と比較して得られる差分情報を用いることにより、撮像装置100に連動する撮像光学系101の移動情報を検出する。なお、撮像光学系101の移動情報を検出する際に、前後画像の比較から得られる差分情報を用いる必要はなく、撮像装置100に設置されている不図示の加速度センサによる検出情報を用いてもよい。   First, in step S201 of FIG. 2, the light source position detection unit 111 detects an object exceeding a specific luminance as the light source 302, or based on the reflection characteristic value of the object and the parallax information of the image by object recognition technology. By detecting the light source, the position of the light source is detected. Subsequently, in step S202, the movement information detection unit 112 uses difference information obtained by comparing the image captured by the continuous shooting with the previous captured image, so that the movement of the imaging optical system 101 interlocked with the imaging device 100. Detect movement information. When detecting movement information of the imaging optical system 101, it is not necessary to use difference information obtained from comparison of front and rear images, and even if detection information by an acceleration sensor (not shown) installed in the imaging apparatus 100 is used. Good.

続いてステップS203において、不要成分推定部113は、不要成分の位置および移動方向(不要成分の移動情報)を画像ごとに推定する。不要成分の移動情報は、ステップS201にて検出された光源302の位置(位置情報)と、絞り値(F値)やズームレンズ位置等の撮像光学系101の撮影条件情報と、ステップS202にて検出された撮像光学系101の移動情報とに基づいて、推定される。例えば、撮像装置301が光源302の下で方向301aに振られて連続撮影が行われたとすると、画像303、304、305中の矢印303a、304a、305aのように、不要成分の位置と方向に関する移動情報(不要成分の推定移動情報)が推定される。   Subsequently, in step S203, the unnecessary component estimation unit 113 estimates the position and movement direction of the unnecessary component (movement information of the unnecessary component) for each image. The movement information of unnecessary components includes the position (position information) of the light source 302 detected in step S201, the photographing condition information of the imaging optical system 101 such as the aperture value (F value) and the zoom lens position, and It is estimated based on the detected movement information of the imaging optical system 101. For example, assuming that the imaging apparatus 301 is swung in the direction 301a under the light source 302 and continuous shooting is performed, the arrows 303a, 304a, and 305a in the images 303, 304, and 305 relate to the position and direction of unnecessary components. Movement information (estimated movement information of unwanted components) is estimated.

続いてステップS204において、移動体検出部114は、連続撮影により撮影された画像について、以前の撮影画像と比較して差分情報を抽出することにより、移動体の移動情報(移動体情報)を検出する。例えば、図4に示される撮像装置401が方向401aに向けて振られて連続撮影が行われ、画像402、403、404、405が撮影されたものとする。そして画像402〜405には、背景部と主被写体以外にそれぞれ、物体402a、402b、403a、403b、404a、404b、405a、405bが写り込んだものとする。このとき移動体検出部114は、検出対象となる撮影画像とその前の撮影画像との差分に基づいて、物体が移動体であるか否かを判定する。そして移動体検出部114は、物体が移動体である場合、その物体の移動情報を検出する。画像406、407、408はそれぞれ、画像402、403の差分情報、画像403、404の差分情報、画像404、405の差分情報を示している。移動体検出部114は、これらの差分情報に基づいて、物体402a〜405bが移動体であると判定した場合、矢印406a、406b、407a、407b、408a、408bで示されるように、それぞれの移動体の移動情報を検出する。   Subsequently, in step S204, the moving body detection unit 114 detects movement information (moving body information) of the moving body by extracting difference information from images captured by continuous shooting in comparison with previous captured images. Do. For example, it is assumed that the imaging apparatus 401 illustrated in FIG. 4 is swung in the direction 401a to perform continuous imaging, and images 402, 403, 404, and 405 are captured. In the images 402 to 405, objects 402a, 402b, 403a, 403b, 404a, 404b, 405a, and 405b are reflected in addition to the background portion and the main subject, respectively. At this time, the moving object detection unit 114 determines whether the object is a moving object based on the difference between the captured image to be detected and the previous captured image. When the object is a moving object, the moving object detection unit 114 detects the movement information of the object. Images 406, 407, and 408 indicate the difference information of the images 402 and 403, the difference information of the images 403 and 404, and the difference information of the images 404 and 405, respectively. When the moving body detection unit 114 determines that the objects 402a to 405b are moving bodies based on the difference information, each movement is performed as indicated by arrows 406a, 406b, 407a, 407b, 408a, and 408b. Detect body movement information.

続いてステップS205において、ステップS203にて推定された不要成分の推定移動情報と、ステップS204にて検出された移動体の移動情報とを比較し、移動体が不要成分であるか否かを判定(区別)する。例えば、撮像装置301、401、および、方向301a、401aがそれぞれ同一の撮像装置かつ撮影方向であるとした場合、矢印303aで示される不要成分の推定移動情報と矢印406a、406bで示される移動体の移動情報とを比較する。本実施形態において、矢印303aで示される不要成分の推定移動情報は、矢印406aで示される移動体の移動情報と一致している。このため不要成分検出部115は、矢印406aで示される移動体が不要成分であると判定する。一方、矢印303aで示される不要成分の推定移動情報は、矢印406bで示される移動体の移動情報と一致していない。このため不要成分検出部115は、矢印406bで示される移動体は不要成分ではないと判定する。   Subsequently, in step S205, the estimated movement information of the unnecessary component estimated in step S203 is compared with the movement information of the moving body detected in step S204 to determine whether the moving body is an unnecessary component. (Separate) For example, assuming that the imaging devices 301 and 401 and the directions 301a and 401a are respectively the same imaging device and shooting direction, estimated movement information of the unnecessary component indicated by the arrow 303a and the moving object indicated by the arrows 406a and 406b. Compare with movement information of In the present embodiment, the estimated movement information of the unnecessary component indicated by the arrow 303a matches the movement information of the mobile indicated by the arrow 406a. Therefore, the unnecessary component detection unit 115 determines that the moving body indicated by the arrow 406a is an unnecessary component. On the other hand, the estimated movement information of the unnecessary component indicated by the arrow 303a does not match the movement information of the moving body indicated by the arrow 406b. Therefore, the unnecessary component detection unit 115 determines that the moving body indicated by the arrow 406 b is not an unnecessary component.

このように本実施形態において、不要成分検出部115は、移動体の移動情報と不要成分の推定移動情報とを比較する。そして不要成分検出部115は、移動体の移動情報と不要成分の推定移動情報とが一致する場合、移動体は不要成分であると判定する。一方、不要成分検出部115は、移動体の移動情報と不要成分の推定移動情報とが一致しない場合、移動体は不要成分でないと判定する。なお、不要成分の推定移動情報は推定値であるため、移動体の移動情報と完全に一致していなくても、ある閾値の範囲内で相関があれば、その移動体を不要成分であると判定してもよい。すなわち、一致とは、厳密な一致だけでなく、実質的な一致と評価される範囲内の値(略一致)を含む。   As described above, in the present embodiment, the unnecessary component detection unit 115 compares the movement information of the moving object with the estimated movement information of the unnecessary component. Then, the unnecessary component detection unit 115 determines that the moving object is an unnecessary component when the movement information of the moving object matches the estimated movement information of the unnecessary component. On the other hand, when the movement information of the moving object and the estimated movement information of the unnecessary component do not match, the unnecessary component detection unit 115 determines that the moving object is not an unnecessary component. In addition, since the estimated movement information of the unnecessary component is an estimated value, even if the movement information of the moving body does not completely match, if there is a correlation within a certain threshold range, the moving body is regarded as an unnecessary component You may judge. That is, the term "matching" includes not only exact matching but also values within a range that is regarded as substantial matching (substantially match).

続いてステップS206において、不要成分補正部116は、ステップS502にて判定(検出)された不要成分を除去(低減)するように画像を補正する。図5は、連続撮影時の不要成分の補正の一例を示している。例えば、画像502にて検出された不要成分502aに対して補正を行う場合、画像502の撮影前に撮影された画像501(第1の画像)における不要成分502aに相当する位置の画素成分501aを用いることにより、補正画像504を生成することができる。一方、不要成分に相当する位置で同じく不要成分が写り込むなどして、補正対象画像以前の画像の画素成分では補正ができない場合、続く撮影画像の画素成分を用いてもよい。例えば、画像502にて判定された不要成分502aを補正する場合、画像502の撮影後に撮影された画像503(第2の画像)における不要成分502aに相当する位置の画素成分503aを用いることで、補正画像504を生成することができる。またこのとき、必ず1枚前または後の撮影画像の画素成分を補正に用いる必要はなく、数枚前または後の撮影画像の画素成分を用いてもよい。また、不要成分を前後の撮影画像の全ての補正に用いることができない場合、補正対象画像自身の不要成分周囲の画素成分を用いることにより、不要成分を補正してもよい。   Subsequently, in step S206, the unnecessary component correction unit 116 corrects the image so as to remove (reduce) the unnecessary component determined (detected) in step S502. FIG. 5 shows an example of correction of unnecessary components during continuous shooting. For example, in the case of correcting the unnecessary component 502a detected in the image 502, the pixel component 501a at a position corresponding to the unnecessary component 502a in the image 501 (first image) captured before capturing the image 502 is By using it, the corrected image 504 can be generated. On the other hand, when the unnecessary component is similarly reflected at the position corresponding to the unnecessary component and the pixel component of the image before the correction target image can not be corrected, the pixel component of the subsequent captured image may be used. For example, when correcting the unnecessary component 502a determined in the image 502, by using the pixel component 503a at a position corresponding to the unnecessary component 502a in the image 503 (second image) captured after capturing the image 502, A corrected image 504 can be generated. At this time, it is not necessary to necessarily use the pixel component of the captured image of one before or after for correction, and the pixel component of the captured image of several before or after may be used. In addition, when the unnecessary component can not be used for all corrections of the previous and subsequent captured images, the unnecessary component may be corrected by using a pixel component around the unnecessary component of the correction target image itself.

本実施形態において、ステップS201〜S207を経ることにより、ゴーストやフレア等の不要成分を、視差情報の得られない撮影条件下でも、検出して補正することができる。特に、光源の位置と撮像光学系の撮影条件、撮像光学系の移動情報から推定される不要成分移動情報、および、撮影画像間で得られる移動体の移動情報を用いることにより、不要成分または移動体の誤検知を抑制し、高精度に不要成分を検出することができる。   In the present embodiment, through steps S201 to S207, unnecessary components such as ghost and flare can be detected and corrected even under shooting conditions where parallax information can not be obtained. In particular, by using the position of the light source and the photographing condition of the imaging optical system, the unnecessary component movement information estimated from the movement information of the imaging optical system, and the movement information of the movable body obtained between photographed images Erroneous detection of the body can be suppressed, and unnecessary components can be detected with high accuracy.

[第2実施形態]
次に、図6乃至図8を参照して、第2実施形態における不要成分検出補正処理について説明する。図6は、本実施形態における不要成分検出補正処理を示すフローチャートである。図6の各ステップは、主にシステムコントローラ110の指令に基づいて、画像処理部104の各部により実行される。図7は、不要成分領域推定処理(図6のステップS604)の概略図である。図8は、移動体検出処理(図6のステップS605)の概略図である。
Second Embodiment
Next, the unnecessary component detection and correction process in the second embodiment will be described with reference to FIGS. 6 to 8. FIG. 6 is a flowchart showing the unnecessary component detection and correction process in the present embodiment. Each step in FIG. 6 is executed by each unit of the image processing unit 104 mainly based on a command from the system controller 110. FIG. 7 is a schematic view of the unnecessary component region estimation process (step S604 in FIG. 6). FIG. 8 is a schematic view of the mobile object detection process (step S605 in FIG. 6).

本実施形態は、第1実施形態の不要成分検出補正処理に、不要成分領域推定処理(図6のステップS604)を追加し、それに伴い移動体検出処理(ステップS605)の内容を変更している。これは、不要成分が発生する可能性のある領域を推定してその推定領域でのみ移動体検出処理を行うことにより、不要成分でない移動体の誤検出を抑制し、検出処理の負荷を低減するためである。なお、本実施形態のその他の処理(ステップS601〜S603、S606、S607)は、第1実施形態の処理(ステップS201〜S203、S205、S206)とそれぞれ同様であるため、それらの説明は省略する。   In this embodiment, the unnecessary component area estimation process (step S604 in FIG. 6) is added to the unnecessary component detection and correction process of the first embodiment, and the contents of the mobile object detection process (step S605) are changed accordingly. . This is to reduce the load of the detection process by suppressing the false detection of the mobile object which is not the unnecessary component by estimating the region where the unnecessary component may occur and performing the mobile object detection processing only in the estimated region. It is for. The other processes (steps S601 to S603, S606, and S607) of this embodiment are the same as the processes (steps S201 to S203, S205, and S206) of the first embodiment, and thus the description thereof will be omitted. .

ステップS604において、画像処理部104(不要成分推定部113)は、不要成分が発生する可能性のある領域を画像ごとに推定する。この領域は、ステップS601にて検出した光源702の位置情報と、絞り値(F値)やズームレンズ位置等の撮像光学系の撮影条件情報と、ステップS602にて検出した撮像光学系101の移動情報とに基づいて推定される。例えば、図7に示されるように、撮像装置701が光源702の下で方向701aに振られて連続撮影が行われたとすると、画像703、704、705はそれぞれ、領域703b、704b、705bの内部に、方向703a、704a、705aの不要成分を含む。   In step S604, the image processing unit 104 (the unnecessary component estimation unit 113) estimates, for each image, a region in which the unnecessary component may occur. This area includes the position information of the light source 702 detected in step S601, the imaging condition information of the imaging optical system such as the aperture value (F value) and the zoom lens position, and the movement of the imaging optical system 101 detected in step S602. It is estimated based on the information. For example, as shown in FIG. 7, when the imaging device 701 is swung in the direction 701a under the light source 702 and continuous shooting is performed, the images 703, 704, and 705 are respectively inside the regions 703b, 704b, and 705b. , The unnecessary components of the directions 703a, 704a, 705a.

続いてステップS605において、画像処理部104(移動体検出部114)は、ステップS204と異なり、ステップS605にて推定した領域に関してのみ移動体検出処理を行う。図8は、推定した領域のみで行う移動体検出処理の一例を示している。図8に示されるように、撮像装置801が方向801aに振られて連続撮影が行われたとき、画像802、803、804、805が撮影されたものとする。また、画像802〜805には、背景部と主被写体以外にそれぞれ、物体802a、802b、803a、803b、804a、804b、805a、805bが写り込んでいるものとする。このとき移動体検出部114は、検出対象となる撮影画像の前の撮影画像との差分に基づいて、物体が移動体か否かを判定する。移動体検出部114は、物体が移動体であると判定した場合、移動情報を検出する。本実施形態において、検出処理の際に差分を求めるために比較する領域は、ステップS604にて推定した領域のみである。   Subsequently, in step S605, the image processing unit 104 (moving object detection unit 114) performs the moving object detection process only on the area estimated in step S605, unlike step S204. FIG. 8 shows an example of mobile object detection processing performed only in the estimated area. As shown in FIG. 8, when the imaging device 801 is swung in the direction 801 a and continuous shooting is performed, it is assumed that the images 802, 803, 804, and 805 are shot. In addition, in the images 802 to 805, objects 802a, 802b, 803a, 803b, 804a, 804b, 805a, and 805b are reflected in addition to the background portion and the main subject. At this time, the moving object detection unit 114 determines whether the object is a moving object based on the difference from the previous captured image of the captured image to be detected. When it is determined that the object is a moving object, the moving object detection unit 114 detects movement information. In the present embodiment, the area to be compared in order to obtain the difference in the detection process is only the area estimated in step S604.

図8中の画像806、807、808はそれぞれ、画像802、803の差分情報、画像803、804の差分情報、画像804、805の差分情報である。領域806b、807b、808cはそれぞれ、ステップS604にて推定した領域703b、704b、705bに基づく比較領域である。方向806a、807a、808aはそれぞれ、比較結果として物体802a、803a、804a、805aが移動体として検出されて得られた移動情報を示している。一方、物体802b、803b、804bは、それぞれ移動体であったとしても、不要成分推定領域の外にあり、以降の不要成分判定処理は不要である。このため本実施形態では、移動体検出部114は、物体802b、803b、804bに対して移動体検出処理を実施しない。   Images 806, 807, and 808 in FIG. 8 are difference information on the images 802 and 803, difference information on the images 803 and 804, and difference information on the images 804 and 805, respectively. Regions 806b, 807b, and 808c are comparison regions based on the regions 703b, 704b, and 705b estimated in step S604, respectively. The directions 806a, 807a, and 808a respectively indicate movement information obtained by detecting the objects 802a, 803a, 804a, and 805a as a moving object as a comparison result. On the other hand, even if the objects 802b, 803b, and 804b are mobile objects, they are outside the unnecessary component estimation area, and the subsequent unnecessary component determination process is unnecessary. Therefore, in the present embodiment, the moving object detection unit 114 does not perform the moving object detection process on the objects 802b, 803b, and 804b.

本実施形態によれば、不要成分が発生する可能性のある領域においてのみ移動体の検出処理を行うこと。これにより、第1実施形態と比較して、不要成分でない移動体の誤検出を更に抑制するとともに、検出処理負荷を低減することができる。   According to the present embodiment, the mobile object detection processing is performed only in the area where the unnecessary component may occur. As a result, compared to the first embodiment, it is possible to further suppress erroneous detection of a mobile object that is not an unnecessary component, and to reduce detection processing load.

[第3実施形態]
次に、図9を参照して、第3実施形態における不要成分検出補正処理について説明する。図9は、本実施形態における不要成分検出補正処理を示すフローチャートである。図9の各ステップは、主にシステムコントローラ110の指令に基づいて、画像処理部104の各部により実行される。本実施形態は、特許文献1に開示されているように、1度の撮影で複数の視点の画像を取得することが可能な撮像装置(または画像処理装置)による不要成分検出補正処理に関する。
Third Embodiment
Next, with reference to FIG. 9, the unnecessary component detection and correction process in the third embodiment will be described. FIG. 9 is a flowchart showing the unnecessary component detection and correction process in the present embodiment. Each step in FIG. 9 is executed by each unit of the image processing unit 104 mainly based on an instruction of the system controller 110. The present embodiment relates to unnecessary component detection and correction processing by an imaging device (or an image processing device) capable of acquiring images of a plurality of viewpoints in one shooting, as disclosed in Patent Document 1.

まず、ステップS901において、特許文献1に開示された方法を用いて、画像処理部104は、複数の視点の画像から差分情報(相対差分情報)を求める。続いてステップS902において、画像処理部104(不要成分検出部115)は、ステップS901にて求めた差分情報が、不要成分の検出に十分な情報であるか否か(差分情報に基づいて不要成分を検出することができるか否か)を判定する。ステップS902にて不要成分の検出に十分な差分情報が得られなかった場合(差分情報に基づいて不要成分を検出することができると判定した場合)、ステップS903に進む。ステップS903において、画像処理部104は、移動情報に基づいて不要成分検出補正処理を行う。なお、不要成分検出補正処理は、第1実施形態または第2実施形態にて説明した不要成分検出補正処理である。   First, in step S901, using the method disclosed in Patent Document 1, the image processing unit 104 obtains difference information (relative difference information) from images of a plurality of viewpoints. Subsequently, in step S902, the image processing unit 104 (the unnecessary component detection unit 115) determines whether the difference information obtained in step S901 is information sufficient for detecting an unnecessary component (an unnecessary component based on the difference information). To determine if it can be detected. If it is determined in step S902 that sufficient difference information can not be obtained for detecting the unnecessary component (if it is determined that the unnecessary component can be detected based on the difference information), the process proceeds to step S903. In step S903, the image processing unit 104 performs unnecessary component detection and correction processing based on the movement information. The unnecessary component detection and correction process is the unnecessary component detection and correction process described in the first embodiment or the second embodiment.

一方、ステップS902にて不要成分の検出に十分な情報が得られた場合、ステップS904に進む。ステップS904において、画像処理部104は、ステップS901にて取得した差分情報に基づいて、不要成分検出補正処理を行う。なお、不要成分検出補正処理は、特許文献1に開示された不要成分検出処理および不要成分補正処理に相当する。   On the other hand, if sufficient information for detecting an unnecessary component is obtained in step S902, the process proceeds to step S904. In step S904, the image processing unit 104 performs unnecessary component detection and correction processing based on the difference information acquired in step S901. The unnecessary component detection and correction processing corresponds to the unnecessary component detection processing and the unnecessary component correction processing disclosed in Patent Document 1.

本実施形態によれば、1度の撮影で複数の視差画像を取得可能である場合、複数の視点の画像の差分情報に基づいて不要成分を検出することができるか否かを予め判定し、好適な不要成分検出補正方法を選択することができる。その結果、より高精度な不要成分の検出および補正を行うことが可能となる。   According to the present embodiment, when multiple parallax images can be acquired by one shooting, it is determined in advance whether unnecessary components can be detected based on difference information of images of multiple viewpoints, A suitable unnecessary component detection and correction method can be selected. As a result, it is possible to perform more accurate detection and correction of unnecessary components.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

各実施形態によれば、視差情報が得られない撮影条件下でも不要成分を高精度に検出することが可能な画像処理装置、撮像装置、画像処理方法、および、プログラムを提供することができる。   According to each embodiment, it is possible to provide an image processing apparatus, an imaging apparatus, an image processing method, and a program capable of detecting an unnecessary component with high accuracy even under shooting conditions where parallax information can not be obtained.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

104 画像処理部(画像処理装置)
111 光源位置検出部(光源位置取得手段)
112 移動情報検出部(移動情報取得手段)
113 不要成分推定部(不要成分推定手段)
114 移動体検出部(移動体取得手段)
115 不要成分検出部(不要成分検出手段)
104 Image processing unit (image processing apparatus)
111 Light source position detection unit (light source position acquisition unit)
112 Movement information detection unit (movement information acquisition unit)
113 Unwanted Component Estimation Unit (Unwanted Component Estimation Means)
114 Mobile Object Detection Unit (Mobile Object Acquisition Means)
115 Unnecessary component detection unit (unnecessary component detection means)

Claims (10)

光源の位置情報を取得する光源位置取得手段と、
撮像光学系の移動情報を取得する移動情報取得手段と、
前記光源の位置情報と、前記撮像光学系の移動情報と、前記撮像光学系に関する撮影条件情報とに基づいて、画像に含まれる不要成分の推定移動情報を取得する不要成分推定手段と、
移動体の移動情報を取得する移動体取得手段と、
前記移動体の移動情報と前記不要成分の推定移動情報とに基づいて前記不要成分を検出する不要成分検出手段と、を有することを特徴とする画像処理装置。
Light source position acquisition means for acquiring position information of the light source;
Movement information acquisition means for acquiring movement information of the imaging optical system;
An unnecessary component estimation unit that acquires estimated movement information of an unnecessary component included in an image based on position information of the light source, movement information of the imaging optical system, and imaging condition information on the imaging optical system;
Mobile object acquisition means for acquiring movement information of a mobile object;
An image processing apparatus comprising: unnecessary component detection means for detecting the unnecessary component based on movement information of the movable body and estimated movement information of the unnecessary component.
前記不要成分検出手段により検出された前記不要成分を低減するように前記画像を補正する不要成分補正手段を更に有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an unnecessary component correction unit configured to correct the image so as to reduce the unnecessary component detected by the unnecessary component detection unit. 前記不要成分補正手段は、前記画像の撮影前に撮影された第1の画像および前記画像の撮影後に撮影された第2の画像の少なくとも一方に基づいて、前記画像を補正することを特徴とする請求項2に記載の画像処理装置。   The unnecessary component correction means corrects the image based on at least one of a first image taken before the image is taken and a second image taken after the image is taken. The image processing apparatus according to claim 2. 前記不要成分検出手段は、
前記移動体の移動情報と前記不要成分の推定移動情報とを比較し、
前記移動体の移動情報と前記不要成分の推定移動情報とが一致する場合、前記移動体は前記不要成分であると判定し、
前記移動体の移動情報と前記不要成分の推定移動情報とが一致しない場合、前記移動体は前記不要成分でないと判定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The unnecessary component detection means
Comparing movement information of the moving body with estimated movement information of the unnecessary component;
When the movement information of the moving body and the estimated movement information of the unnecessary component coincide, it is determined that the moving body is the unnecessary component,
The image according to any one of claims 1 to 3, wherein when the movement information of the moving body and the estimated movement information of the unnecessary component do not match, it is determined that the moving body is not the unnecessary component. Processing unit.
前記不要成分推定手段は、前記画像に関して、前記不要成分が発生する可能性のある領域を推定し、
前記移動体取得手段は、前記領域の範囲内で、前記移動体の移動情報を取得することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
The unnecessary component estimation means estimates a region in which the unnecessary component may occur with respect to the image;
The image processing apparatus according to any one of claims 1 to 4, wherein the moving body acquisition unit acquires movement information of the moving body within the range of the area.
前記不要成分検出手段は、
前記画像に含まれる、互いに異なる視点の複数の画像データの差分情報に基づいて、前記不要成分を検出することができるか否かを判定し、
前記差分情報に基づいて前記不要成分を検出することができると判定した場合、前記差分情報を用いて前記不要成分を検出し、
前記差分情報に基づいて前記不要成分を検出することができないと判定した場合、前記移動体の移動情報と前記不要成分の推定移動情報とに基づいて前記不要成分を検出する請求項1乃至5のいずれか1項に記載の画像処理装置。
The unnecessary component detection means
It is determined whether the unnecessary component can be detected based on difference information of a plurality of pieces of image data of different viewpoints included in the image.
When it is determined that the unnecessary component can be detected based on the difference information, the unnecessary component is detected using the difference information,
When it is determined that the unnecessary component can not be detected based on the difference information, the unnecessary component is detected based on the movement information of the moving body and the estimated movement information of the unnecessary component. An image processing apparatus according to any one of the preceding claims.
前記撮影条件情報は、前記撮像光学系の絞り値またはズームレンズ位置の少なくとも一つを含むことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 6, wherein the shooting condition information includes at least one of an aperture value of the imaging optical system and a zoom lens position. 撮像光学系を介して形成された光学像を光電変換して画像データを出力する撮像素子と、
前記画像データに基づいて光源の位置情報を取得する光源位置取得手段と、
撮像光学系の移動情報を取得する移動情報取得手段と、
前記光源の位置情報と、前記撮像光学系の移動情報と、前記撮像光学系に関する撮影条件情報とに基づいて、前記画像データに含まれる不要成分の推定移動情報を取得する不要成分推定手段と、
移動体の移動情報を取得する移動体取得手段と、
前記移動体の移動情報と前記不要成分の推定移動情報とに基づいて前記不要成分を検出する不要成分検出手段と、を有することを特徴とする撮像装置。
An imaging element that photoelectrically converts an optical image formed via an imaging optical system and outputs image data;
A light source position acquiring unit that acquires positional information of a light source based on the image data;
Movement information acquisition means for acquiring movement information of the imaging optical system;
Unnecessary component estimation means for acquiring estimated movement information of an unnecessary component included in the image data based on position information of the light source, movement information of the imaging optical system, and imaging condition information on the imaging optical system,
Mobile object acquisition means for acquiring movement information of a mobile object;
An image pickup apparatus comprising: unnecessary component detection means for detecting the unnecessary component based on movement information of the movable body and estimated movement information of the unnecessary component.
光源の位置情報を取得するステップと、
撮像光学系の移動情報を取得するステップと、
前記光源の位置情報と、前記撮像光学系の移動情報と、前記撮像光学系に関する撮影条件情報とに基づいて、画像に含まれる不要成分の移動情報を推定するステップと、
移動体の移動情報を取得するステップと、
前記移動体の移動情報と前記不要成分の推定移動情報とに基づいて前記不要成分を検出するステップと、を有することを特徴とする画像処理方法。
Obtaining position information of the light source;
Acquiring movement information of the imaging optical system;
Estimating movement information of an unnecessary component included in an image based on position information of the light source, movement information of the imaging optical system, and imaging condition information on the imaging optical system;
Acquiring movement information of a mobile body;
Detecting the unnecessary component on the basis of the movement information of the movable body and the estimated movement information of the unnecessary component.
光源の位置情報を取得するステップと、
撮像光学系の移動情報を取得するステップと、
前記光源の位置情報と、前記撮像光学系の移動情報と、前記撮像光学系に関する撮影条件情報とに基づいて、画像に含まれる不要成分の移動情報を推定するステップと、
移動体の移動情報を取得するステップと、
前記移動体の移動情報と前記不要成分の推定移動情報とに基づいて前記不要成分を検出するステップと、をコンピュータに実行させることを特徴とするプログラム。
Obtaining position information of the light source;
Acquiring movement information of the imaging optical system;
Estimating movement information of an unnecessary component included in an image based on position information of the light source, movement information of the imaging optical system, and imaging condition information on the imaging optical system;
Acquiring movement information of a mobile body;
Detecting the unnecessary component based on movement information of the moving object and estimated movement information of the unnecessary component.
JP2017185322A 2017-09-26 2017-09-26 Image processing equipment, imaging equipment, image processing methods, and programs Active JP6938309B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017185322A JP6938309B2 (en) 2017-09-26 2017-09-26 Image processing equipment, imaging equipment, image processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185322A JP6938309B2 (en) 2017-09-26 2017-09-26 Image processing equipment, imaging equipment, image processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019062392A true JP2019062392A (en) 2019-04-18
JP6938309B2 JP6938309B2 (en) 2021-09-22

Family

ID=66178252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185322A Active JP6938309B2 (en) 2017-09-26 2017-09-26 Image processing equipment, imaging equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6938309B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008035324A (en) * 2006-07-31 2008-02-14 Matsushita Electric Ind Co Ltd Image pickup device
JP2009296224A (en) * 2008-06-04 2009-12-17 Nippon Soken Inc Imaging means and program
JP2015201812A (en) * 2014-04-10 2015-11-12 キヤノン株式会社 Image processing method, program, and imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008035324A (en) * 2006-07-31 2008-02-14 Matsushita Electric Ind Co Ltd Image pickup device
JP2009296224A (en) * 2008-06-04 2009-12-17 Nippon Soken Inc Imaging means and program
JP2015201812A (en) * 2014-04-10 2015-11-12 キヤノン株式会社 Image processing method, program, and imaging apparatus

Also Published As

Publication number Publication date
JP6938309B2 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
JP6663040B2 (en) Depth information acquisition method and apparatus, and image acquisition device
JP5048468B2 (en) Imaging apparatus and imaging method thereof
JP6157242B2 (en) Image processing apparatus and image processing method
KR102130756B1 (en) Auto focus adjusting method and auto focus adjusting apparatus
US8648961B2 (en) Image capturing apparatus and image capturing method
JP2008241491A (en) Three-dimensional measurement instrument
JP2010096962A (en) Auto focus system with af frame auto-tracking function
JP2019029962A (en) Imaging apparatus and control method thereof
JP2016142925A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2012124555A (en) Imaging apparatus
JP2007129587A (en) Imaging apparatus, interchangeable lens apparatus, imaging control method, data processing method for distortion aberration correction and computer program
US20110242346A1 (en) Compound eye photographing method and apparatus
JP2008035324A (en) Image pickup device
KR101665175B1 (en) Image acquisition apparatus,image acquisition method and recording medium
US10999491B2 (en) Control apparatus, image capturing apparatus, control method, and storage medium
US11095798B2 (en) Image capturing system, image capturing apparatus, and control method of the same
JP2010154306A (en) Device, program and method for imaging control
JP2007328360A (en) Automatic focusing camera and photographing method
JP2009069740A (en) Image pickup device
JP6938309B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
KR101599434B1 (en) Space detecting apparatus for image pickup apparatus using auto focusing and the method thereof
JP4085720B2 (en) Digital camera
JP2009169884A (en) Photographing device, control method of photographing device, and image reproduction device, method and program
JP2010096963A (en) Auto focus system with af frame auto-tracking function
JP7346021B2 (en) Image processing device, image processing method, imaging device, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210901

R151 Written notification of patent or utility model registration

Ref document number: 6938309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151