[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6478670B2 - Image processing apparatus and control method thereof - Google Patents

Image processing apparatus and control method thereof Download PDF

Info

Publication number
JP6478670B2
JP6478670B2 JP2015019614A JP2015019614A JP6478670B2 JP 6478670 B2 JP6478670 B2 JP 6478670B2 JP 2015019614 A JP2015019614 A JP 2015019614A JP 2015019614 A JP2015019614 A JP 2015019614A JP 6478670 B2 JP6478670 B2 JP 6478670B2
Authority
JP
Japan
Prior art keywords
correction
value
pixel
pixels
correction target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015019614A
Other languages
Japanese (ja)
Other versions
JP2016144090A5 (en
JP2016144090A (en
Inventor
正樹 沖田
正樹 沖田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015019614A priority Critical patent/JP6478670B2/en
Publication of JP2016144090A publication Critical patent/JP2016144090A/en
Publication of JP2016144090A5 publication Critical patent/JP2016144090A5/ja
Application granted granted Critical
Publication of JP6478670B2 publication Critical patent/JP6478670B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、画像処理装置およびその制御方法に関し、特に画素値の補正技術に関する。   The present invention relates to an image processing apparatus and a control method thereof, and more particularly to a pixel value correction technique.

従来、一部の画素を焦点検出用画素として構成し、焦点検出用画素の出力を用いて位相差検出方式の焦点検出を可能とする撮像素子が知られている。
しかし、焦点検出用画素は、通常の画素(撮像用画素)とは異なる構造を有するため、焦点検出用画素の周囲の画素値に影響を与え、画質劣化を発生させる場合がある。特許文献1では、絞り値に応じたクロストーク率を用い、焦点検出用画素の周囲の撮像用画素の値を、その撮像用画素の近傍の焦点検出用画素の値に基づいて補正する方法が提案されている。
2. Description of the Related Art Conventionally, there has been known an image sensor in which some pixels are configured as focus detection pixels and phase difference detection type focus detection is possible using the output of the focus detection pixels.
However, since the focus detection pixel has a structure different from that of a normal pixel (imaging pixel), it may affect the pixel values around the focus detection pixel and cause image quality degradation. In Patent Literature 1, there is a method of correcting a value of an imaging pixel around a focus detection pixel based on a value of a focus detection pixel in the vicinity of the imaging pixel using a crosstalk ratio according to the aperture value. Proposed.

特開2009−124573号公報JP 2009-124573 A

特許文献1記載の技術は、補正対象画素にクロストークの影響を与える焦点検出用画素の位置や数を予め特定し、それらから特定の割合でクロストークの影響を受けるものとして、補正対象画素値を補正している。しかしながら、個々の補正対象画素に生じる実際のクロストークの影響はそれほど単純にモデル化できる訳ではなく、必ずしも精度の良い補正が行えない場合もあった。   In the technique described in Patent Document 1, the position and the number of focus detection pixels that affect the correction target pixel in advance are identified in advance, and the correction target pixel value is assumed to be affected by the crosstalk at a specific ratio therefrom. Is corrected. However, the effect of actual crosstalk that occurs in each pixel to be corrected cannot be modeled so simply, and correction with high accuracy may not always be possible.

本発明は、このような従来技術の課題に鑑みなされたものであり、焦点検出用画素の隣接画素値に生じる画質劣化を、精度良く補正することが可能な画像処理装置およびその制御方法の提供を目的とする。   The present invention has been made in view of the above-described problems of the prior art, and provides an image processing apparatus and a control method thereof that can accurately correct image quality degradation that occurs in adjacent pixel values of focus detection pixels. With the goal.

上述の目的は、焦点検出用画素に隣接する複数の撮像用画素の値を、複数の補正対象画素の値として取得する第1の取得手段と、複数の補正対象画素の少なくとも1つの近傍に存在し、かつ、焦点検出用画素に隣接しない、複数の補正対象画素と同色の複数の撮像用画素の値を取得する第2の取得手段と、複数の補正対象画素の値の少なくとも1つと、第2の取得手段が取得した複数の撮像用画素の値とに基づいて、複数の補正対象画素の値の少なくとも1つを補正する必要があるか否かを判定する判定手段と、判定手段により補正が必要と判定された補正対象画素の値を減少させる第1の補正手段と、第1の補正手段で補正された値を含む複数の補正対象画素の値を、オフセット補正値により増加させる第2の補正手段と、を有することを特徴とする画像処理装置によって達成される。 The above-described object is present in the vicinity of at least one of the plurality of correction target pixels and the first acquisition unit that acquires the values of the plurality of imaging pixels adjacent to the focus detection pixels as the values of the plurality of correction target pixels. And second acquisition means for acquiring values of a plurality of imaging pixels having the same color as the plurality of correction target pixels, not adjacent to the focus detection pixels, at least one of the values of the plurality of correction target pixels, A determination unit that determines whether at least one of the values of the plurality of correction target pixels needs to be corrected based on the values of the plurality of imaging pixels acquired by the second acquisition unit; A first correction unit that decreases the value of the correction target pixel determined to be necessary, and a second correction unit that increases the value of the plurality of correction target pixels including the value corrected by the first correction unit by the offset correction value. And having correction means It is achieved by an image processing apparatus according to symptoms.

このような構成により、本発明によれば、焦点検出用画素の隣接画素値に生じる画質劣化を、精度良く補正することが可能な画像処理装置およびその制御方法を提供することができる。   With such a configuration, according to the present invention, it is possible to provide an image processing apparatus and its control method capable of accurately correcting image quality degradation that occurs in adjacent pixel values of focus detection pixels.

本発明の実施形態に係る画像処理装置の一例としてレンズ交換式のデジタル一眼レフカメラ(カメラシステム)の機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a lens interchangeable digital single-lens reflex camera (camera system) as an example of an image processing apparatus according to an embodiment of the present invention. 第1実施形態における焦点検出領域の配置および撮像素子における画素配列の例を示す図The figure which shows the example of arrangement | positioning of the focus detection area | region in 1st Embodiment, and the pixel arrangement | sequence in an image pick-up element. 実施形態における画素の構造例およびクロストークの発生原理を模式的に示す図The figure which shows typically the structural example of the pixel in embodiment, and the generation principle of crosstalk クロストークの発生原理を説明するための模式図Schematic diagram for explaining the principle of occurrence of crosstalk 第1実施形態におけるクロストーク判別・補正処理を説明するためのフローチャートFlowchart for explaining crosstalk discrimination / correction processing in the first embodiment 第2実施形態における撮像素子の画素配列の例を示す図The figure which shows the example of the pixel array of the image pick-up element in 2nd Embodiment. 第2実施形態におけるクロストーク判別・補正処理を説明するためのフローチャートFlowchart for explaining crosstalk discrimination / correction processing in the second embodiment

以下、本発明の例示的な実施形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態では本発明を撮像装置、具体的にはレンズ交換式のデジタル一眼レフカメラ(DSLR)に適用した例について説明するが、撮影ならびに撮影画像の記録に関する機能など、撮影動作に特有の構成は本発明に必須ではない。本発明は撮影によって得られた画像データと、撮影に用いられた撮像素子が有する焦点検出用画素の位置に関する情報が取得可能な任意の電子機器において実施可能である。また、撮像装置とは、デジタルカメラのような撮影を主な機能とする装置に限らず、例えばカメラ付き携帯電話のように、撮影機能を有する任意の電子機器を意味する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, an example in which the present invention is applied to an imaging apparatus, specifically, a lens interchangeable digital single-lens reflex camera (DSLR) will be described. However, the present invention is not limited to shooting and recording functions. A specific configuration is not essential to the present invention. The present invention can be implemented in any electronic device that can acquire image data obtained by photographing and information on the position of focus detection pixels included in the image sensor used for photographing. The imaging device is not limited to a device having a main function of photographing such as a digital camera, but means any electronic device having a photographing function such as a mobile phone with a camera.

●(第1の実施形態)
図1は、本発明の実施形態に係る画像処理装置の一例であるレンズ交換式のデジタル一眼レフカメラ(カメラシステム)の機能構成例を示すブロック図である。
カメラシステムは、カメラ本体100と、カメラ本体100に着脱可能に取り付けられるレンズユニット200とを有する。カメラ本体100とレンズユニット200は、それぞれが有するマウント部によって接続され、マウント部には電気的な接点群210が設けられる。接点群210はカメラ本体100とレンズユニット200との間で制御信号、状態信号、データ信号等を通信したり、カメラ本体100から撮影レンズに電源を供給したり、レンズユニット200の接続有無をカメラ本体100で検知したりすることを可能にする。なお、接点群210はカメラ本体100とレンズユニット200との間の通信を可能とするものであれば、電気信号以外の信号、例えば光信号を伝達するものであってよい。なお、便宜上、レンズユニット200が内蔵する撮影レンズ201を1枚のレンズのように図示しているが、実際は複数のレンズから構成される。
● (first embodiment)
FIG. 1 is a block diagram illustrating a functional configuration example of a lens interchangeable digital single-lens reflex camera (camera system) that is an example of an image processing apparatus according to an embodiment of the present invention.
The camera system includes a camera body 100 and a lens unit 200 that is detachably attached to the camera body 100. The camera body 100 and the lens unit 200 are connected to each other by a mount part, and an electrical contact group 210 is provided on the mount part. The contact group 210 communicates control signals, status signals, data signals, etc. between the camera body 100 and the lens unit 200, supplies power to the photographic lens from the camera body 100, and indicates whether the lens unit 200 is connected. It can be detected by the main body 100. Note that the contact group 210 may transmit a signal other than an electric signal, for example, an optical signal, as long as communication between the camera body 100 and the lens unit 200 is possible. For convenience, the photographing lens 201 built in the lens unit 200 is illustrated as a single lens, but actually includes a plurality of lenses.

被写体からの光束が、撮影レンズ201および絞り202を介してクイックリターンミラー102に導かれる。クイックリターンミラー102は矢印方向に移動可能で、図示の状態(ダウン状態)において、レンズユニット200から入射する光束の一部が透過するよう、中央部がハーフミラーに形成されている。ハーフミラー部分を透過した光束は、クイックリターンミラー102の裏面に設けられたサブミラー103により、AFセンサユニット104に入射する方向に反射される。   The light flux from the subject is guided to the quick return mirror 102 via the photographing lens 201 and the diaphragm 202. The quick return mirror 102 is movable in the direction of the arrow, and in the illustrated state (down state), the central portion is formed in a half mirror so that a part of the light beam incident from the lens unit 200 is transmitted. The light beam that has passed through the half mirror part is reflected in the direction of entering the AF sensor unit 104 by the sub mirror 103 provided on the back surface of the quick return mirror 102.

AFセンサユニット104は結像面近傍に配置されたフィールドレンズ、反射ミラー、2次結像レンズ、絞り、およびラインセンサ等から構成されており、位相差方式の自動焦点検出(位相差AF)に用いる1対の像信号を生成する。焦点検出回路105はAFセンサユニット104で生成される1対の像信号を用い、デフォーカス量とデフォーカス方向を取得する。このデフォーカス量とデフォーカス方向に基づいてシステムコントローラ120がレンズユニット200のフォーカスレンズを駆動制御し、レンズユニット200の焦点調節を行う。   The AF sensor unit 104 is composed of a field lens, a reflection mirror, a secondary imaging lens, a diaphragm, a line sensor, and the like disposed in the vicinity of the imaging surface, and is used for phase difference type automatic focus detection (phase difference AF). A pair of image signals to be used is generated. The focus detection circuit 105 uses a pair of image signals generated by the AF sensor unit 104 to acquire a defocus amount and a defocus direction. Based on the defocus amount and the defocus direction, the system controller 120 drives and controls the focus lens of the lens unit 200 to adjust the focus of the lens unit 200.

一方、レンズユニット200から入射した光束のうち、ダウン状態のクイックリターンミラー102で反射された光束は、ペンタプリズム101、接眼レンズ106を介して出射する。この出射光を撮影者が観察することで、撮影範囲を確認することができる。なお、接眼レンズ106の近傍には、被写体の輝度情報を得るための測光センサが設けられており、測光センサの出力は測光回路107を経てシステムコントローラ120へ供給される。システムコントローラ120は被写体の輝度情報を用いて、自動露出制御(AE)を行う。   On the other hand, among the light beams incident from the lens unit 200, the light beam reflected by the quick return mirror 102 in the down state is emitted through the pentaprism 101 and the eyepiece lens 106. The photographer can confirm the photographing range by observing the emitted light. A photometric sensor for obtaining luminance information of the subject is provided in the vicinity of the eyepiece lens 106, and the output of the photometric sensor is supplied to the system controller 120 via the photometric circuit 107. The system controller 120 performs automatic exposure control (AE) using the luminance information of the subject.

撮影時にはクイックリターンミラー102が上方に移動し(アップ状態)、レンズユニット200から入射した光束は、機械シャッタであるフォーカルプレーンシャッタ108、光学フィルタ109を介して撮像素子112に入射する。クイックリターンミラー102のアップ時、サブミラー103は折り畳まれる。   At the time of shooting, the quick return mirror 102 moves upward (up state), and the light beam incident from the lens unit 200 enters the image sensor 112 through the focal plane shutter 108 and the optical filter 109 that are mechanical shutters. When the quick return mirror 102 is raised, the sub mirror 103 is folded.

光学フィルタ109は赤外線カットフィルタと光学ローパスフィルタの両方の機能を有する。フォーカルプレーンシャッタ108は先幕及び後幕を有し、システムコントローラ120の制御に従ってレンズユニット200からの光束を透過もしくは遮断させる。   The optical filter 109 has both functions of an infrared cut filter and an optical low-pass filter. The focal plane shutter 108 has a front curtain and a rear curtain, and transmits or blocks the light flux from the lens unit 200 according to the control of the system controller 120.

システムコントローラ120はCPUやMPU等のプログラマブルプロセッサと、プログラム、設定値、GUIデータ等を保存する不揮発性メモリ(ROM)と、プログラムを展開したりワークエリアとして用いたりするための揮発性メモリ(RAM)を有する。システムコントローラ120はプログラムを実行してカメラ本体100、レンズユニット200、外部フラッシュ等のアクセサリの動作を制御することにより、カメラシステム全体の機能を実現する。なお、システムコントローラ120がソフトウェア的に実現する動作の少なくとも一部を、ASICなどのハードウェア回路によって実現してもよい。   The system controller 120 includes a programmable processor such as a CPU or MPU, a non-volatile memory (ROM) for storing programs, setting values, GUI data, and the like, and a volatile memory (RAM) for expanding programs and using them as work areas. ). The system controller 120 executes the program and controls the operations of accessories such as the camera body 100, the lens unit 200, and the external flash, thereby realizing the functions of the entire camera system. Note that at least a part of the operation realized by the system controller 120 in software may be realized by a hardware circuit such as an ASIC.

システムコントローラ120は、上述した接点群210を介してレンズユニット200内のレンズコントローラ207と通信可能に接続される。レンズコントローラ207は、システムコントローラ120からの制御によってレンズ制御回路204や絞り制御回路206の動作を制御したり、レンズユニット200の情報をシステムコントローラ120に送信したりする。レンズユニット200の情報には例えば、フォーカスレンズの位置、設定されている絞り値、撮影レンズ201の焦点距離などが含まれてよい。   The system controller 120 is communicably connected to the lens controller 207 in the lens unit 200 via the contact group 210 described above. The lens controller 207 controls operations of the lens control circuit 204 and the aperture control circuit 206 under the control of the system controller 120 and transmits information on the lens unit 200 to the system controller 120. The information of the lens unit 200 may include, for example, the position of the focus lens, the set aperture value, the focal length of the photographing lens 201, and the like.

また、レンズコントローラ207にはレンズユニット200の固有情報(例えば焦点距離、開放絞り、個体識別情報(レンズID))や、システムコントローラ120から受け取った情報を記憶する書き換え可能な不揮発性メモリが設けられている。   In addition, the lens controller 207 is provided with a rewritable nonvolatile memory that stores information unique to the lens unit 200 (for example, focal length, wide aperture, individual identification information (lens ID)) and information received from the system controller 120. ing.

レンズ駆動機構203はレンズ制御回路204の制御に従って、撮影レンズ201に含まれるフォーカスレンズを光軸方向に駆動する。絞り駆動機構205は絞り制御回路206の制御に従って、絞り202を駆動する。   The lens driving mechanism 203 drives the focus lens included in the photographing lens 201 in the optical axis direction under the control of the lens control circuit 204. The aperture drive mechanism 205 drives the aperture 202 according to the control of the aperture control circuit 206.

システムコントローラ120には、クイックリターンミラー102のアップ・ダウンの駆動およびフォーカルプレーンシャッタ108のシャッタチャージを制御するシャッタチャージ・ミラー駆動機構110が接続されている。また、システムコントローラ120には、フォーカルプレーンシャッタ108の先幕、後幕の走行を制御するためのシャッタ制御回路111が接続されている。EEPROM122は、システムコントローラ120がカメラシステムを制御する上で調整が必要なパラメータ、カメラ本体100の個体識別情報(カメラID)、基準レンズで調整されたAF補正データやAE補正データなどが記憶される。   The system controller 120 is connected to a shutter charge / mirror drive mechanism 110 that controls the up / down drive of the quick return mirror 102 and the shutter charge of the focal plane shutter 108. The system controller 120 is connected to a shutter control circuit 111 for controlling the traveling of the front curtain and rear curtain of the focal plane shutter 108. The EEPROM 122 stores parameters that need to be adjusted when the system controller 120 controls the camera system, individual identification information (camera ID) of the camera body 100, AF correction data and AE correction data adjusted by the reference lens, and the like. .

システムコントローラ120は、上述したAE制御で決定された絞り値(Av)とシャッタスピード(Tv)に従って、撮影時の露光制御を行う。具体的には、レンズコントローラ207を介して絞り202の開口の大きさを制御し、シャッタ制御回路111を介してフォーカルプレーンシャッタ108の動作を制御する。   The system controller 120 performs exposure control during shooting according to the aperture value (Av) and the shutter speed (Tv) determined by the AE control described above. Specifically, the size of the aperture of the diaphragm 202 is controlled via the lens controller 207, and the operation of the focal plane shutter 108 is controlled via the shutter control circuit 111.

フォーカルプレーンシャッタ108の先幕、後幕はバネ駆動であり、動作前にバネチャージ動作を要する。シャッタチャージ・ミラー駆動機構110は、バネチャージ動作を制御するとともに、クイックリターンミラー102のアップ・ダウン動作も制御する。   The front and rear curtains of the focal plane shutter 108 are spring driven and require a spring charging operation before operation. The shutter charge / mirror drive mechanism 110 controls the spring charge operation and also controls the up / down operation of the quick return mirror 102.

画像データコントローラ115は、例えばDSP(デジタル信号プロセッサ)により構成され、撮像素子112の駆動および読み出し動作を制御する。また、画像データコントローラ115は、A/Dコンバータ113でデジタル化された画像データについて、システムコントローラ120の制御に基づいて補正したり加工したりする。画像データコントローラ115が実行する補正・加工には、例えば色補間やホワイトバランス調整などが含まれる。   The image data controller 115 is configured by, for example, a DSP (digital signal processor) and controls driving and reading operations of the image sensor 112. The image data controller 115 corrects or processes the image data digitized by the A / D converter 113 based on the control of the system controller 120. The correction / processing performed by the image data controller 115 includes, for example, color interpolation and white balance adjustment.

なお、画像データコントローラ115は、画像データから例えば画像の分割領域ごとの輝度情報を取得し、システムコントローラ120に供給することができる。このように、システムコントローラ120は、ミラーアップ状態で測光センサの出力が得られない場合でも被写体の輝度情報を得ることができる。   Note that the image data controller 115 can acquire, for example, luminance information for each divided region of the image from the image data and supply the luminance information to the system controller 120. As described above, the system controller 120 can obtain the luminance information of the subject even when the output of the photometric sensor cannot be obtained in the mirror-up state.

タイミングパルス発生回路114は、撮像素子112の駆動に必要なパルス信号を出力する。A/Dコンバータ113は、タイミングパルス発生回路114からのタイミングパルスに従って、撮像素子112から出力される被写体像に対応したアナログ信号をデジタル信号に変換する。DRAM121は、例えば加工や所定のフォーマットへのデータ変換が行われる前の画像データ(デジタルデータ)を一時的に記憶しておくための記憶装置の一例である。   The timing pulse generation circuit 114 outputs a pulse signal necessary for driving the image sensor 112. The A / D converter 113 converts an analog signal corresponding to the subject image output from the image sensor 112 into a digital signal in accordance with the timing pulse from the timing pulse generation circuit 114. The DRAM 121 is an example of a storage device for temporarily storing image data (digital data) before, for example, processing or data conversion into a predetermined format.

画像コーデック119は、DRAM121に記憶された画像データを、予め定められた形式(例えばJPEG形式)で符号化したり、符号化された画像データを復号するための回路である。符号化された画像データは、画像ファイルとして記録媒体400へ記録される。記録媒体400は、内蔵メモリまたは着脱可能な記憶媒体であり、メモリカードが代表的であるが、これに限定されない。また、無線通信などを用いて外部装置に記録されてもよい。   The image codec 119 is a circuit for encoding the image data stored in the DRAM 121 in a predetermined format (for example, JPEG format) and decoding the encoded image data. The encoded image data is recorded on the recording medium 400 as an image file. The recording medium 400 is a built-in memory or a removable storage medium, and is typically a memory card, but is not limited to this. Further, it may be recorded in an external device using wireless communication or the like.

画像データコントローラ115は、DRAM121上の画像データを、D/Aコンバータ116によりアナログ信号に変換してエンコーダ回路117へ出力する。エンコーダ回路117はD/Aコンバータ116の出力を、一般的には液晶表示パネルである画像表示回路118の駆動に必要な映像信号(例えばNTSC信号)に変換する。   The image data controller 115 converts the image data on the DRAM 121 into an analog signal by the D / A converter 116 and outputs the analog signal to the encoder circuit 117. The encoder circuit 117 converts the output of the D / A converter 116 into a video signal (for example, NTSC signal) necessary for driving the image display circuit 118 which is generally a liquid crystal display panel.

動作表示回路123は、カメラシステムの動作モードの情報や露出情報(シャッタスピード、絞り値等)などを、カメラ本体100の筐体表面に設けられた第1表示装置124や、接眼レンズ106を通じて見ることのできる第2表示装置125に表示させる。   The operation display circuit 123 views information on the operation mode of the camera system, exposure information (shutter speed, aperture value, etc.) through the first display device 124 provided on the housing surface of the camera body 100 and the eyepiece 106. Display on the second display device 125 that can.

システムコントローラ120には、ユーザがカメラ本体100に各種の指示や設定を行うための操作部を構成するボタンやスイッチが接続されている。これらボタンやスイッチとして、図1には以下のものが示されている。撮影モード選択ボタン130、メイン電子ダイヤル131、決定SW132、測距点選択ボタン133、AFモード選択ボタン134、測光モード選択ボタン135、レリーズSW1 136、レリーズSW2 137、ファインダーモード選択SW138。なお、これらは単なる例示である。   The system controller 120 is connected to buttons and switches that constitute an operation unit for the user to perform various instructions and settings on the camera body 100. As these buttons and switches, the following are shown in FIG. A shooting mode selection button 130, a main electronic dial 131, a determination SW 132, a distance measuring point selection button 133, an AF mode selection button 134, a photometry mode selection button 135, a release SW1 136, a release SW2 137, and a viewfinder mode selection SW138. These are merely examples.

レリーズSW1 136、レリーズSW2 137はレリーズボタンの半押しおよび全押しでオンするスイッチである。レリーズSW1 136のオンは、撮影準備動作(AF,AEなど)の開始指示に相当する。また、レリーズSW2 137のオンは、記録のための撮影動作の開始指示に相当する。   Release SW1 136 and release SW2 137 are switches that are turned on when the release button is half-pressed and fully pressed. Turning on the release SW1 136 corresponds to an instruction to start a shooting preparation operation (AF, AE, etc.). Also, turning on the release SW2 137 corresponds to an instruction to start a shooting operation for recording.

ファインダーモード選択SW138は、画像表示回路118を電子ビューファインダーとして機能させるか否かを選択するスイッチである。画像表示回路118を電子ビューファインダーとして機能させないばあい、ユーザは接眼レンズ106から撮影範囲を確認することができる(光学ファインダーモード)。   The viewfinder mode selection SW 138 is a switch for selecting whether or not the image display circuit 118 functions as an electronic view finder. If the image display circuit 118 does not function as an electronic viewfinder, the user can check the shooting range from the eyepiece 106 (optical viewfinder mode).

カメラ本体100には、様々な外部アクセサリが装着可能であってよい。図1では、外部フラッシュ300がマウント部(例えばホットシュー)を介し着脱可能に取り付けられている。マウント部には電気的な接点群310が設けられる。接点群310はカメラ本体100と外部フラッシュ300との間で制御信号、状態信号、データ信号などを通信したり、外部フラッシュ300の接続有無をカメラ本体100で検知したりすることを可能にする。カメラ本体100と外部フラッシュ300との間の通信は、電気通信に限らず、光通信などを用いてもよい。また、外部アクセサリとカメラ本体100とは無線通信してもよく、従って外部アクセサリはカメラ本体100に機械的に接続されなくてもよい。   Various external accessories may be attached to the camera body 100. In FIG. 1, an external flash 300 is detachably attached via a mount portion (for example, a hot shoe). An electrical contact group 310 is provided on the mount portion. The contact group 310 enables control signals, status signals, data signals, and the like to be communicated between the camera body 100 and the external flash 300, and allows the camera body 100 to detect whether the external flash 300 is connected. Communication between the camera body 100 and the external flash 300 is not limited to electrical communication, and optical communication or the like may be used. Further, the external accessory and the camera body 100 may communicate wirelessly, and thus the external accessory may not be mechanically connected to the camera body 100.

IGBTなどで構成される発光制御回路303は、キセノン(Xe)管301の発光を制御する。Xe管301の近傍には反射笠302が配置されている。充電回路304は、Xe管301に給電するため、300V程度の電圧を発生する。電源305は例えば乾電池である。フラッシュコントローラ306は、システムコントローラ120と通信して外部フラッシュ300の発光、充電などを制御する。   A light emission control circuit 303 configured with an IGBT or the like controls light emission of the xenon (Xe) tube 301. A reflection shade 302 is disposed in the vicinity of the Xe tube 301. The charging circuit 304 generates a voltage of about 300 V in order to supply power to the Xe tube 301. The power source 305 is, for example, a dry battery. The flash controller 306 communicates with the system controller 120 to control light emission and charging of the external flash 300.

図2(a)は、本実施形態における焦点検出領域(AFエリア)の一例を示す図である。撮像素子112における撮影範囲250の内部に、水平5×垂直5の計25の焦点検出領域が設定されている。撮像素子112に設けられた焦点検出用画素は、焦点検出領域ごとにグループ化され、ある焦点検出領域における焦点検出は、その焦点検出領域内の焦点検出用画素群の出力を用いて行われる。
なお、焦点検出領域は例えば顔検出の結果に応じて定められるなど、大きさや位置が動的に定められてもよい。
FIG. 2A is a diagram illustrating an example of a focus detection area (AF area) in the present embodiment. A total of 25 focus detection areas of horizontal 5 × vertical 5 are set inside the imaging range 250 of the image sensor 112. The focus detection pixels provided in the image sensor 112 are grouped for each focus detection area, and focus detection in a certain focus detection area is performed using the output of the focus detection pixel group in the focus detection area.
Note that the size and position of the focus detection area may be dynamically determined, for example, depending on the result of face detection.

図2(b)は、本実施形態における撮像素子112の画素配置の例を示す図である。撮像素子112は、通常画素(撮像用画素)と焦点検出用画素とを有し、撮像用画素には原色ベイヤー配列のカラーフィルタが設けられている。図2(b)でR,G,Bは赤、緑、青のカラーフィルタに対応する撮像用画素を示している。以下、赤のカラーフィルタに対応する画素を赤画素もしくはR画素という場合がある。他の色のカラーフィルタに対応する画素についても同様である。   FIG. 2B is a diagram illustrating an example of a pixel arrangement of the image sensor 112 in the present embodiment. The imaging element 112 has normal pixels (imaging pixels) and focus detection pixels, and the imaging pixels are provided with primary color Bayer array color filters. In FIG. 2B, R, G, and B indicate imaging pixels corresponding to red, green, and blue color filters. Hereinafter, the pixel corresponding to the red color filter may be referred to as a red pixel or an R pixel. The same applies to pixels corresponding to color filters of other colors.

PA、PBは焦点検出用画素であり、PAとPBとは、レンズユニット200の射出瞳から出射する光束のうち、異なる部分領域を出射した光束を受光するように構成されている。PA群の出力から生成される像(A像)と、PB群の出力から生成される像(B像)とからなる一対の像信号の位相差を用いて、焦点検出を行う。以下では、PAをA像画素351、PBをB像画素352という場合がある。本実施形態では、A像画素351、B像画素ともに緑色のカラーフィルタが設けられている。   PA and PB are focus detection pixels, and PA and PB are configured to receive light beams emitted from different partial areas out of the light beams emitted from the exit pupil of the lens unit 200. Focus detection is performed using a phase difference between a pair of image signals composed of an image (A image) generated from the output of the PA group and an image (B image) generated from the output of the PB group. Hereinafter, PA may be referred to as an A image pixel 351, and PB may be referred to as a B image pixel 352. In this embodiment, a green color filter is provided for both the A image pixel 351 and the B image pixel.

なお、撮像素子に設けられるカラーフィルタの構成や焦点検出用画素の配置は単なる一例であり、他の構成であってもよい。   Note that the configuration of the color filter provided in the image sensor and the arrangement of the focus detection pixels are merely examples, and other configurations may be used.

図3(a)は、図2(b)に矢印で示す方向から見た撮像用画素(R画素、B画素、G画素)1つの構造を模式的に示す図である。
光束の入射方向からマイクロレンズ404、カラーフィルタ403、配線層402、フォトダイオード401を示している。配線層402は、層構成を有する配線の最下層に該当する。以下に説明するように、焦点検出用画素と撮像用画素とでは配線層402の開口部の構成が異なる。画素の構成のうち、以下の説明に関連しないものは図示を省略している。
FIG. 3A is a diagram schematically showing the structure of one imaging pixel (R pixel, B pixel, G pixel) viewed from the direction indicated by the arrow in FIG.
A microlens 404, a color filter 403, a wiring layer 402, and a photodiode 401 are shown from the incident direction of the light beam. The wiring layer 402 corresponds to the lowest layer of the wiring having a layer configuration. As described below, the configuration of the opening of the wiring layer 402 differs between the focus detection pixel and the imaging pixel. Of the pixel configuration, those not related to the following description are not shown.

レンズユニット200の射出瞳405のうち、領域406を出射した光束が、マイクロレンズ404によってフォトダイオード401の受光領域に導かれる。図3(a)に示すように、撮像用画素においては、射出瞳405のほぼ全域から出射した光束をフォトダイオード401が受光するようにマイクロレンズ404の曲率および配線層402の開口部が形成されている。   Of the exit pupil 405 of the lens unit 200, the light beam emitted from the region 406 is guided to the light receiving region of the photodiode 401 by the microlens 404. As shown in FIG. 3A, in the imaging pixel, the curvature of the microlens 404 and the opening of the wiring layer 402 are formed so that the photodiode 401 receives the light beam emitted from almost the entire area of the exit pupil 405. ing.

図3(b)、(c)は、図3(a)と同様に、焦点検出用画素の構造を模式的に示した図である。図3(b)は例えばA像画素351(PA)、図3(c)は例えばB像画素352(PB)の構造を示す。
A像画素351と、B像画素352とは、射出瞳405のうち、フォトダイオード401に入射する光束が出射する領域506,516が異なる。具体的には、配線層502、512の開口部の水平方向における中心位置をA像画素351とB像画素352とで異ならせることで、領域506,516を制御している。なお、配線層502、512の開口部は、配線層402の開口部よりも小さい。
FIGS. 3B and 3C are diagrams schematically showing the structure of the focus detection pixel, as in FIG. FIG. 3B shows the structure of an A image pixel 351 (PA), for example, and FIG. 3C shows the structure of a B image pixel 352 (PB), for example.
The A image pixel 351 and the B image pixel 352 differ in areas 506 and 516 in the exit pupil 405 from which the light beam incident on the photodiode 401 is emitted. Specifically, the regions 506 and 516 are controlled by making the center positions in the horizontal direction of the openings of the wiring layers 502 and 512 different between the A image pixel 351 and the B image pixel 352. Note that the openings of the wiring layers 502 and 512 are smaller than the openings of the wiring layer 402.

レンズユニット200の射出瞳405のうち、A像画素351のフォトダイオード401の受光範囲に対応する領域506の中心は、レンズユニット200の光軸から水平方向左側にずれている。同様に、B像画素352のフォトダイオード401の受光範囲に対応する領域516の中心は、レンズユニット200の光軸から水平方向右側にずれている。このように、配線層502,512の開口部の大きさと位置を制御することにより瞳分割を実現し、位相差方式の焦点検出に利用可能な1対の像信号を生成可能にしている。   Of the exit pupil 405 of the lens unit 200, the center of the region 506 corresponding to the light receiving range of the photodiode 401 of the A image pixel 351 is shifted to the left in the horizontal direction from the optical axis of the lens unit 200. Similarly, the center of the region 516 corresponding to the light receiving range of the photodiode 401 of the B image pixel 352 is shifted to the right in the horizontal direction from the optical axis of the lens unit 200. In this manner, pupil division is realized by controlling the size and position of the openings of the wiring layers 502 and 512, and a pair of image signals that can be used for phase difference focus detection can be generated.

なお、本実施形態において焦点検出用画素のカラーフィルタ403は緑(G)であるものとするが、カラーフィルタが設けられない構成であってもよい。   In the present embodiment, the color filter 403 of the focus detection pixel is assumed to be green (G), but a configuration in which no color filter is provided may be used.

次に、図3(d)、(e)を用いて、光学的なクロストークによる画質劣化について説明する。図3(d)は2つの撮像用画素(G画素とB画素)が隣接している状態、図3(e)は、撮像用画素(G画素)と焦点検出用画素(B像画素)が隣接している状態を、図3(a)〜(c)と同様に示している。   Next, image quality degradation due to optical crosstalk will be described with reference to FIGS. FIG. 3D shows a state in which two imaging pixels (G pixel and B pixel) are adjacent to each other. FIG. 3E shows an imaging pixel (G pixel) and a focus detection pixel (B image pixel). The adjacent state is shown in the same manner as in FIGS.

図3(d)において、レンズユニット200からB画素のマイクロレンズ404bに入射する光束609は、マイクロレンズ404b直下のフォトダイオード401bに入射する。一方、レンズユニット200から通常は入射しない角度の光束610がマイクロレンズ404bに入射すると、B画素のカラーフィルタ403bやG画素のカラーフィルタ403aを透過して隣接するG画素のフォトダイオード401aに入射する。これが光学的なクロストーク(以下、単にクロストークという)であり、G画素の出力値に影響を与える。   In FIG. 3D, a light beam 609 incident on the B lens microlens 404b from the lens unit 200 is incident on the photodiode 401b directly below the microlens 404b. On the other hand, when a light beam 610 that does not normally enter from the lens unit 200 enters the microlens 404b, it passes through the color filter 403b of the B pixel and the color filter 403a of the G pixel and enters the photodiode 401a of the adjacent G pixel. . This is optical crosstalk (hereinafter simply referred to as crosstalk), which affects the output value of the G pixel.

図3(e)の場合も、レンズユニット200から通常は入射しない角度の光束610が焦点検出用画素のマイクロレンズ404cに入射すると、図3(d)の場合と同様に隣接G画素に入射し、G画素の出力値に影響を与える。しかしながら、焦点検出用画素のカラーフィルタ403cは緑(G)であるため、G画素の出力値が受けるクロストークの影響は図3(d)の場合と異なる。より具体的には、図3(e)の場合の方がG画素の出力値が受けるクロストークの影響が大きい(出力値がより大きくなる)。   Also in the case of FIG. 3E, when the light beam 610 having an angle that is not normally incident from the lens unit 200 is incident on the micro lens 404c of the focus detection pixel, it is incident on the adjacent G pixel as in the case of FIG. , The output value of the G pixel is affected. However, since the color filter 403c of the focus detection pixel is green (G), the influence of crosstalk received by the output value of the G pixel is different from the case of FIG. More specifically, in the case of FIG. 3E, the influence of crosstalk received by the output value of the G pixel is larger (the output value becomes larger).

このように、近隣の同色画素が隣接画素から受けるクロストークの影響の差は、両者が撮像用画素に隣接していれば無視できる程度であるが、一方が撮像用画素に、他方が焦点検出用画素に隣接する場合には画質劣化として視認できる程度に大きくなり得る。この問題は、焦点検出用画素が有するカラーフィルタの色が、撮像用画素に設けられるカラーフィルタの配列に従わない場合(焦点検出用画素がカラーフィルタを持たない場合を含む)に生じる。   In this way, the difference in the influence of crosstalk that neighboring pixels of the same color receive from neighboring pixels is negligible if they are adjacent to the imaging pixel, but one is the imaging pixel and the other is focus detection. When the pixel is adjacent to the target pixel, the image quality can be increased to such a degree that the image quality can be visually recognized. This problem occurs when the color of the color filter included in the focus detection pixel does not follow the arrangement of the color filters provided in the imaging pixel (including the case where the focus detection pixel does not have a color filter).

図3(d),(e)においてクロストークの原因となる、レンズユニット200からは通常入射しない角度で入射する光束609は、例えば、レンズユニット200から入射した光束が撮像素子内で反射することで発生する。   In FIG. 3D and FIG. 3E, the light beam 609 incident at an angle that is not normally incident from the lens unit 200, which causes crosstalk, is, for example, that the light beam incident from the lens unit 200 is reflected in the image sensor. Occurs.

図4は、レンズユニットから入射した光束が撮像素子内で反射する様子を模式的に示す図である。
撮像素子112は、図3に示した画素が配列された受光部701と、受光部701の表面に設けられているマイクロレンズ404の近傍に設けられたカバーガラス702とを有している。703は、レンズユニット200の鏡筒内面などからの反射光をカットするための遮光マスクである。
FIG. 4 is a diagram schematically illustrating a state in which the light beam incident from the lens unit is reflected in the imaging element.
The imaging element 112 includes a light receiving unit 701 in which the pixels illustrated in FIG. 3 are arranged, and a cover glass 702 provided in the vicinity of the microlens 404 provided on the surface of the light receiving unit 701. Reference numeral 703 denotes a light shielding mask for cutting off reflected light from the inner surface of the lens barrel of the lens unit 200.

被写体705からレンズユニット200を介して撮像素子112に入射した光束の一部は、カバーガラス702やマイクロレンズ404の表面で反射される。そして、マイクロレンズ404の表面で拡散反射された光束の一部がカバーガラス702で再反射されて再びマイクロレンズ404に入射する際、上述した、クロストークの原因である光束609となりうる。   A part of the light beam incident on the image sensor 112 from the subject 705 via the lens unit 200 is reflected on the surface of the cover glass 702 or the micro lens 404. When a part of the light beam diffusely reflected by the surface of the microlens 404 is re-reflected by the cover glass 702 and enters the microlens 404 again, it can become the light beam 609 that causes the crosstalk described above.

このような反射光は、入射光束の輝度が高いほど多くなるため、クロストークも入射光束の輝度が高いほど多くなるが、大きな輝度差のないシーンでは目立たないため、さほど問題にならない。一方、太陽やスポットライトのように、周囲との輝度差が大きな高輝度被写体が存在するシーンでは、クロストークが画素値に与える影響がわかりやすくなる。しかし、その場合でも、焦点検出用画素が存在しない場合には、クロストークの影響の大きさのばらつきが小さいため、画質劣化として視認されるほどは目立たない。しかしながら、焦点検出用画素が存在すると、クロストークの影響に大きさに差が生じるため、画質劣化として認識される。   Since such reflected light increases as the luminance of the incident light beam increases, crosstalk also increases as the luminance of the incident light beam increases. However, since it is not conspicuous in a scene without a large luminance difference, it does not cause much problem. On the other hand, in a scene where there is a high-luminance subject having a large luminance difference from the surroundings, such as the sun or a spotlight, the influence of crosstalk on the pixel value is easily understood. However, even in this case, when there are no focus detection pixels, the variation in the magnitude of the crosstalk is small, so that it is not so conspicuous as visually recognized as image quality degradation. However, if there is a focus detection pixel, there is a difference in the magnitude of the effect of crosstalk, and this is recognized as image quality degradation.

また、図に示すように、クロストークの原因となる反射光が入射する画素は、反射光の元になる高輝度光束が入射する画素から離れた位置である。そして、反射光が輝度やコントラストが低い領域に含まれる画素に入射した場合に、クロストークによる画質劣化が顕著に観察される。   Further, as shown in the figure, the pixel on which the reflected light that causes crosstalk is incident is a position away from the pixel on which the high-luminance luminous flux that is the source of the reflected light is incident. When the reflected light is incident on a pixel included in a region where the luminance and contrast are low, image quality deterioration due to crosstalk is noticeably observed.

従って、撮像用画素に適用されるカラーフィルタの配列に従わない焦点検出用画素を撮像素子に形成する場合、焦点検出用画素に入射して他の画素のフォトダイオードに到達する光束に起因したクロストークの影響が目立たないように補正する必要がある。   Therefore, when a focus detection pixel that does not follow the arrangement of the color filters applied to the image pickup pixel is formed on the image sensor, a cross caused by a light flux that enters the focus detection pixel and reaches the photodiode of another pixel is formed. It is necessary to correct so that the influence of the talk is not noticeable.

図2(c)は、図2(b)において太枠で囲んだ領域を抜き出して示した図である。図2(c)において画素GU、GD、GL、およびG*は、A像画素351のクロストークの影響を受ける可能性がある、A像画素351の上下左右に隣接する撮像用画素(全てG画素)である。なお、本実施形態においては、図2(b)に示すように、A像画素351が水平方向に1画素おきに配置される構成のため、あるA像画素351の右(左)に隣接する画素は、別のA像画素351の左(右)に隣接する画素でもある。従って、これらの画素に対する補正処理が重複して行われないようにする。本実施形態では各A像画素351の上、下、および左に隣接する画素GU、GD、GLを補正対象として1回の補正処理を行う(右に隣接している画素G*については、別の回の補正処理で補正対象とする)。画素G1、G2、G3、G4は、補正対象画素が実際に補正を必要とするか否かを判定するために参照する画素(参照画素)である。参照画素は補正対象画素の周辺に存在する、補正対象画素と同色の撮像用画素とする。   FIG. 2C is a diagram showing an extracted region surrounded by a thick frame in FIG. In FIG. 2C, pixels GU, GD, GL, and G * are imaging pixels adjacent to the top, bottom, left, and right of the A image pixel 351 that may be affected by the crosstalk of the A image pixel 351 (all G Pixel). In the present embodiment, as shown in FIG. 2B, the A image pixels 351 are arranged every other pixel in the horizontal direction, so that they are adjacent to the right (left) of a certain A image pixel 351. The pixel is also a pixel adjacent to the left (right) of another A image pixel 351. Therefore, the correction processing for these pixels is prevented from being repeated. In the present embodiment, correction processing is performed once for the pixels GU, GD, and GL adjacent to the upper, lower, and left sides of each A image pixel 351 (the pixel G * adjacent to the right is different). To be corrected in the first correction process). The pixels G1, G2, G3, and G4 are pixels (reference pixels) that are referred to in order to determine whether or not the correction target pixel actually needs correction. The reference pixel is an imaging pixel that is present around the correction target pixel and has the same color as the correction target pixel.

なお、A像画素351と角で隣接する4つのR画素も、画素GU、GD、GLと同様にA像画素351のクロストークの影響を受けるが、G*の上下に隣接する2つのR画素は、G*と同様に補正対象とせず、GLの上下に隣接するR画素を補正対象とする。補正対象のR画素についても、参照画素が異なる以外は画素GU、GD、GLと同様に補正可能であるため、以下では画素GU、GD、GLの補正処理について説明する。   Note that the four R pixels adjacent to the A image pixel 351 at the corners are also affected by the crosstalk of the A image pixel 351 similarly to the pixels GU, GD, and GL, but two R pixels adjacent to the upper and lower sides of G *. Is not subject to correction in the same manner as G *, and R pixels adjacent to the top and bottom of GL are subject to correction. Since the correction target R pixel can be corrected in the same manner as the pixels GU, GD, and GL except that the reference pixel is different, correction processing for the pixels GU, GD, and GL will be described below.

図5は、補正対象画素に対する、値の補正が必要かどうかの判定処理と、画素値の補正処理の手順を示すフローチャートである。本実施形態において、これらの処理は、システムコントローラ120または画像データコントローラ115が、DRAM121に記憶されている、デモザイク(色補間)処理前の画像データに対して実行することができる。従って、ここで説明する処理において、カラーフィルタが設けられている画素は、カラーフィルタの色に対応した1つの色成分に対する値を有する。なお、ここではシステムコントローラ120が処理を実行するものとして説明する。   FIG. 5 is a flowchart showing a procedure for determining whether correction of a value is necessary for a pixel to be corrected and for correcting the pixel value. In the present embodiment, these processes can be executed by the system controller 120 or the image data controller 115 on the image data stored in the DRAM 121 and before the demosaic (color interpolation) process. Therefore, in the processing described here, a pixel provided with a color filter has a value for one color component corresponding to the color of the color filter. Here, the description will be made assuming that the system controller 120 executes processing.

S901でシステムコントローラ120は、処理の繰り返し回数を設定する変数LoopEndに設定値Cを、処理回数のカウンタとして用いる変数Loopに0を、それぞれ設定し、処理をS902へ進める。実際には、1回の処理で1つの焦点検出画素に関する補正対象画素を処理するため、焦点検出画素の数に等しい回数をCに設定するが、以下の説明では理解および説明を容易にするため、Cを1とする。また、システムコントローラ120(第1の取得手段)は、補正対象画素GU、GD、GLの値を取得する。   In step S901, the system controller 120 sets a setting value C for a variable LoopEnd that sets the number of repetitions of processing and 0 for a variable Loop used as a counter for the number of processing times, and advances the processing to step S902. Actually, since correction target pixels related to one focus detection pixel are processed in one process, the number of times equal to the number of focus detection pixels is set to C, but in the following description, in order to facilitate understanding and description , C is 1. Further, the system controller 120 (first acquisition unit) acquires values of the correction target pixels GU, GD, and GL.

S902でシステムコントローラ120(第2の取得手段)は、参照画素(ここでは画素G1、G2、G3、G4)の値を取得し、平均値G_aveを算出して処理をS903へ進める。
S903でシステムコントローラ120は、補正対象画素GU、GD、GLの最大値G_maxを検出し、処理をS904へ進める。図3(e)に示したように、補正すべきクロストークは、反射光の入射方向と逆の方向に存在する画素に発生する。例えば、反射光が焦点検出用画素の右側から入射した場合、焦点検出用画素の左側に隣接する画素の値がクロストークの影響を受ける。また、一般的な撮影シーンでは、クロストークの原因となる反射光が1つの焦点検出用画素に複数の方向から入射する可能性は低い。そのため、焦点検出用画素の複数の隣接同色画素のうち、値が最大の(出力の高い)画素が、クロストークの影響を受けている可能性が最も高いと考えられる。従って、本実施形態では、参照画素の値と比較する画素値として、補正対象画素の最大値を検出している。
In step S902, the system controller 120 (second acquisition unit) acquires values of reference pixels (here, pixels G1, G2, G3, and G4), calculates an average value G_ave, and advances the process to step S903.
In step S903, the system controller 120 detects the maximum value G_max of the correction target pixels GU, GD, and GL, and advances the processing to step S904. As shown in FIG. 3E, the crosstalk to be corrected is generated in a pixel that exists in a direction opposite to the incident direction of the reflected light. For example, when reflected light enters from the right side of the focus detection pixel, the value of the pixel adjacent to the left side of the focus detection pixel is affected by crosstalk. In a general shooting scene, it is unlikely that reflected light that causes crosstalk will enter one focus detection pixel from a plurality of directions. For this reason, it is considered that the pixel having the largest value (high output) among the plurality of adjacent same-color pixels of the focus detection pixels is most likely to be affected by crosstalk. Therefore, in the present embodiment, the maximum value of the correction target pixel is detected as the pixel value to be compared with the value of the reference pixel.

S904でシステムコントローラ120は、G_maxとG_aveの差分Subを算出し、処理をS905へ進める。参照画素は補正対象画素の近傍の同色画素であるため、補正対象画素がクロストークの影響を受けていなければ、差分Subの値は大きくならない。   In step S904, the system controller 120 calculates a difference Sub between G_max and G_ave, and advances the process to step S905. Since the reference pixel is the same color pixel in the vicinity of the correction target pixel, the value of the difference Sub does not increase unless the correction target pixel is affected by crosstalk.

S905でシステムコントローラ120は、周囲画素における高周波数成分の参考値として、以下の式で表される、参照画素G1〜G4の最大値と最小値の差分の絶対値Edgeを算出し、処理をS906へ進める。
Edge=|MAX(G1〜G4)−MIN(G1〜G4)|
被写体の輪郭部分など、空間周波数の高い部分では、Edgeの値は大きくなる。
In step S905, the system controller 120 calculates the absolute value Edge of the difference between the maximum value and the minimum value of the reference pixels G1 to G4, which is expressed by the following equation, as a reference value for the high-frequency component in the surrounding pixels, and performs processing in step S906. Proceed to
Edge = | MAX (G1-G4) -MIN (G1-G4) |
In a portion having a high spatial frequency, such as a contour portion of a subject, the value of Edge is large.

S906でシステムコントローラ120は、上限値σとして、G_aveの平方根に正数Aを乗じた値(A×√(G_ave))を算出し、処理をS907に進める。本実施形態ではAを5とする。   In S906, the system controller 120 calculates a value (A × √ (G_ave)) obtained by multiplying the square root of G_ave by a positive number A as the upper limit value σ, and the process proceeds to S907. In this embodiment, A is 5.

S907でシステムコントローラ120(判定手段)は、最大値G_maxを有する補正対象画素の値を補正する必要があるか否かを判定する。具体的には、システムコントローラ120は、SubとEdgeの和が下限値αより大きく上限値σ未満であれば(α<Sub+Edge<σという条件を満たせば)補正が必要と判定して処理をS908へ進める。一方、システムコントローラ120は、SubとEdgeの和が下限値α以下か上限値σ以上であれば、補正不要と判定して処理をS910へ進める。   In step S907, the system controller 120 (determination unit) determines whether it is necessary to correct the value of the correction target pixel having the maximum value G_max. Specifically, if the sum of Sub and Edge is greater than the lower limit value α and less than the upper limit value σ (if the condition of α <Sub + Edge <σ is satisfied), the system controller 120 determines that correction is necessary and performs processing in S908. Proceed to On the other hand, if the sum of Sub and Edge is equal to or lower than the lower limit value α or equal to or higher than the upper limit value σ, the system controller 120 determines that correction is unnecessary and advances the process to S910.

補正すべきクロストークが発生していれば、Subの値は大きくなり、下限閾値であるαを超える。αは任意の固定値もしくは関数としてよいが、本実施形態のようにSubの計算に用いる画素が少ない場合、αが小さすぎるとランダムノイズの影響によって偶発的に上述した条件を満たし、誤補正する可能性が大きくなる。画素のランダムノイズの大きさは画素の信号量(輝度)に依存することが知られているため、αを固定値とするより、画素の信号量または輝度の関数とした方が、精度の良い判定が可能となる。ただし、本実施形態では、説明及び理解を容易にするため、αは固定値(50LSB)とする。なお、0LSBは光学的黒レベルに相当するA/Dコンバータ113の出力に対応し、デジタル値の絶対値とは異なる。   If crosstalk to be corrected has occurred, the value of Sub increases and exceeds the lower limit threshold value α. α may be an arbitrary fixed value or function. However, when the number of pixels used for sub calculation is small as in the present embodiment, if α is too small, the above condition is accidentally satisfied by the influence of random noise, and erroneous correction is performed. The potential increases. Since it is known that the magnitude of the random noise of a pixel depends on the signal amount (luminance) of the pixel, it is more accurate to use α as a function of the signal amount or luminance of the pixel than to set α to a fixed value. Judgment is possible. However, in the present embodiment, α is a fixed value (50 LSB) for ease of explanation and understanding. Note that 0LSB corresponds to the output of the A / D converter 113 corresponding to the optical black level, and is different from the absolute value of the digital value.

Subの値は被写体の輝点部分や輪郭部分においても大きくなるため、誤補正を抑制するために、Sub+Edgeが上限値σ以上の値となる範囲では補正処理を行わない。上限値σを決定する係数Aの値は、例えば実験的に定めることができる。   Since the value of Sub also increases in the bright spot portion and contour portion of the subject, correction processing is not performed in a range where Sub + Edge is a value equal to or greater than the upper limit value σ in order to suppress erroneous correction. The value of the coefficient A that determines the upper limit value σ can be determined experimentally, for example.

S908でシステムコントローラ120(第1の補正手段)は、補正する画素(最大値G_maxを有する補正対象画素)の近傍に存在し、かつ、焦点検出用画素に隣接しない、補正する画素と同色の複数の撮像用画素の値を取得する。そして、システムコントローラ120は、取得した撮像用画素の値の平均値を補正値G_refとして算出し、処理をS909へ進める。例えば、システムコントローラ120は、参照画素G1〜G4の平均値G_aveを補正値G_refとして用いることができる。   In step S908, the system controller 120 (first correction unit) is in the vicinity of the pixel to be corrected (correction target pixel having the maximum value G_max) and is not adjacent to the focus detection pixel and has the same color as the pixel to be corrected. The value of the imaging pixel is acquired. Then, the system controller 120 calculates the average value of the acquired imaging pixel values as the correction value G_ref, and advances the processing to S909. For example, the system controller 120 can use the average value G_ave of the reference pixels G1 to G4 as the correction value G_ref.

あるいは、システムコントローラ120は、補正を行う画素と同色で、位置が最も近い複数の撮像用画素の平均値を補正値G_refとして算出することができる。例えば、補正を行う画素がGUの場合、システムコントローラ120は、画素GUに最も近い4つのG画素G1、G2、GL、G*の平均値を補正値G_refとして計算する。このように、補正を行う画素と同色で位置が最も近い複数の画素の平均値を補正値とすることで、補正による解像感の低下を防止することができる。 Alternatively, the system controller 120 can calculate, as the correction value G_ref, the average value of a plurality of imaging pixels having the same color as the pixel to be corrected and the closest position. For example, when the pixel to be corrected is GU, the system controller 120 calculates an average value of four G pixels G1, G2, GL, and G * closest to the pixel GU as the correction value G_ref. In this way, by using an average value of a plurality of pixels having the same color and closest position as the pixel to be corrected as a correction value, it is possible to prevent a reduction in resolution due to the correction.

S909でシステムコントローラ120(第1の補正手段)は、補正値G_refと、補正を行う画素値G_maxとの重み付け平均値(β×G_ref+(1−β)×G_max)を、補正後の値として算出する。そして、システムコントローラ120(第1の補正手段)は、算出した値で、補正する画素GUの値を置き換えることで画素GUの値を減少させ、処理をS910へ進める。なお、混合率β(0≦β≦1)は例えば予め定めた固定値であってよく、例えばβ=0.5であってよい。あるいは、補正値G_refを求める為に用いた4つのG画素G1、G2、GL、G*の画素値の分散を求め、この分散が小さいほど混合率βの値を増加させ、分散が大きいほど混合率βを減少させるようにしてもよい。これら4つの画素値のばらつきが小さい(分散が小さい)ほど、ランダムノイズの影響が小さく、補正値G_refの信頼度が高いと考えられるためである。さらには、β=1として、画素値を補正値G_refで置き換えて補正するようにしてもよい。 In step S909, the system controller 120 (first correction unit) calculates a weighted average value (β × G_ref + (1−β) × G_max ) between the correction value G_ref and the pixel value G_max to be corrected as a corrected value. To do. Then, the system controller 120 (first correction unit) reduces the value of the pixel GU by replacing the value of the pixel GU to be corrected with the calculated value, and advances the process to S910. The mixing rate β (0 ≦ β ≦ 1) may be a predetermined fixed value, for example, β = 0.5. Alternatively, the dispersion of the pixel values of the four G pixels G1, G2, GL, and G * used for obtaining the correction value G_ref is obtained, and the value of the mixing ratio β is increased as the dispersion is smaller, and the mixing is performed as the dispersion is larger. The rate β may be decreased. This is because the smaller the variation of these four pixel values (the smaller the variance), the smaller the influence of random noise and the higher the reliability of the correction value G_ref. Further, β = 1 may be used to replace the pixel value with the correction value G_ref for correction.

S910でシステムコントローラ120は、補正対象画素GU、GD、GLに対するオフセット補正値Offsetとして、G_aveの平方根に正数Bを乗じた値(B×√(G_ave))を算出し、処理をS911に進める。Bの値は実験的に求めることができるが、本実施形態では0.25とする。   In S910, the system controller 120 calculates a value (B × √ (G_ave)) obtained by multiplying the square root of G_ave by a positive number B as the offset correction value Offset for the correction target pixels GU, GD, and GL, and the process proceeds to S911. . The value of B can be obtained experimentally, but is 0.25 in this embodiment.

S911でシステムコントローラ120(第2の補正手段)は、補正対象画素GU、GD、GLのそれぞれの値に対して、オフセット補正値Offsetを加算して画素値を増加させ、処理をS912へ進める。
S907で下限値αを用いて補正要否を判定することで、ランダムノイズによって値が大きくなった画素の値を誤補正する可能性を抑制したが、誤補正を完全になくすことは難しい。そのため、誤補正の可能性を考慮し、補正後の値が仮に誤補正された場合でもそれが目立たなくなるようにするためのオフセット補正値を求め、補正した画素を含む補正対象画素の値に加算する。
In step S911, the system controller 120 (second correction unit) increases the pixel value by adding the offset correction value Offset to each value of the correction target pixels GU, GD, and GL, and advances the process to step S912.
By determining whether or not correction is necessary using the lower limit α in S907, the possibility of erroneously correcting the value of a pixel whose value has increased due to random noise is suppressed, but it is difficult to completely eliminate the erroneous correction. Therefore, in consideration of the possibility of erroneous correction, if the corrected value is erroneously corrected, an offset correction value is set so as to make it inconspicuous, and added to the value of the correction target pixel including the corrected pixel. To do.

S913でシステムコントローラ120は、変数Loopの値をインクリメントし、処理をS914へ進める。
S914でシステムコントローラ120は、変数Loopと変数LoopEndとを比較する。システムコントローラ120は、変数Loopの値が変数LoopEndの値に達していなければS903から処理を繰り返し、変数Loopの値が変数LoopEndの値に達していれば処理を終了する。
In step S913, the system controller 120 increments the value of the variable Loop and advances the process to step S914.
In S914, the system controller 120 compares the variable Loop with the variable LoopEnd. The system controller 120 repeats the processing from S903 if the value of the variable Loop has not reached the value of the variable LoopEnd, and ends the processing if the value of the variable Loop has reached the value of the variable LoopEnd.

本実施形態では、焦点検出用画素に隣接する画素に、補正を必要とするクロストークの影響が生じているかどうかを判定して、クロストーク補正を行うため、実際にクロストークが生じている画素について、精度の良い補正が可能になる。また、補正を行った画素を含む近隣の同色画素にオフセット補正を行うため、ランダムノイズに起因する誤補正の影響を抑制することができ、さらに精度の良い補正を実現できる。   In the present embodiment, a pixel adjacent to the focus detection pixel is subjected to the crosstalk correction by determining whether or not the influence of the crosstalk that needs to be corrected has occurred. Can be corrected with high accuracy. In addition, since offset correction is performed on neighboring pixels of the same color including the corrected pixel, it is possible to suppress the influence of erroneous correction caused by random noise, and it is possible to realize more accurate correction.

特に焦点検出用画素が1画素おきのような高密度で設けられる場合、クロストークの影響を受ける画素も高密度に存在するため、個々のクロストークの影響が小さくても目立ちやすいという特性がある。また、画素値の上昇要因がランダムノイズかクロストークかを完全に切り分けることは困難であり、誤補正を完全に無くすこともまた困難である。誤補正の影響もクロストークによる影響と同様の理由で、特に高密度に焦点検出用画素が配置される場合に目立ちやすくなる。従って、誤補正がある程度生じることを想定し、オフセット補正を行うことで、焦点検出用画素が設けられている行の画素の平均値が、隣接する焦点検出用画素が設けられない行の画素の平均値に近くなり、誤補正が生じた場合でも目立たなくすることができる。   In particular, when the focus detection pixels are provided at a high density such as every other pixel, the pixels affected by the crosstalk are also present at a high density, so that even if the influence of the individual crosstalk is small, the pixel is easily noticeable. . Further, it is difficult to completely discriminate whether the increase factor of the pixel value is random noise or crosstalk, and it is also difficult to completely eliminate erroneous correction. The influence of erroneous correction is also conspicuous for the same reason as the influence of crosstalk, particularly when focus detection pixels are arranged at a high density. Therefore, assuming that a certain amount of erroneous correction occurs, the offset correction is performed so that the average value of the pixels in the row in which the focus detection pixels are provided is equal to the pixel in the row in which the adjacent focus detection pixels are not provided. Even if an error correction occurs near the average value, it can be made inconspicuous.

●(第2実施形態)
次に、本発明の第2実施形態について説明する。本実施形態は、焦点検出用画素の配置が第1実施形態と異なる撮像素子を用いる場合のクロストーク補正に関する。焦点検出用画素の配置およびクロストーク判定・補正処理以外は第1実施形態と共通でよいため、以下では本実施形態に特有な構成および処理について重点的に説明する。
● (Second Embodiment)
Next, a second embodiment of the present invention will be described. The present embodiment relates to crosstalk correction in the case where an image sensor having a different focus detection pixel arrangement from that of the first embodiment is used. Except for the focus detection pixel arrangement and the crosstalk determination / correction process, the process may be the same as that of the first embodiment. Therefore, the configuration and processes unique to the present embodiment will be described below.

図6は、本実施形態における撮像素子112’の画素配置例を図2(b)と同様に示した図である。第1実施形態と同様、撮像素子112’は、通常画素(撮像用画素)と焦点検出用画素とを有し、撮像用画素には原色ベイヤー配列のカラーフィルタが設けられている。本実施形態では、A像画素351とB像画素352が、瞳分割方向(ここでは水平方向)に直交する方向に隣接する画素行に、かつ瞳分割方向に直交する方向に隣接しないように(瞳分割方向の位置が異なるように)配置されている。図6(a)の例では特に、原色ベイヤー配列におけるR画素位置と、隣接行のB画素位置にそれぞれA像画素351とB像画素352が配置されている。   FIG. 6 is a diagram showing an example of the pixel arrangement of the image sensor 112 ′ in the present embodiment in the same manner as FIG. Similar to the first embodiment, the image sensor 112 ′ has normal pixels (imaging pixels) and focus detection pixels, and the image pixels are provided with a primary color Bayer array color filter. In the present embodiment, the A image pixel 351 and the B image pixel 352 are not adjacent to the pixel row adjacent to the direction orthogonal to the pupil division direction (here, the horizontal direction) and not to the direction orthogonal to the pupil division direction ( (The positions in the pupil division direction are different). In the example of FIG. 6A, in particular, the A image pixel 351 and the B image pixel 352 are arranged at the R pixel position in the primary color Bayer array and the B pixel position in the adjacent row, respectively.

本実施形態においても、焦点検出用画素には緑色のカラーフィルタが設けられているものとするが、透明のフィルタを設けたり、フィルタを設けない構成であってもよい。従って、A像画素351とB像画素352が配置される、隣接する2つの画素行に含まれる画素には、いずれも緑色のカラーフィルタが設けられている。   Also in this embodiment, the focus detection pixel is provided with a green color filter. However, a transparent filter may be provided or a filter may not be provided. Therefore, a green color filter is provided in each of the pixels included in two adjacent pixel rows where the A image pixel 351 and the B image pixel 352 are arranged.

図6(b)は、図6(a)において太線で囲んだ領域を抜き出して示した図である。画素GA、GB、GC、GDは、A像画素351またはB像画素352の少なくとも一方に隣接する撮像用画素であり、A像画素351またはB像画素352の少なくとも一方のクロストークの影響を受ける可能性がある。本実施形態では、画素GA、GB、GC、GDを補正対象として1回の補正処理を行う。なお、本実施形態ではA像画素351に隣接する撮像用画素と、B像画素352に隣接する撮像用画素とを1回の補正処理の補正対象とするため、最大で2つの画素について補正を実行する。画素G1、G2、G3、G4は、補正対象画素が実際に補正を必要とするか否かを判定するために参照する画素(参照画素)である。参照画素は補正対象画素の周辺に存在する、補正対象画素と同色の撮像用画素とする。   FIG. 6B is a diagram showing a region surrounded by a thick line in FIG. The pixels GA, GB, GC, and GD are imaging pixels adjacent to at least one of the A image pixel 351 and the B image pixel 352, and are affected by the crosstalk of at least one of the A image pixel 351 and the B image pixel 352. there is a possibility. In the present embodiment, one correction process is performed with the pixels GA, GB, GC, and GD as correction targets. In this embodiment, since the imaging pixel adjacent to the A image pixel 351 and the imaging pixel adjacent to the B image pixel 352 are to be corrected by one correction process, correction is performed for a maximum of two pixels. Run. The pixels G1, G2, G3, and G4 are pixels (reference pixels) that are referred to in order to determine whether or not the correction target pixel actually needs correction. The reference pixel is an imaging pixel that is present around the correction target pixel and has the same color as the correction target pixel.

なお、A像画素351と角で隣接する2つのR画素と、B像画素352と角で隣接する2つのB画素も、A像画素351やB像画素352のクロストークの影響を受ける。しかし、A像画素351の右上角に隣接するR画素と、B像画素352の左下角に隣接するB画素は補正対象とせず、A像画素351の左上角に隣接するR画素1002と、B像画素352の右下角に隣接するB画素1003を補正対象とする。補正対象のR画素1002およびB画素1003についても、参照画素が異なる以外は画素GA〜GDと同様に補正可能であるため、以下では画素GA〜GDの補正処理について説明する。   Note that the two R pixels adjacent to the A image pixel 351 at the corners and the two B pixels adjacent to the B image pixel 352 at the corners are also affected by the crosstalk of the A image pixel 351 and the B image pixel 352. However, the R pixel adjacent to the upper right corner of the A image pixel 351 and the B pixel adjacent to the lower left corner of the B image pixel 352 are not subject to correction, and the R pixel 1002 adjacent to the upper left corner of the A image pixel 351, A B pixel 1003 adjacent to the lower right corner of the image pixel 352 is a correction target. Since the correction target R pixel 1002 and B pixel 1003 can be corrected in the same manner as the pixels GA to GD except that the reference pixels are different, the correction processing of the pixels GA to GD will be described below.

本実施形態の焦点検出用画素の配置では、補正対象画素に生じるクロストークの影響が、焦点検出用画素と隣接する方向に応じて異なる。
A像画素351の上に隣接する画素GAには、下方向からA像画素351のクロストークを受ける可能性がある。
A像画素351の下とB像画素352の右に隣接する画素GBには、上方向からA像画素351のクロストーク、横方向からはB像画素352のクロストークを受ける可能性がある。
A像画素351の左とB像画素352の上に隣接する画素GCには、横方向からA像画素351のクロストーク、下方向からはB像画素352のクロストークを受ける可能性がある。
B像画素352の下に隣接する画素GDには、上方向からB像画素352のクロストークを受ける可能性がある。
したがって、これらの起こり得る状態をそれぞれ検出して、補正する必要がある。
In the arrangement of the focus detection pixels according to the present embodiment, the influence of crosstalk generated in the correction target pixel differs depending on the direction adjacent to the focus detection pixel.
The pixel GA adjacent on the A image pixel 351 may receive crosstalk of the A image pixel 351 from below.
The pixel GB adjacent to the lower side of the A image pixel 351 and to the right of the B image pixel 352 may be subjected to crosstalk of the A image pixel 351 from the upper direction and crosstalk of the B image pixel 352 from the lateral direction.
The pixel GC adjacent to the left of the A image pixel 351 and the B image pixel 352 may receive crosstalk of the A image pixel 351 from the horizontal direction and crosstalk of the B image pixel 352 from the lower direction.
The pixel GD adjacent below the B image pixel 352 may receive crosstalk of the B image pixel 352 from above.
It is therefore necessary to detect and correct each of these possible conditions.

図7は、補正対象画素に対する、値の補正が必要かどうかの判定処理と、画素値の補正処理の手順を示すフローチャートである。図5と同じ処理を行う工程については、同じ参照数字を付し、説明を省略する。   FIG. 7 is a flowchart showing a procedure for determining whether correction of a value is necessary for a pixel to be corrected and for correcting the pixel value. Steps for performing the same processing as in FIG. 5 are given the same reference numerals, and descriptions thereof are omitted.

S1203でシステムコントローラ120は、補正対象画素GA〜GDの最大値G_max1および、2番目に大きい値G_max2を検出し、処理をS1204へ進める。
S1204でシステムコントローラ120は、G_max1とG_aveの差分Sub1と、G_max2とG_aveの差分Sub2を算出し、処理をS1205へ進める。
In S1203, the system controller 120 detects the maximum value G_max1 and the second largest value G_max2 of the correction target pixels GA to GD, and advances the process to S1204.
In step S1204, the system controller 120 calculates a difference Sub1 between G_max1 and G_ave and a difference Sub2 between G_max2 and G_ave, and advances the process to step S1205.

S905でシステムコントローラ120は、周囲画素における高周波数成分の参考値として、以下の式で表される、参照画素G1〜G4の最大値と最小値の差分の絶対値Edgeを算出し、処理をS1206へ進める。
Edge=|MAX(G1〜G4)−MIN(G1〜G4)|
In step S905, the system controller 120 calculates the absolute value Edge of the difference between the maximum value and the minimum value of the reference pixels G1 to G4, which is expressed by the following formula, as a reference value for the high-frequency component in the surrounding pixels, and performs the processing in step S1206. Proceed to
Edge = | MAX (G1-G4) -MIN (G1-G4) |

S1206でシステムコントローラ120は、焦点検出用画素の上に隣接する画素GAの値に対する、焦点検出用画素の下に隣接する画素GDの値の比(GAとGDの大小関係)に基づいて、クロストークが生じていると考えられる方向(上/横/下)を判別する。そして、システムコントローラ120(方向判別手段)は、判別結果に応じて、
比が0.25未満(GA/GD<0.25)ならS1207へ、
比が0.25以上0.75未満(0.25≦GA/GD<0.75)ならS1209へ、
比が0.75以上(0.75≦GA/GD)ならS1210へ。
それぞれ処理を分岐させる。
In step S <b> 1206, the system controller 120 determines that the value of the pixel GD adjacent below the focus detection pixel with respect to the value of the pixel GA adjacent above the focus detection pixel (the magnitude relationship between GA and GD) The direction (up / side / down) in which the talk is considered to occur is determined. Then, the system controller 120 (direction discriminating means)
If the ratio is less than 0.25 (GA / GD <0.25), go to S1207.
If the ratio is 0.25 or more and less than 0.75 (0.25 ≦ GA / GD <0.75), go to S1209.
If the ratio is 0.75 or more (0.75 ≦ GA / GD), go to S1210.
Each process is branched.

S1207でシステムコントローラ120は、上限値σ1として、G_aveの平方根に正数A1を乗じた値(A1×√(G_ave))を、上限値σ2として、G_aveの平方根に正数A2を乗じた値(A2×√(G_ave))を算出する。
S1209,S1210においてもシステムコントローラ120は、S1207と同様にして、正数A3、A4、A5、A6を用いて上限値σ1とσ2を算出する。
In S1207, the system controller 120 sets a value obtained by multiplying the square root of G_ave by a positive number A1 (A1 × √ (G_ave)) as the upper limit value σ1, and a value obtained by multiplying the square root of G_ave by a positive number A2 as the upper limit value σ2 (S1207). A2 × √ (G_ave)) is calculated.
Also in S1209 and S1210, the system controller 120 calculates the upper limit values σ1 and σ2 using the positive numbers A3, A4, A5, and A6 in the same manner as in S1207.

上限値σ1とσ2を算出すると、システムコントローラ120は処理をS1211に進める。上限値σ1およびσ2の目的は、被写体の輝点部分や輪郭部分など、クロストーク以外の要因で大きくなっている画素値に対してクロストーク補正が行われることを抑制することにある。従って、正数A1〜A6は、このような目的を踏まえ、それぞれクロストークの方向に対応した実写画像を用いて実験的に求めることができる。   When the upper limit values σ1 and σ2 are calculated, the system controller 120 advances the process to S1211. The purpose of the upper limit values σ1 and σ2 is to prevent crosstalk correction from being performed on pixel values that are large due to factors other than crosstalk, such as the bright spot portion and contour portion of the subject. Therefore, the positive numbers A1 to A6 can be obtained experimentally using real images corresponding to the directions of the crosstalk based on such a purpose.

S1210でシステムコントローラ120は、最大値G_max1を有する補正対象画素の値を補正する必要があるか否かを判定する。具体的には、システムコントローラ120は、Sub1とEdgeの和が下限値α1より大きく上限値σ1未満であれば(α1<Sub1+Edge<σ1なら)補正が必要と判定して処理をS1212へ進める。一方、システムコントローラ120は、Sub1とEdgeの和が下限値α1以下か上限値σ1以上であれば、2番目に大きな値G_max2を有する補正対象画素を含めて補正不要と判定し、処理をS1217へ進める。第1実施形態と同様、下限値α1は任意の固定値もしくは関数としてよいが、やはり第1の実施形態と同様に、本実施形態ではα1を50LSBとする。   In step S1210, the system controller 120 determines whether it is necessary to correct the value of the correction target pixel having the maximum value G_max1. Specifically, if the sum of Sub1 and Edge is greater than the lower limit value α1 and less than the upper limit value σ1 (if α1 <Sub1 + Edge <σ1), the system controller 120 determines that correction is necessary and advances the process to S1212. On the other hand, if the sum of Sub1 and Edge is equal to or lower than the lower limit value α1 or equal to or higher than the upper limit value σ1, the system controller 120 determines that correction is unnecessary including the correction target pixel having the second largest value G_max2, and the process proceeds to S1217. Proceed. As in the first embodiment, the lower limit value α1 may be an arbitrary fixed value or a function. However, similarly to the first embodiment, α1 is set to 50 LSB in the present embodiment.

S1212でシステムコントローラ120(第1の補正手段)は、補正を行う画素(最大値G_max1を有する補正対象画素)の近傍に存在し、かつ、焦点検出用画素に隣接しない、補正する画素と同色の複数の撮像用画素の値を取得する。そして、システムコントローラ120は、取得した撮像用画素の値の平均値を補正値G_ref1として算出し、処理をS1213へ進める。例えば、システムコントローラ120は、参照画素G1〜G4の平均値G_aveを補正値G_ref1として用いることができる。   In step S1212, the system controller 120 (first correction unit) is present in the vicinity of the pixel to be corrected (correction target pixel having the maximum value G_max1) and is not adjacent to the focus detection pixel and has the same color as the pixel to be corrected. The values of a plurality of imaging pixels are acquired. Then, the system controller 120 calculates the average value of the acquired imaging pixel values as the correction value G_ref1, and advances the processing to S1213. For example, the system controller 120 can use the average value G_ave of the reference pixels G1 to G4 as the correction value G_ref1.

あるいは、システムコントローラ120は、補正を行う画素と同色で、位置が最も近い複数の画素の平均値を補正値G_ref1として算出することができる。例えば、補正を行う画素がGAの場合、システムコントローラ120は、画素GAに最も近い2つのG画素G1、G2の平均値を補正値G_refとして計算する。なお、画素GAの左右下角に隣接する2つのG画素(A像画素の左右に隣接する画素)も画素GAに最も近い画素だが、焦点検出画素のクロストークの影響を受ける可能性があるため、除外している。ただし、焦点検出用画素の隣接画素であっても、S1206で判別されたクロストークの方向から、クロストークの影響を受けていないと判別されるものについては、S1212の算出に用いてもよい。このように、補正を行う画素と同色で位置が最も近い複数の画素の平均値を補正値とすることで、補正による解像感の低下を防止することができる。   Alternatively, the system controller 120 can calculate, as the correction value G_ref1, an average value of a plurality of pixels having the same color as the pixel to be corrected and the closest positions. For example, when the pixel to be corrected is GA, the system controller 120 calculates the average value of the two G pixels G1 and G2 closest to the pixel GA as the correction value G_ref. Note that the two G pixels adjacent to the left and right lower corners of the pixel GA (pixels adjacent to the left and right of the A image pixel) are also closest to the pixel GA, but may be affected by the crosstalk of the focus detection pixel. Excluded. However, even pixels adjacent to the focus detection pixels that are determined not to be affected by the crosstalk from the crosstalk direction determined in S1206 may be used for the calculation in S1212. In this way, by using an average value of a plurality of pixels having the same color and closest position as the pixel to be corrected as a correction value, it is possible to prevent a reduction in resolution due to the correction.

S1213でシステムコントローラ120(第1の補正手段)は、補正値G_ref1と、補正を行う画素値G_max1との重み付け平均値(β×G_ref1+(1−β)×G_max1)を、補正後の値として算出する。そして、システムコントローラ120は、算出した値で、補正する画素GAの値を置き換え、処理をS1214へ進める。なお、混合率β(0≦β≦1)は例えば予め定めた固定値であってよく、例えばβ=0.5であってよい。あるいは、β=1として、画素値を補正値G_ref1で置き換えて補正するようにしてもよい。 In step S1213, the system controller 120 (first correction unit) calculates a weighted average value (β × G_ref1 + (1−β) × G_max1 ) of the correction value G_ref1 and the pixel value G_max1 to be corrected as a corrected value. To do. Then, the system controller 120 replaces the value of the pixel GA to be corrected with the calculated value, and advances the process to S1214. The mixing rate β (0 ≦ β ≦ 1) may be a predetermined fixed value, for example, β = 0.5. Alternatively, β = 1 may be used to replace the pixel value with the correction value G_ref1 for correction.

S1214〜S1216でシステムコントローラ120は、S1211〜S1213と同様にして、値G_max2を有する画素について、補正要否の判定および画素値の補正を行い、処理をS1217へ進める。下限σ2は下限σ1と同様に決定することができるが、本実施形態ではσ1と等しい50LSBとする。   In steps S1214 to S1216, the system controller 120 determines whether or not correction is necessary and corrects the pixel value of the pixel having the value G_max2, similarly to steps S1211 to S1213, and advances the processing to step S1217. The lower limit σ2 can be determined in the same manner as the lower limit σ1, but in this embodiment, the lower limit σ2 is 50 LSB equal to σ1.

S1217でシステムコントローラ120は、補正対象画素GA〜GDの各々に対するオフセット補正値Offset_A〜Offset_Dとして、G_aveの平方根に正数B1〜B4を乗じた値
Offset_A=B1×√(G_ave)
Offset_B=B2×√(G_ave)
Offset_C=B3×√(G_ave)
Offset_D=B4×√(G_ave)
を算出し、処理をS1218に進める。B1〜B4の値は予め実験的に決定することができる。なお、S1206で判別するクロストークの方向(上/横/下)ごとに、B1〜B4の値を決定しておき、S1206で判別された方向に応じた値をS1217で用いるようにしてもよい。例えば、補正対象画素GA〜GDのうち、S1206で判別された方向のクロストークの影響を受けない位置の画素のオフセット補正値が、クロストークの影響を受けうる位置の画素のオフセット補正値よりも小さくなるようにB1〜B4を決定することができる。
In step S <b> 1217, the system controller 120 sets a value obtained by multiplying the square root of G_ave by positive numbers B <b> 1 to B <b> 4 as offset correction values Offset_A to Offset_D for each of the correction target pixels GA to GD, Offset_A = B1 × √ (G_ave).
Offset_B = B2 × √ (G_ave)
Offset_C = B3 × √ (G_ave)
Offset_D = B4 × √ (G_ave)
Is calculated, and the process advances to step S1218. The values of B1 to B4 can be experimentally determined in advance. Note that the values of B1 to B4 may be determined for each crosstalk direction (up / horizontal / down) determined in S1206, and a value corresponding to the direction determined in S1206 may be used in S1217. . For example, among the correction target pixels GA to GD, the offset correction value of the pixel at the position that is not affected by the crosstalk in the direction determined in S1206 is larger than the offset correction value of the pixel at the position that can be affected by the crosstalk. B1 to B4 can be determined to be smaller.

また、S1207,S1209,S1210で用いる正数A1〜A6の値が大きいほど、S1211,S1214で補正要否の判定に用いられる条件が緩くなり、画素値が補正される確率が高く、また、補正前後の画素値の差(すなわち補正量)が大きくなりうる。つまり、正数A1〜A6の値が大きいほど誤補正の影響も大きくなる。従って、正数A1〜A6のうち、大きい値の正数が用いられるほどオフセット補正値も大きくなるように、B1〜B4を決定しておくことができる。あるいは、補正要否の判定に用いられる条件が、第1の条件である場合より、より緩い第2の条件である場合の方がオフセット補正値が大きくなるようにすることができる。そして、S1206で判別されたクロストークの方向(S1207,S1209,S1210のどの工程が実行されたか)に応じて、対応するB1〜B4の値を用いるように構成することができる。   In addition, as the values of the positive numbers A1 to A6 used in S1207, S1209, and S1210 are larger, the conditions used for determining whether correction is necessary in S1211, S1214 become looser, and the probability that the pixel value is corrected is higher. The difference between the pixel values before and after (that is, the correction amount) can be large. That is, the larger the positive numbers A1 to A6 are, the greater the influence of erroneous correction is. Therefore, among the positive numbers A1 to A6, B1 to B4 can be determined so that the offset correction value increases as the larger positive number is used. Alternatively, the offset correction value can be increased when the condition used for determining whether or not correction is necessary is the second condition, which is looser than the first condition. Then, according to the crosstalk direction determined in S1206 (which step of S1207, S1209, and S1210 has been executed), the corresponding values of B1 to B4 can be used.

S1218でシステムコントローラ120(第2の補正手段)は、補正対象画素GAの値に対して、オフセット補正値Offset_Aを加算する。また、システムコントローラ120は、他の補正対象画素GB〜GDの値に対しても同様にOffset_B〜Offset_Dを加算して、処理をS912へ進める。以後は、第1実施形態と同様であるため説明を省略する。   In step S1218, the system controller 120 (second correction unit) adds the offset correction value Offset_A to the value of the correction target pixel GA. Similarly, the system controller 120 adds Offset_B to Offset_D to the values of the other correction target pixels GB to GD, and advances the processing to S912. Since the subsequent steps are the same as those in the first embodiment, description thereof is omitted.

以上説明したように、第1実施形態よりも高密度で焦点検出用画素が配置される場合であっても、第1実施形態と同様に、焦点検出用画素のクロストークに起因する画質劣化を精度良く補正することが可能である。   As described above, even when the focus detection pixels are arranged at a higher density than in the first embodiment, the image quality degradation caused by the crosstalk of the focus detection pixels is reduced as in the first embodiment. It is possible to correct with high accuracy.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100…カメラ本体、112…撮像素子、115…画像データコントローラ、120…システムコントローラ、200…レンズユニット DESCRIPTION OF SYMBOLS 100 ... Camera body, 112 ... Image sensor, 115 ... Image data controller, 120 ... System controller, 200 ... Lens unit

Claims (13)

焦点検出用画素に隣接する複数の撮像用画素の値を、複数の補正対象画素の値として取得する第1の取得手段と、
前記複数の補正対象画素の少なくとも1つの近傍に存在し、かつ、焦点検出用画素に隣接しない、前記複数の補正対象画素と同色の複数の撮像用画素の値を取得する第2の取得手段と、
前記複数の補正対象画素の値の少なくとも1つと、前記第2の取得手段が取得した複数の撮像用画素の値とに基づいて、前記複数の補正対象画素の値の少なくとも1つを補正する必要があるか否かを判定する判定手段と、
前記判定手段により補正が必要と判定された補正対象画素の値を減少させる第1の補正手段と、
前記第1の補正手段で補正された値を含む前記複数の補正対象画素の値を、オフセット補正値により増加させる第2の補正手段と、
を有することを特徴とする画像処理装置。
First acquisition means for acquiring values of a plurality of imaging pixels adjacent to the focus detection pixels as values of a plurality of correction target pixels;
Second acquisition means for acquiring values of a plurality of imaging pixels having the same color as the plurality of correction target pixels that are present in the vicinity of at least one of the plurality of correction target pixels and are not adjacent to the focus detection pixels; ,
It is necessary to correct at least one of the values of the plurality of correction target pixels based on at least one of the values of the plurality of correction target pixels and the values of the plurality of imaging pixels acquired by the second acquisition unit. Determination means for determining whether or not there is,
First correction means for reducing the value of the correction target pixel determined to be corrected by the determination means;
Second correction means for increasing the value of the plurality of correction target pixels including the value corrected by the first correction means by an offset correction value;
An image processing apparatus comprising:
前記複数の補正対象画素の値の少なくとも1つが、前記複数の補正対象画素の値のうち、値の大きな方から選択されることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein at least one of the values of the plurality of correction target pixels is selected from among the values of the plurality of correction target pixels. 前記判定手段は、前記複数の補正対象画素の値の少なくとも1つと、前記第2の取得手段が取得した複数の撮像用画素の値の平均値との差に基づいて、前記複数の補正対象画素の値の少なくとも1つを補正する必要があるか否かを判定することを特徴とする請求項1または2に記載の画像処理装置。   The determination unit is configured to determine the plurality of correction target pixels based on a difference between at least one of the plurality of correction target pixel values and an average value of the plurality of imaging pixel values acquired by the second acquisition unit. The image processing apparatus according to claim 1, wherein it is determined whether at least one of the values needs to be corrected. 前記判定手段は、
前記複数の補正対象画素の値の少なくとも1つと、前記第2の取得手段が取得した複数の撮像用画素の値の平均値との差と、
前記第2の取得手段が取得した複数の撮像用画素の値の最大値と最小値との差、
の和が、予め定められた下限値より大きく、前記第2の取得手段が取得した複数の撮像用画素の値の平均値に基づく上限値より小さい場合に、前記複数の補正対象画素の値の少なくとも1つを補正する必要があると判定することを特徴とする請求項3記載の画像処理装置。
The determination means includes
A difference between at least one of the values of the plurality of correction target pixels and an average value of the plurality of imaging pixels acquired by the second acquisition unit;
The difference between the maximum value and the minimum value of the plurality of imaging pixels acquired by the second acquisition means;
Is larger than a predetermined lower limit value and smaller than an upper limit value based on an average value of the plurality of imaging pixels acquired by the second acquisition unit, the value of the plurality of correction target pixels The image processing apparatus according to claim 3, wherein it is determined that at least one correction is necessary.
前記第2の補正手段は、前記上限値が大きいほど前記オフセット補正値を大きくすることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the second correction unit increases the offset correction value as the upper limit value increases. 前記第1の補正手段は、前記判定手段により補正が必要と判定された補正対象画素の値を、該補正対象画素の近傍に位置する、該補正対象画素と同色で、かつ焦点検出用画素に隣接しない複数の撮像用画素の値に基づく補正値を用いて減少させることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。   The first correction unit applies the value of the correction target pixel determined to be corrected by the determination unit to the focus detection pixel that is in the vicinity of the correction target pixel and has the same color as the correction target pixel. 6. The image processing apparatus according to claim 1, wherein the image processing apparatus is decreased by using a correction value based on values of a plurality of imaging pixels that are not adjacent to each other. 前記補正値が、前記判定手段により値の補正が必要と判定された補正対象画素の最も近くに位置する、該補正対象画素と同色で、かつ焦点検出用画素に隣接しない複数の撮像用画素の値に基づくことを特徴とする請求項6に記載の画像処理装置。   The correction value is the closest to the correction target pixel that is determined to need to be corrected by the determination unit, and has the same color as the correction target pixel and is not adjacent to the focus detection pixel. The image processing apparatus according to claim 6, wherein the image processing apparatus is based on a value. 前記第2の補正手段は、前記第2の取得手段が取得した複数の撮像用画素の値の平均値に基づく値を、前記オフセット補正値として用いることを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。   The said 2nd correction | amendment means uses the value based on the average value of the value of the some imaging pixel which the said 2nd acquisition means acquired as said offset correction value, Any one of Claim 1 to 7 characterized by the above-mentioned. The image processing apparatus according to claim 1. 前記第2の補正手段は、前記判定手段が第1の条件を用いて前記判定を行う場合よりも、前記第1の条件より緩い第2の条件を用いて前記判定を行う場合の方が前記オフセット補正値を大きくすることを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。   The second correction unit is more effective when the determination unit performs the determination using the second condition that is looser than the first condition than when the determination unit performs the determination using the first condition. The image processing apparatus according to claim 1, wherein the offset correction value is increased. 前記判定手段が前記判定に用いる条件が、前記複数の補正対象画素のうち、焦点検出用画素と隣接する方向の異なる複数の補正対象画素の値に基づいて決定されることを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。   The condition used by the determination unit for the determination is determined based on values of a plurality of correction target pixels having different directions adjacent to a focus detection pixel among the plurality of correction target pixels. The image processing apparatus according to any one of 1 to 9. 焦点検出用画素と撮像用画素とを有する撮像素子と、
請求項1から10のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。
An imaging device having focus detection pixels and imaging pixels;
The image processing apparatus according to any one of claims 1 to 10,
An imaging device comprising:
第1の取得手段が、焦点検出用画素に隣接する複数の撮像用画素の値を、複数の補正対象画素の値として取得する第1の取得工程と、
第2の取得手段が、前記複数の補正対象画素の少なくとも1つの近傍に存在し、かつ、焦点検出用画素に隣接しない、前記複数の補正対象画素と同色の複数の撮像用画素の値を取得する第2の取得工程と、
判定手段が、前記複数の補正対象画素の値の少なくとも1つと、前記第2の取得手段が取得した複数の撮像用画素の値とに基づいて、前記複数の補正対象画素の値の少なくとも1つを補正する必要があるか否かを判定する判定工程と、
第1の補正手段が、前記判定手段により補正が必要と判定された補正対象画素の値を減少させる第1の補正工程と、
第2の補正手段が、前記第1の補正手段で補正された値を含む前記複数の補正対象画素の値を、オフセット補正値により増加させる第2の補正工程と、
を有することを特徴とする画像処理装置の制御方法。
A first acquisition unit that acquires values of a plurality of imaging pixels adjacent to the focus detection pixels as values of a plurality of correction target pixels;
The second acquisition unit acquires values of a plurality of imaging pixels having the same color as the plurality of correction target pixels that are present in the vicinity of at least one of the plurality of correction target pixels and are not adjacent to the focus detection pixel. A second acquisition step,
Based on at least one of the values of the plurality of correction target pixels and the values of the plurality of imaging pixels acquired by the second acquisition unit, the determination unit determines at least one of the values of the plurality of correction target pixels. A determination step for determining whether or not correction is necessary,
A first correction step in which a first correction unit decreases a value of a correction target pixel determined to be corrected by the determination unit;
A second correction step, wherein a second correction unit increases a value of the plurality of correction target pixels including the value corrected by the first correction unit by an offset correction value;
A control method for an image processing apparatus, comprising:
コンピュータを、請求項1から10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 to 10.
JP2015019614A 2015-02-03 2015-02-03 Image processing apparatus and control method thereof Active JP6478670B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015019614A JP6478670B2 (en) 2015-02-03 2015-02-03 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015019614A JP6478670B2 (en) 2015-02-03 2015-02-03 Image processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2016144090A JP2016144090A (en) 2016-08-08
JP2016144090A5 JP2016144090A5 (en) 2018-03-15
JP6478670B2 true JP6478670B2 (en) 2019-03-06

Family

ID=56568987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015019614A Active JP6478670B2 (en) 2015-02-03 2015-02-03 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6478670B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018093257A (en) * 2016-11-30 2018-06-14 オリンパス株式会社 Imaging apparatus
JP6929511B2 (en) * 2017-04-04 2021-09-01 株式会社ニコン Image sensor and image sensor
JP2018196083A (en) 2017-05-22 2018-12-06 オリンパス株式会社 Image processing system
JP7038257B2 (en) * 2019-05-15 2022-03-17 富士フイルム株式会社 Leakage light detector, image pickup device, leak light detection method, and leak light detection program
CN111953875B (en) * 2020-08-12 2022-02-15 Oppo广东移动通信有限公司 Depth detection assembly and electronic equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5589760B2 (en) * 2010-10-27 2014-09-17 ソニー株式会社 Image processing apparatus, imaging apparatus, image processing method, and program.
JP5852356B2 (en) * 2011-08-05 2016-02-03 キヤノン株式会社 Imaging device
JP6239820B2 (en) * 2011-12-19 2017-11-29 キヤノン株式会社 Imaging apparatus and control method thereof
JP2014135564A (en) * 2013-01-08 2014-07-24 Canon Inc Image pickup device and image processing device
JP6087674B2 (en) * 2013-02-27 2017-03-01 キヤノン株式会社 Imaging device

Also Published As

Publication number Publication date
JP2016144090A (en) 2016-08-08

Similar Documents

Publication Publication Date Title
US9503616B2 (en) Image capturing apparatus
EP1975695B1 (en) Focus detection device, focusing state detection method and imaging apparatus
US8854533B2 (en) Image capture apparatus and control method therefor
JP6478670B2 (en) Image processing apparatus and control method thereof
JP5597243B2 (en) Imaging device
US11375101B2 (en) Image capturing apparatus, control method thereof, and storage medium
JP2012113189A (en) Imaging apparatus
JP2009213076A (en) Imaging device and control method thereof
CN109729244B (en) Image pickup apparatus, focus detection method, and storage medium
JP5852356B2 (en) Imaging device
JP5609232B2 (en) Imaging device
JP5791765B2 (en) Imaging apparatus and control method thereof
JP5747510B2 (en) Imaging device
JP2007251656A (en) Image sensing device, its control method and program
JP6503646B2 (en) Image pickup apparatus and noise correction method
JP5440585B2 (en) Digital camera
US10873707B2 (en) Image pickup apparatus and method, for ensuring correct color temperature based on first or second preliminary light emission of a flash device
JP2013044938A (en) Imaging apparatus and imaging method
JP2015087494A (en) Imaging device
JP6005955B2 (en) Photometric device and imaging device
JP2007171298A (en) Imaging apparatus, and its control method, program and storage medium therefor
JP6468742B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JPH0777726A (en) Camera system
JP6349678B2 (en) Focus detection apparatus and imaging apparatus
JP2006017854A (en) Imaging apparatus and flash light emitting device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190205

R151 Written notification of patent or utility model registration

Ref document number: 6478670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151