JP6351255B2 - Imaging apparatus, imaging method, program, and storage medium - Google Patents
Imaging apparatus, imaging method, program, and storage medium Download PDFInfo
- Publication number
- JP6351255B2 JP6351255B2 JP2013263024A JP2013263024A JP6351255B2 JP 6351255 B2 JP6351255 B2 JP 6351255B2 JP 2013263024 A JP2013263024 A JP 2013263024A JP 2013263024 A JP2013263024 A JP 2013263024A JP 6351255 B2 JP6351255 B2 JP 6351255B2
- Authority
- JP
- Japan
- Prior art keywords
- focus
- bracket
- distribution
- captured image
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、電子スチルカメラ及びビデオカメラ等の撮像装置におけるオートフォーカス技術に関するものである。 The present invention relates to an autofocus technique in an imaging apparatus such as an electronic still camera and a video camera.
従来、電子スチルカメラやビデオカメラなどではオートフォーカス(AFとも記す)を行う場合、CCD(電荷結合素子)などを用いた撮像素子から得られる輝度信号の高域周波数成分が最大になるレンズ位置を合焦位置とする方式が用いられている。この方式の1つとして、次のスキャン方式が知られている。即ち、焦点検出範囲の全域に亘ってレンズを駆動しながら撮像素子から得られる輝度信号の高域周波数成分に基づく評価値(焦点評価値とも記す)をその都度に記憶していく。ここで、画面内での中央付近や被写体検出領域付近に焦点評価値を取得するための領域(以下、AF枠と記す)を設定し、設定した各AF枠での焦点評価値の最大値に相当するレンズ位置(以下、ピーク位置とも記す)を取得し、撮影時の合焦位置を決定する。 Conventionally, when performing autofocus (also referred to as AF) in an electronic still camera or a video camera, the lens position where the high frequency component of the luminance signal obtained from an image sensor using a CCD (charge coupled device) is maximized A method of setting the in-focus position is used. As one of these methods, the following scan method is known. That is, an evaluation value (also referred to as a focus evaluation value) based on the high frequency component of the luminance signal obtained from the image sensor is stored each time while driving the lens over the entire focus detection range. Here, an area for acquiring a focus evaluation value (hereinafter referred to as an AF frame) is set near the center or near the subject detection area in the screen, and the maximum value of the focus evaluation value in each set AF frame is set. A corresponding lens position (hereinafter also referred to as a peak position) is acquired, and a focusing position at the time of photographing is determined.
ところで、こうして得られるAF時の合焦結果を、撮影時の合焦位置決定のために使用するだけでなく、複数のAF枠を設定して画面内の距離の分布を取得して撮影時処理や画像処理時の判断に使用する場合がある。 By the way, the focusing result obtained in this way is used not only for determining the focusing position at the time of shooting, but also by setting a plurality of AF frames to acquire the distribution of distances in the screen and processing at the time of shooting. And may be used for judgment during image processing.
例えば、特許文献1では、各被写体の被写体距離情報を取得して画面内をいくつかの領域に分割し、分割した領域ごとにシーンを判定して所定の画像処理を行う内容が開示されている。 For example, Japanese Patent Application Laid-Open No. 2004-151620 discloses the content of acquiring subject distance information of each subject, dividing the screen into several regions, determining a scene for each divided region, and performing predetermined image processing. .
特許文献2では、撮影画像を複数の領域に分割して、距離の分布に基づいて各領域の中でぼかし処理を実施する領域を決定する。この際に、手振れに起因する像ブレの検出量に応じて、距離の分布に対して施すノイズ除去フィルターの設定を調整するという内容が開示されている。 In Patent Document 2, a captured image is divided into a plurality of regions, and a region to be subjected to blurring processing is determined in each region based on a distribution of distances. At this time, it is disclosed that the setting of a noise removal filter to be applied to the distribution of distances is adjusted in accordance with the detection amount of image blur caused by camera shake.
しかしながら、距離の分布が精度よく得られないと、誤った領域の分割処理を実施したり、判定を誤る可能性がある。例えば、手振れの影響が大きいことによってAFの測距誤差が大きくなる場合や、焦点距離やF値の設定に応じて焦点深度が深くなることによってAF結果のばらつき量が大きくなる場合などには、正しい距離の分布が得られなくなる。 However, if the distribution of the distance cannot be obtained with high accuracy, there is a possibility that an erroneous region division process is performed or the determination is erroneous. For example, when the AF ranging error becomes large due to the influence of camera shake, or when the variation amount of the AF result becomes large due to the depth of focus depending on the setting of the focal length and F value, The correct distance distribution cannot be obtained.
上述の特許文献1に開示された従来技術においては、上記のように距離情報の精度についての判定を行っていないため、距離による領域分割を誤る場合もある。また、上述の特許文献2に開示された従来技術においては、手振れの影響を考慮しているものの、フィルターをかけることで元の距離情報が失われてかえって精度が悪くなる場合がある。また、手振れの度合いによってはフィルターを掛けても精度が維持できない場合も考えられる。 In the prior art disclosed in the above-mentioned Patent Document 1, since the determination of the accuracy of the distance information is not performed as described above, there is a case where the region division based on the distance is erroneous. In addition, in the conventional technique disclosed in Patent Document 2 described above, although the influence of camera shake is taken into account, the original distance information may be lost by applying a filter, and the accuracy may deteriorate. Also, depending on the degree of camera shake, there may be a case where accuracy cannot be maintained even if a filter is applied.
本発明は上述した課題に鑑みてなされたものであり、その目的は、距離分布を精度良く求め、その結果に基づいて距離分布に基づく画像処理あるいは撮影処理を適切に実施可能とすることである。 The present invention has been made in view of the above-described problems, and an object thereof is to obtain a distance distribution with high accuracy and to appropriately perform image processing or photographing processing based on the distance distribution based on the result. .
本発明に係わる撮像装置は、シーンに応じて、連写、AFブラケット撮影、AEブラケット撮影、ストロボブラケット撮影の少なくともいずれかを含む複数のブラケット撮影の中で、どのブラケット撮影を行うのかを決定するブラケット判定手段と、焦点距離及び露光条件に基づいて、撮像画像内における合焦状態の分布を取得するか否かを判定する分布取得判定手段と、前記分布取得判定手段により前記撮像画像内における合焦状態の分布を取得すると判定された場合に、フォーカスレンズを移動させながら、複数の焦点検出領域における合焦状態を検出して前記撮像画像内における合焦状態の分布を取得し前記分布に基づいて撮像画像内を複数の領域に分割し、前記フォーカスレンズの焦点調節を行い、前記分布取得判定手段により前記撮像画像内における合焦状態の分布を取得しないと判定された場合に、前記フォーカスレンズを移動させながら、予め設定された焦点検出領域における合焦状態を検出して、前記フォーカスレンズの焦点調節を行う焦点調節手段と、を備えることを特徴とする。 The imaging apparatus according to the present invention determines which bracket shooting is to be performed among a plurality of bracket shootings including at least one of continuous shooting, AF bracket shooting, AE bracket shooting, and strobe bracket shooting depending on the scene. Based on the bracket determination means, the distribution acquisition determination means for determining whether or not to acquire the distribution of the in-focus state in the captured image based on the focal length and the exposure condition, and the distribution acquisition determination means in the captured image. When it is determined to acquire the focus state distribution, the focus state is detected in a plurality of focus detection areas while moving the focus lens, and the focus state distribution in the captured image is acquired and based on the distribution. The captured image is divided into a plurality of regions, the focus of the focus lens is adjusted, and the distribution acquisition determination unit performs the adjustment. When it is determined that the distribution of the focus state in the image image is not acquired, the focus lens is moved while the focus lens is moved, and the focus state in the preset focus detection region is detected to adjust the focus of the focus lens. And a focusing means for performing .
本発明によれば、距離分布を精度良く求め、その結果に基づいて距離分布に基づく画像処理あるいは撮影処理を適切に実施することが可能となる。 According to the present invention, it is possible to obtain a distance distribution with high accuracy and appropriately perform image processing or photographing processing based on the distance distribution based on the result.
以下、本発明の一実施形態について、添付図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
<電子カメラのブロック図>
図1は本発明を適用した撮像装置の一実施形態である電子カメラの構成を示すブロック図である。
<Block diagram of electronic camera>
FIG. 1 is a block diagram showing a configuration of an electronic camera which is an embodiment of an imaging apparatus to which the present invention is applied.
図1において、101はズーム機構を含む撮影レンズである。102は光量を制御する絞り及びシャッターである。103はAE処理部である。104は後述する撮像素子上に焦点を合わせる(焦点調節する)ためのフォーカスレンズである。105はAF処理部である。106はストロボである。107はEF処理部である。108はフォーカスレンズ104を介して結像された被写体からの反射光である被写体像を電気信号に変換する受光手段又は光電変換手段としての撮像素子である。109は撮像素子108の出力ノイズを除去するCDS回路やA/D変換前に行う非線形増幅回路を含むA/D変換部である。110は画像処理部である。112はフォーマット変換部である。 In FIG. 1, reference numeral 101 denotes a photographing lens including a zoom mechanism. Reference numeral 102 denotes an aperture and a shutter that control the amount of light. Reference numeral 103 denotes an AE processing unit. Reference numeral 104 denotes a focus lens for focusing (adjusting the focus) on an image sensor, which will be described later. Reference numeral 105 denotes an AF processing unit. Reference numeral 106 denotes a strobe. Reference numeral 107 denotes an EF processing unit. Reference numeral 108 denotes an image sensor as a light receiving means or a photoelectric conversion means for converting a subject image, which is reflected light from a subject formed through the focus lens 104, into an electrical signal. Reference numeral 109 denotes an A / D converter including a CDS circuit that removes output noise from the image sensor 108 and a non-linear amplifier circuit that is executed before A / D conversion. Reference numeral 110 denotes an image processing unit. Reference numeral 112 denotes a format conversion unit.
113は高速な内蔵メモリ(例えばランダムアクセスメモリなど、以下DRAMと記す)である。DRAM113は一時的な画像記憶手段としての高速バッファとして、あるいは画像の圧縮伸張における作業用メモリなどに使用される。114はメモリーカードなどの記録媒体とそのインターフェースからなる画像記録部である。115は撮影シーケンスなどシステムを制御するシステム制御部(以下CPUと記す)である。116は画像表示用メモリ(以下VRAMと記す)、117は画像表示の他、操作補助のための表示やカメラ状態の表示、さらに撮影時には撮影画面と測距領域を表示する操作表示部である。 Reference numeral 113 denotes a high-speed built-in memory (for example, a random access memory, hereinafter referred to as DRAM). The DRAM 113 is used as a high-speed buffer as temporary image storage means, or a working memory for image compression / decompression. An image recording unit 114 includes a recording medium such as a memory card and its interface. Reference numeral 115 denotes a system control unit (hereinafter referred to as CPU) that controls the system such as a photographing sequence. Reference numeral 116 denotes an image display memory (hereinafter referred to as VRAM), and 117 denotes an operation display unit that displays an image for assisting operation and a camera state in addition to an image display, and also displays a shooting screen and a distance measurement area at the time of shooting.
118はカメラを外部から操作するための操作部である。操作部118には、例えば次のようなものが含まれる。撮像装置の撮影機能や画像再生時の設定などの各種設定を行うメニュースイッチ、撮影レンズのズーム動作を指示するズームレバー、撮影モードと再生モードの動作モード切換えスイッチ、などである。 Reference numeral 118 denotes an operation unit for operating the camera from the outside. The operation unit 118 includes the following, for example. There are a menu switch for performing various settings such as a shooting function of the image pickup apparatus and a setting at the time of image reproduction, a zoom lever for instructing a zoom operation of the shooting lens, an operation mode switching switch between a shooting mode and a playback mode, and the like.
121はAFやAE等の撮影スタンバイ動作を行うためのスイッチ(以下SW1と記す)である。122はSW1の操作後、撮影を行う撮影スイッチ(以下SW2と記す)である。123は画像処理部110で処理された画像信号を用いて被写体の検出を行い、検出した一つ又は複数の被写体の情報(位置・大きさ・信頼度)をCPU115に送る被写体検出モジュールである。なお、被写体の検出方法は、本発明の主眼点ではないため詳細な説明は省略する。125は、カメラ自体の動きを検出してカメラ動き情報をCPU115に送る角速度センサ部である。 Reference numeral 121 denotes a switch (hereinafter referred to as SW1) for performing a shooting standby operation such as AF or AE. Reference numeral 122 denotes a photographing switch (hereinafter referred to as SW2) that performs photographing after the operation of SW1. Reference numeral 123 denotes a subject detection module that detects a subject using the image signal processed by the image processing unit 110 and sends information (position / size / reliability) of one or more detected subjects to the CPU 115. It should be noted that the subject detection method is not the main point of the present invention and will not be described in detail. An angular velocity sensor unit 125 detects the movement of the camera itself and sends camera movement information to the CPU 115.
<電子カメラの動作>
次に図2のフローチャートを参照しながら本実施形態の電子カメラの動作について説明する。
<Operation of electronic camera>
Next, the operation of the electronic camera of this embodiment will be described with reference to the flowchart of FIG.
まずS201ではCPU115が、撮影準備を指示するSW1の状態(ON/OFF)を判定し、SW1の状態がON(オン)状態の場合はS203へ進み、OFF(オフ)状態の場合にはS202へ進む。 First, in S201, the CPU 115 determines the state (ON / OFF) of SW1 instructing to prepare for photographing. If the state of SW1 is ON (on), the process proceeds to S203, and if it is OFF (off), the process proceeds to S202. move on.
S202ではSW1待機中の動作を行い、操作表示部117に表示される画像のピントや露出を最適に保つように制御するとともに、後述するS203のブラケット判定に必要な情報を取得する。具体的には、AF処理部105では画面内の被写体へのピント追従を行い、AE処理部103では露出を適正に保つように制御するとともにブラケット判定で必要な露出情報の取得を行う。また、被写体検出モジュール123ではブラケット判定で必要な被写体の動き情報の取得を行う。 In S202, SW1 standby operation is performed, control is performed so as to keep the focus and exposure of the image displayed on the operation display unit 117 optimal, and information necessary for bracket determination in S203 described later is acquired. Specifically, the AF processing unit 105 performs focus tracking on the subject in the screen, and the AE processing unit 103 performs control so as to keep the exposure appropriate, and acquires exposure information necessary for bracket determination. The subject detection module 123 also acquires subject motion information necessary for bracket determination.
S203では、後述する手順に従って、撮影時に最適なブラケット処理(AFブラケット、AEブラケット、ストロボブラケット、連写)を判定するブラケット判定を行い、S204へ進む。 In S203, bracket determination for determining the optimum bracket processing (AF bracket, AE bracket, strobe bracket, continuous shooting) at the time of shooting is performed according to the procedure described later, and the process proceeds to S204.
S204では、後述する手順に従って、SW1後のAFスキャン時に画面内の距離の分布(以下、距離マップ)を取得するためのAFスキャンを実施するかどうかを決定し、S205へ進む。S205ではAE処理部103で本露光用のAE処理を行い、S206へ進む。 In S204, it is determined whether or not to perform AF scan for acquiring the distribution of distances in the screen (hereinafter referred to as distance map) during AF scan after SW1, according to the procedure described later, and the process proceeds to S205. In S205, the AE processing unit 103 performs AE processing for main exposure, and the process proceeds to S206.
S206では後述する手順に従って本露光用のAFを行い、S207へ進む。ここでは、撮影時の合焦位置(合焦状態)を決定するとともに、S204において距離マップを取得するためのAFスキャンを実施すると決定した場合は、AFスキャン結果に基づいて距離マップの取得も行う。 In S206, AF for main exposure is performed according to the procedure described later, and the process proceeds to S207. Here, the in-focus position (in-focus state) at the time of shooting is determined, and if it is determined in S204 that the AF scan for acquiring the distance map is performed, the distance map is also acquired based on the AF scan result. .
S207では、S206のAFスキャン結果に応じて、撮影時のブラケット処理を最終的に決定する。ここで、S206のAFスキャンの結果、画面内に距離差がなく、AFブラケットの効果のないシーンであると判断した場合は、AFブラケットを実施しないようにブラケット処理を変更する。 In S207, bracketing processing at the time of shooting is finally determined according to the AF scan result in S206. Here, as a result of the AF scan in S206, if it is determined that the scene has no distance difference in the screen and the effect of the AF bracket is not effective, the bracket processing is changed so that the AF bracket is not performed.
S208ではCPU115は撮影スイッチSW2の状態(ON/OFF)を判定し、SW2の状態がON状態の場合はS209へ進むが、OFF状態の場合にはS208へ戻る。 In S208, the CPU 115 determines the state (ON / OFF) of the photographing switch SW2, and proceeds to S209 if the state of SW2 is ON, but returns to S208 if it is OFF.
S209では、S207で決定したブラケット種別に基づき、後述する手順に従ってブラケット撮影を行い、S210へ進む。 In S209, based on the bracket type determined in S207, bracket shooting is performed according to the procedure described later, and the process proceeds to S210.
S210では、S209でブラケット撮影を行った複数の撮影画像に対して、ブラケット種別に基づく画像処理を後述する手順に従って行い、本処理を終了する。 In S210, image processing based on the bracket type is performed on the plurality of captured images obtained by bracket shooting in S209 according to a procedure described later, and the present processing is terminated.
<ブラケット判定>
図3は、図2のS203におけるブラケット判定の処理を説明するフローチャートである。ここでは、SW1をONする前に得られた情報から撮影時に最適な処理を判定する。
<Bracket judgment>
FIG. 3 is a flowchart illustrating the bracket determination process in S203 of FIG. Here, the optimum processing at the time of photographing is determined from information obtained before turning on SW1.
ここで、焦点深度が深くなる影響や、手振れの影響により、AFばらつきが大きくなると距離マップの精度も悪くなる。また、フォーカスレンズ104の性能による像面湾曲の影響が大きい場合や、フォーカスレンズ104や撮像素子108が光軸に対して大きく傾いている場合は、距離マップに大きく影響する。そのため、像面湾曲や傾きの影響度合いを予め測定しておき、測定した値に基づいて個体ごとに距離マップの値を補正すること(以下、像面補正)によって距離マップの精度を保証するようにしている。しかし、焦点深度が深くなるに従い像面補正のための測定の精度が保てなくなり、像面補正の実施が難しくなる。 Here, the accuracy of the distance map also deteriorates when the AF variation increases due to the effect of increasing the depth of focus or the effect of camera shake. Further, when the influence of the curvature of field due to the performance of the focus lens 104 is large, or when the focus lens 104 and the image sensor 108 are greatly inclined with respect to the optical axis, the distance map is greatly affected. Therefore, the accuracy of the distance map is guaranteed by measuring in advance the degree of influence of field curvature and tilt and correcting the distance map value for each individual based on the measured value (hereinafter referred to as image plane correction). I have to. However, as the depth of focus increases, the accuracy of measurement for image plane correction cannot be maintained, making it difficult to perform image plane correction.
以上の状況を踏まえ、信頼できる距離マップが取得できる場合とは、AFスキャン実施時の焦点距離や絞りの設定等から、焦点深度の深さや手振れの影響を考慮し、AFばらつきが保証でき、かつ、像面補正が実施できるような場合を対象とする。 Based on the above situation, when a reliable distance map can be acquired, AF variation can be guaranteed by considering the influence of the depth of focus and camera shake from the focal length and aperture setting at the time of AF scanning. The case where image surface correction can be performed is targeted.
S301では、図2のS206におけるAFスキャン実施時の設定条件を予測し、信頼できる距離マップが取得できるシーンであるかどうかを判断し、S302へ進む。例えば、AFスキャン実施時において、撮影レンズ101の光学ズーム設定が予め決められた所定の焦点距離より短いような場合や、絞り102が予め決められた所定値よりも開放である場合(所定の範囲内である場合)は信頼できる距離マップが取得できると判定する。 In S301, the setting conditions at the time of performing the AF scan in S206 in FIG. 2 are predicted, it is determined whether or not the scene can obtain a reliable distance map, and the process proceeds to S302. For example, when an AF scan is performed, when the optical zoom setting of the photographing lens 101 is shorter than a predetermined focal length, or when the aperture 102 is wider than a predetermined value (predetermined range). If it is within, it is determined that a reliable distance map can be acquired.
S302では、SW1をONする直前の角速度センサ部125や被写体検出モジュール123での出力結果を参照してカメラまたは被写体が動いているシーンかどうかを判断する。そして、カメラまたは被写体が動いているシーンであればS309へ進み、動いていないシーンであればS303へ進む。 In S302, it is determined whether or not the camera or the subject is moving by referring to the output results from the angular velocity sensor unit 125 and the subject detection module 123 immediately before turning on SW1. If it is a scene where the camera or the subject is moving, the process proceeds to S309, and if it is not a scene, the process proceeds to S303.
S303では、SW1をONする直前でのAE処理部103の出力結果から、所定以上暗くてストロボ発光の効果があるシーンか否かを判断する。そして、所定以上暗くてストロボ発光の効果があるシーンであると判定された場合はS308へ進み、ストロボ発光の効果があると判定されなかった場合はS304へ進む。 In S303, it is determined from the output result of the AE processing unit 103 immediately before turning on SW1 whether or not the scene is darker than a predetermined value and has a strobe light emission effect. If it is determined that the scene is darker than a predetermined value and has a strobe light emission effect, the process proceeds to S308. If it is not determined that the strobe light emission effect is effective, the process proceeds to S304.
S304では、SW1をONする直前でのAE処理部103における画面内の露出分布を取得し、その結果から、画面内に露出差があるシーンや逆光シーンであると判定された場合はS307へ進む。また、画面内に露出差がなく逆光シーンでもない場合はS305へ進む。 In S304, the exposure distribution in the screen in the AE processing unit 103 immediately before turning on SW1 is acquired. If it is determined from the result that the scene has an exposure difference in the screen or a backlight scene, the process proceeds to S307. . If there is no exposure difference in the screen and the scene is not a backlight scene, the process proceeds to S305.
S305では、S301において、信頼できる距離マップが取得できると判断した場合はS306へ進み、信頼できる距離マップが取得できないと判断した場合はS307へ進む。 In S305, if it is determined in S301 that a reliable distance map can be acquired, the process proceeds to S306, and if it is determined that a reliable distance map cannot be acquired, the process proceeds to S307.
S306では、撮影時の処理としてAFブラケットを行うと決定して本処理を終了する。S307では、撮影時の処理としてAEブラケットを行うと決定して本処理を終了する。S308では、撮影時の処理としてストロボブラケットを行うと決定して本処理を終了する。S309では、撮影時の処理として連写を行うと決定して本処理を終了する。 In S306, it is determined that AF bracketing is performed as a process at the time of shooting, and this process ends. In step S307, it is determined that the AE bracketing is performed as a process at the time of shooting, and this process ends. In step S308, it is determined that strobe bracketing is to be performed as a process at the time of shooting, and this process ends. In step S309, it is determined that continuous shooting is performed as a process at the time of shooting, and this process ends.
<スキャン方法の決定>
図4は、図2におけるS204のAFスキャン方法の決定の処理を説明するフローチャートである。ここでは、ブラケット種別およびAFスキャン時の設定条件に基づいて、距離マップ取得のためのAFスキャンを実施するかどうかを判定する。
<Determination of scanning method>
FIG. 4 is a flowchart for explaining the AF scan method determination process in S204 in FIG. Here, based on the bracket type and the setting conditions at the time of AF scanning, it is determined whether or not to perform AF scanning for distance map acquisition.
S401では図2のS203のブラケット判定において、どのブラケット種別を実施すると判定したかを参照する。そして、AEブラケットおよびストロボブラケットを行うと判定した場合はS402へ進み、AFブラケットを実施すると判定した場合はS404へ進み、連写を行うと判定した場合はS405へ進む。 In S401, it is referred to which bracket type is determined to be implemented in the bracket determination in S203 of FIG. If it is determined that AE bracketing and strobe bracketing are to be performed, the process proceeds to S402. If it is determined to perform AF bracketing, the process proceeds to S404. If it is determined to perform continuous shooting, the process proceeds to S405.
ここで、連写処理を行う場合とは、被写体またはカメラの動きによる影響から各AF枠での合焦精度も悪くなる。そのため、距離マップは取得せずに合焦位置を決めるためだけのAFスキャンを行うものとする。 Here, when performing continuous shooting processing, the focusing accuracy in each AF frame also deteriorates due to the influence of the movement of the subject or the camera. Therefore, it is assumed that AF scanning is performed only for determining the in-focus position without acquiring the distance map.
また、AFブラケット処理を行う場合とは、図3のS301の距離マップ信頼性判定において、信頼できる距離分布が取得できると判定された場合であるため、距離マップを取得するためのAFスキャンを行うものとする。ここでは、AFスキャン時に手振れの影響が大きく、AFスキャンによって得られる距離マップの精度が低いような場合は、距離マップ取得可能ではないと判定する。一般的に、手振れの影響は焦点距離と露光時間の関係によって決まると言われているため、AFスキャン実施時の撮影レンズ101の光学ズーム倍率における焦点距離と露光時間が所定の条件を満たすかどうかによって、距離マップ取得の可否を判定している。 Further, the case where the AF bracket process is performed is a case where it is determined that a reliable distance distribution can be acquired in the distance map reliability determination in S301 of FIG. 3, and therefore, an AF scan for acquiring a distance map is performed. Shall. Here, when the influence of camera shake during AF scanning is large and the accuracy of the distance map obtained by AF scanning is low, it is determined that the distance map cannot be acquired. In general, it is said that the influence of camera shake is determined by the relationship between the focal length and the exposure time. Therefore, whether the focal length and the exposure time at the optical zoom magnification of the photographing lens 101 at the time of AF scanning satisfy a predetermined condition. Thus, whether or not the distance map can be acquired is determined.
S402では、AFスキャン実施時の設定条件に基づいて、正しい距離マップを取得可能なAFの設定条件を満たすかどうかを判定し、S403へ進む。S403ではS402での距離マップ取得可能かの判定において、距離マップを取得可能であると判定した場合は、S404へ進み、取得可能ではないと判定した場合はS405へ進む。S404では、距離マップ取得用のAFスキャンを実施すると決定して、本処理を終了する。 In S402, based on the setting conditions at the time of performing the AF scan, it is determined whether or not the AF setting conditions capable of acquiring a correct distance map are satisfied, and the process proceeds to S403. In S403, when it is determined in S402 that the distance map can be acquired, if it is determined that the distance map can be acquired, the process proceeds to S404, and if it is determined that the distance map cannot be acquired, the process proceeds to S405. In S404, it is determined that an AF scan for obtaining a distance map is to be executed, and this process is terminated.
S405では、合焦位置を決定するための通常のAFスキャンを実施すると決定して、本処理を終了する。 In S405, it is determined that a normal AF scan for determining the in-focus position is to be performed, and the present process is terminated.
<AFスキャン>
図5は図2におけるS206のAF処理を説明するフローチャートである。ここでは、図2のS204のAFスキャン方式の決定処理において距離マップ取得スキャンを実施すると判定した際には、距離マップの取得と撮影時の合焦位置の決定のためのスキャンを行う。また、距離マップ取得スキャンを実施しないと判定した際には、撮影時の合焦位置を決定するためのAFスキャンを行う。
<AF scan>
FIG. 5 is a flowchart for explaining the AF process of S206 in FIG. Here, when it is determined that the distance map acquisition scan is performed in the AF scan method determination process of S204 in FIG. 2, a scan for acquiring the distance map and determining the in-focus position at the time of photographing is performed. When it is determined that the distance map acquisition scan is not performed, an AF scan for determining a focus position at the time of shooting is performed.
S501では図2のS204のAFスキャン方式の決定処理において距離マップ取得スキャンを実施すると判定したかを調べ、距離マップを取得するためのスキャンを行うと判定した際はS502へ進み、判定しなかった際はS508へ進む。 In S501, it is checked whether the distance map acquisition scan is determined to be performed in the AF scan method determination process in S204 of FIG. 2, and when it is determined that the scan for acquiring the distance map is performed, the process proceeds to S502 and is not determined. In this case, the process proceeds to S508.
S502では画面内にN×M個のAF枠(焦点検出領域)を設定する。例えば、N=7、M=9とした場合、図6(a)のようなAF枠設定となる。またはAF枠の設定範囲は画面内の被写体検出モジュール123による被写体の検出位置を考慮して設定してもよい。 In S502, N × M AF frames (focus detection areas) are set in the screen. For example, when N = 7 and M = 9, the AF frame setting is as shown in FIG. Alternatively, the AF frame setting range may be set in consideration of the subject detection position by the subject detection module 123 in the screen.
S503では、フォーカスレンズ104をスキャン開始位置へと移動させ、距離マップ取得のためにS502で設定した全てのAF枠でのピーク位置が見つかるまでAFスキャンを行う。ここでスキャン開始位置とは、たとえば無限遠などのAFスキャン可能な範囲の遠端の位置とする。 In S503, the focus lens 104 is moved to the scan start position, and AF scanning is performed until the peak positions in all AF frames set in S502 are found for obtaining the distance map. Here, the scan start position is, for example, the position at the far end of the AF scanable range such as infinity.
S504では、S503のAFスキャンの結果得られた各AF枠のピーク位置に基づき合焦位置を決定する。 In S504, an in-focus position is determined based on the peak position of each AF frame obtained as a result of the AF scan in S503.
S505では、図3のS301における距離マップの信頼性判定の結果を参照し、信頼できる距離マップが取得できる場合はS506へ進み、信頼できる距離マップが取得できない場合はS507へ進む。 In S505, the result of the reliability determination of the distance map in S301 in FIG. 3 is referred to, and if a reliable distance map can be acquired, the process proceeds to S506, and if a reliable distance map cannot be acquired, the process proceeds to S507.
S506では、像面湾曲やレンズ/撮像素子の傾きによってピーク位置の分布に誤差を持つ場合へ対応するための像面補正を行い、S511へ進む。ここでは、予め取得した像高ごとの誤差量を基に各AF枠のピーク位置を補正して距離マップを取得する。 In S506, image plane correction is performed to cope with a case where there is an error in the distribution of peak positions due to curvature of field or inclination of the lens / image sensor, and the process proceeds to S511. Here, the distance map is acquired by correcting the peak position of each AF frame based on the error amount for each image height acquired in advance.
S507では、距離マップの信頼性がないと判定されたことから、像面湾曲や倒れに対する像面補正の実施ができないシーンと判定し、各AF枠のピーク位置の補正は行わずに距離マップを取得し、S511へ進む。 In S507, since it is determined that the distance map is not reliable, it is determined that the scene cannot be subjected to image plane correction for field curvature or tilting, and the distance map is not corrected without correcting the peak position of each AF frame. Acquire and proceed to S511.
図6(a)は、前方の花と背景の山を被写体とする場合を示しており、図6(b)は、前方の花と背景の山を撮影した際の距離マップを示している。前方の花はピーク位置が199〜202の範囲に分布しており、背景の山はピーク位置が100〜103の範囲に分布している。ピーク位置が近しい近接する枠同士でグルーピングを行うことで、図6(b)に示すように、撮像画像内をフォーカスエリア1(細かい点線で囲まれた領域)、2(粗い点線で囲まれた領域)、3(実線で囲まれた領域)の3つのエリアに分割することができる。ここで、フォーカスエリア1と2はピーク位置が近しいため、同じエリアとして統合することによって、フォーカスエリア1、2による背景のグループと、フォーカスエリア3による前方被写体グループに画面内を分割することができる。さらに、画像処理部110において色によって画面内を分割した結果と、距離による分割結果を合わせてグルーピングの精度を高めてもよい。 FIG. 6A shows a case where the subject is a front flower and a background mountain, and FIG. 6B shows a distance map when the front flower and the background mountain are photographed. The front flowers have peak positions distributed in the range of 199 to 202, and the background mountains have peak positions distributed in the range of 100 to 103. By grouping adjacent frames with close peak positions, as shown in FIG. 6B, the captured image is surrounded by a focus area 1 (region surrounded by fine dotted lines) and 2 (coarse dotted lines). The area can be divided into three areas (area) and 3 (area surrounded by a solid line). Here, since the focus areas 1 and 2 have close peak positions, they can be divided into a background group by the focus areas 1 and 2 and a front subject group by the focus area 3 by integrating them as the same area. . Furthermore, the accuracy of grouping may be improved by combining the result of dividing the screen by color in the image processing unit 110 and the result of division by distance.
以上のようにしてS506またはS507によって得られた距離マップによって画面内を複数のグループに分割する。 The screen is divided into a plurality of groups based on the distance map obtained in S506 or S507 as described above.
S508では、被写体検出モジュール123により被写体を検出した場合は被写体位置へAF枠を設定し、被写体未検出時は多枠のAF枠を設定し、S509へ進む。 In S508, when the subject is detected by the subject detection module 123, an AF frame is set at the subject position, and when no subject is detected, a multi-frame AF frame is set, and the process proceeds to S509.
S509では、合焦位置を決定するためのAFスキャンを行う。ここで、被写体検出時は被写体検出位置に設定したAF枠でピーク位置が見つかるまでスキャンを行い、被写体未検出時は多枠のAF枠の中からピーク位置が近しいAF枠の固まりが得られるまでスキャンを行う。 In step S509, an AF scan for determining the in-focus position is performed. Here, when the subject is detected, scanning is performed until the peak position is found in the AF frame set as the subject detection position, and when the subject is not detected, the AF frame close to the peak position is obtained from the multi-frame AF frame. Perform a scan.
S510では、S509でスキャンした結果得られた各AF枠でのピーク位置から合焦位置を決定する。 In S510, the in-focus position is determined from the peak position in each AF frame obtained as a result of scanning in S509.
S511では、S504またはS510において合焦位置が決められた場合は合焦位置へフォーカスレンズを駆動し、合焦位置が決められずに非合焦の場合は予め決められた定点と呼ばれる被写体存在確率の高い位置へフォーカスレンズを駆動する。 In S511, if the in-focus position is determined in S504 or S510, the focus lens is driven to the in-focus position. If the in-focus position is not determined and the in-focus state is not determined, a subject existence probability called a predetermined fixed point is determined. The focus lens is driven to a higher position.
S512では操作表示部117に合焦枠/非合焦枠を表示する。合焦時は合焦位置と深度内にあるAF枠を合焦枠として表示し、非合焦時は中央など予め決められた位置に非合焦枠を表示し、本処理を終了する。 In step S512, the focus / non-focus frame is displayed on the operation display unit 117. At the time of in-focus, the AF frame within the in-focus position and depth is displayed as the in-focus frame, and at the time of out-of-focus, the non-in-focus frame is displayed at a predetermined position such as the center, and this processing is terminated.
<撮影処理>
図7は、図2のS210における撮影画像に対する画像処理の動作を説明するフローチャートである。ここでは、図2のS203、S207におけるブラケット判定の結果および図2のS205の本露光用のAE処理の結果、S206の本露光用のAF処理によって得られたAE結果や距離マップに応じて適切な画像処理を実施する。
<Shooting process>
FIG. 7 is a flowchart for explaining the image processing operation for the captured image in S210 of FIG. Here, the result of the bracket determination in S203 and S207 in FIG. 2, the result of the AE process for main exposure in S205 in FIG. 2, and the AE result and distance map obtained by the AF process for main exposure in S206 are appropriate. Perform appropriate image processing.
S701では、図2のS206の本露光用のAF処理において距離マップを取得したかどうかを調べ、距離マップを取得した場合はS702へ進み、取得しなかった場合はS706へ進む。 In S701, it is checked whether or not a distance map has been acquired in the AF processing for main exposure in S206 of FIG. 2. If the distance map is acquired, the process proceeds to S702, and if not, the process proceeds to S706.
S702では、図2のS203、S207のブラケット判定の結果、撮影時にどのブラケット種別を実施するように判定されたかを調べ、AFブラケットを行う場合はS703へ進み、AEブラケットおよびストロボブラケットを行う場合はS704へ進む。 In S702, as a result of the bracket determination in S203 and S207 in FIG. 2, it is determined which bracket type is determined to be performed at the time of shooting. If AF bracketing is performed, the process proceeds to S703, and if AE bracketing and strobe bracketing are performed. The process proceeds to S704.
S703では、フォーカスブラケット撮影(フォーカスブラケット処理)を行った各撮影画像に対して、距離マップによるグルーピング結果や画面内の色の分布に基づいて画面内の主被写体領域を特定し、主要被写体領域以外に距離分布に応じたぼかし処理を施した画像を作成する。ここで、図3のS301における距離マップの信頼性判定において、距離マップが信頼できるシーンと判定した場合のみAFブラケット処理を行うように判定していることから、信頼できる距離マップを取得することができ、高度なぼかし処理を精度よく行うことができている。 In step S703, the main subject region in the screen is specified based on the grouping result based on the distance map and the color distribution in the screen for each captured image that has been subjected to focus bracket shooting (focus bracket processing), and other than the main subject region. An image with a blurring process according to the distance distribution is created. Here, in the reliability determination of the distance map in S301 of FIG. 3, since it is determined to perform the AF bracket process only when the distance map is determined to be a reliable scene, a reliable distance map can be acquired. It is possible to perform advanced blur processing with high accuracy.
S704では、距離マップの分布に応じて予め決められた所定のサイズの領域を残した簡易的なぼかし処理を行い、S705へ進む。ここで、簡易的なぼかし処理とは、例えば、距離マップにより遠景シーンであることが判定できた場合に、画面中心付近の所定サイズの領域以外にぼかし処理を施すことで、ジオラマ風の効果を得ることができる。ここでは、被写体領域を厳密に判断するわけではないため、高い信頼性の距離マップは必ずしも必要とはしない。 In S704, a simple blurring process is performed in which an area of a predetermined size determined in advance according to the distribution of the distance map is left, and the process proceeds to S705. Here, simple blurring processing, for example, when it is determined that the scene is a distant scene based on a distance map, blurring processing is performed on an area other than a predetermined size near the center of the screen, so that a diorama effect can be obtained. Can be obtained. Here, since the subject area is not strictly determined, a highly reliable distance map is not necessarily required.
S705では、被写体の検出領域や距離マップや色の分布による領域分割結果に基づいて画面内の一部を切りだす処理を施した画像を作成し、S707へ進む。 In step S <b> 705, an image is generated on which processing for cutting out a part of the screen is performed based on the subject detection area, the distance map, and the region division result based on the color distribution, and the process advances to step S <b> 707.
S706では、被写体の検出結果や画面内での合焦位置に応じて、画面内の一部を切り出す処理を施した画像を生成し、S707へ進む。 In S <b> 706, an image subjected to a process of cutting out a part of the screen according to the detection result of the subject and the in-focus position in the screen is generated, and the process proceeds to S <b> 707.
S707では、被写体の検出結果や画面内の色分布、露出分布に応じて画面内に所定の色フィルターをかける処理を施し、本処理を終了する。 In step S707, a process for applying a predetermined color filter to the screen according to the detection result of the subject, the color distribution in the screen, and the exposure distribution is performed, and the process ends.
以上説明したように、AFスキャン時の設定条件に基づいて、距離マップが精度よく取得できるシーンであるかを判定することによって、距離マップを使った画像処理を適切に行うことが可能となる。 As described above, it is possible to appropriately perform image processing using the distance map by determining whether or not the distance map is a scene that can be accurately acquired based on the setting conditions during AF scanning.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (11)
焦点距離及び露光条件に基づいて、撮像画像内における合焦状態の分布を取得するか否かを判定する分布取得判定手段と、
前記分布取得判定手段により前記撮像画像内における合焦状態の分布を取得すると判定された場合に、フォーカスレンズを移動させながら、複数の焦点検出領域における合焦状態を検出して前記撮像画像内における合焦状態の分布を取得し前記分布に基づいて撮像画像内を複数の領域に分割し、前記フォーカスレンズの焦点調節を行い、前記分布取得判定手段により前記撮像画像内における合焦状態の分布を取得しないと判定された場合に、前記フォーカスレンズを移動させながら、予め設定された焦点検出領域における合焦状態を検出して、前記フォーカスレンズの焦点調節を行う焦点調節手段と、を備えることを特徴とする撮像装置。 Bracket determination means for determining which bracket shooting is to be performed among a plurality of bracket shootings including at least one of continuous shooting, AF bracket shooting, AE bracket shooting, and strobe bracket shooting according to a scene ;
Distribution acquisition determination means for determining whether or not to acquire a distribution of in-focus state in the captured image based on the focal length and the exposure condition;
When it is determined by the distribution acquisition determination means to acquire the distribution of the in-focus state in the captured image, the in-focus state in the plurality of focus detection areas is detected while moving the focus lens, and the in-captured image is detected. A distribution of in-focus states is acquired, the captured image is divided into a plurality of regions based on the distribution, the focus of the focus lens is adjusted, and the distribution of in-focus states in the captured image is determined by the distribution acquisition determining unit. A focus adjusting unit that detects the in-focus state in a preset focus detection area while moving the focus lens and determines the focus of the focus lens when it is determined that the focus lens is not acquired. An imaging device that is characterized.
撮像画像内を複数の領域に分割した結果を用いて、前記第1の処理とは異なる第2の処理を行う第2の処理手段とを更に備え、
前記AFブラケット撮影を行う際は前記第1の処理と前記第2の処理を行い、前記AFブラケット撮影を行わない場合は前記第2の処理を行うことを特徴とする請求項3に記載の撮像装置。 First processing means for performing a first process on a captured image using a result obtained by dividing the captured image into a plurality of regions;
A second processing means for performing a second process different from the first process using a result obtained by dividing the captured image into a plurality of areas;
4. The imaging according to claim 3 , wherein the first processing and the second processing are performed when the AF bracket photographing is performed, and the second processing is performed when the AF bracket photographing is not performed. apparatus.
焦点距離及び露光条件に基づいて、撮像画像内における合焦状態の分布を取得するか否かを判定する分布取得判定工程と、
前記分布取得判定工程により前記撮像画像内における合焦状態の分布を取得すると判定された場合に、フォーカスレンズを移動させながら、複数の焦点検出領域における合焦状態を検出して前記撮像画像内における合焦状態の分布を取得し前記分布に基づいて撮像画像内を複数の領域に分割し、前記フォーカスレンズの焦点調節を行い、前記分布取得判定工程により前記撮像画像内における合焦状態の分布を取得しないと判定された場合に、前記フォーカスレンズを移動させながら、予め設定された焦点検出領域における合焦状態を検出して、前記フォーカスレンズの焦点調節を行う焦点調節工程と、を備えることを特徴とする撮像方法。 A bracket determination step for determining which bracket shooting is to be performed among a plurality of bracket shootings including at least one of continuous shooting, AF bracket shooting, AE bracket shooting, and strobe bracket shooting according to the scene ;
A distribution acquisition determination step of determining whether or not to acquire a distribution of in-focus state in the captured image based on the focal length and the exposure condition;
When it is determined in the distribution acquisition determination step that the distribution of the in-focus state in the captured image is acquired, the in-focus state in the plurality of focus detection areas is detected while moving the focus lens, and the in-captured image is detected. Obtain a distribution of in-focus states, divide the captured image into a plurality of regions based on the distribution, perform focus adjustment of the focus lens, and determine the distribution of in-focus states in the captured image by the distribution acquisition determination step. A focus adjustment step of adjusting the focus of the focus lens by detecting a focus state in a preset focus detection region while moving the focus lens when it is determined that the focus lens is not acquired. A characteristic imaging method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013263024A JP6351255B2 (en) | 2013-12-19 | 2013-12-19 | Imaging apparatus, imaging method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013263024A JP6351255B2 (en) | 2013-12-19 | 2013-12-19 | Imaging apparatus, imaging method, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015118338A JP2015118338A (en) | 2015-06-25 |
JP6351255B2 true JP6351255B2 (en) | 2018-07-04 |
Family
ID=53531071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013263024A Active JP6351255B2 (en) | 2013-12-19 | 2013-12-19 | Imaging apparatus, imaging method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6351255B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017142356A (en) | 2016-02-10 | 2017-08-17 | ソニー株式会社 | Image pickup apparatus, and control method for the same |
JP6598028B2 (en) * | 2016-02-22 | 2019-10-30 | パナソニックIpマネジメント株式会社 | Imaging device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1954031A4 (en) * | 2005-10-28 | 2010-09-29 | Nikon Corp | Imaging device, image processing device, and program |
JP4867554B2 (en) * | 2006-09-29 | 2012-02-01 | カシオ計算機株式会社 | Electronic camera, imaging control program, and imaging control method |
JP4582423B2 (en) * | 2007-04-20 | 2010-11-17 | 富士フイルム株式会社 | Imaging apparatus, image processing apparatus, imaging method, and image processing method |
JP5108696B2 (en) * | 2008-09-17 | 2012-12-26 | 株式会社リコー | Imaging device |
JP5339954B2 (en) * | 2009-02-17 | 2013-11-13 | キヤノン株式会社 | Focus adjustment device and focus adjustment method |
JP5316070B2 (en) * | 2009-02-23 | 2013-10-16 | 株式会社ニコン | Imaging device |
JP5521786B2 (en) * | 2010-05-31 | 2014-06-18 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP5783445B2 (en) * | 2011-03-18 | 2015-09-24 | 株式会社ニコン | Imaging device |
-
2013
- 2013-12-19 JP JP2013263024A patent/JP6351255B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015118338A (en) | 2015-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9451150B2 (en) | Image capturing apparatus comprising focus detection, and method for controlling the same | |
US10511781B2 (en) | Image pickup apparatus, control method for image pickup apparatus | |
JP6518452B2 (en) | Imaging apparatus and imaging method | |
JP5213813B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2007225763A (en) | Imaging apparatus, imaging method, and program | |
JP5543180B2 (en) | Imaging apparatus, control method thereof, and program | |
RU2599628C2 (en) | Image capturing device | |
JP2006215181A (en) | Imaging apparatus | |
JP2017173480A (en) | Focus controller, imaging apparatus, and focus control method | |
JP6351255B2 (en) | Imaging apparatus, imaging method, program, and storage medium | |
US11190704B2 (en) | Imaging apparatus and control method for performing live view display of a tracked object | |
JP6652303B2 (en) | Flash band determination device, control method thereof, control program, and imaging device | |
JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
JP5371474B2 (en) | Imaging apparatus, control method, and program | |
JP2009017427A (en) | Imaging device | |
JP2007133265A (en) | Imaging apparatus and imaging method | |
JP4925168B2 (en) | Imaging method and apparatus | |
JP2007129310A (en) | Imaging apparatus | |
JP5341655B2 (en) | Imaging apparatus and control method thereof | |
JP6294607B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2007025559A (en) | Focusing position detecting method and device | |
JP6257186B2 (en) | Imaging apparatus, imaging method, and program | |
JP6659163B2 (en) | Flash band determination device, control method thereof, and program | |
JP6645690B2 (en) | Automatic focus adjustment device, imaging device, and automatic focus adjustment method | |
JP6525710B2 (en) | Imaging device, control method therefor, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180605 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6351255 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |