JP2018037857A5 - Image processing apparatus, image processing method, computer program, and storage medium - Google Patents
Image processing apparatus, image processing method, computer program, and storage medium Download PDFInfo
- Publication number
- JP2018037857A5 JP2018037857A5 JP2016169614A JP2016169614A JP2018037857A5 JP 2018037857 A5 JP2018037857 A5 JP 2018037857A5 JP 2016169614 A JP2016169614 A JP 2016169614A JP 2016169614 A JP2016169614 A JP 2016169614A JP 2018037857 A5 JP2018037857 A5 JP 2018037857A5
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- image processing
- contrast
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004590 computer program Methods 0.000 title claims description 4
- 238000003860 storage Methods 0.000 title claims description 3
- 238000003672 processing method Methods 0.000 title claims 2
- 239000000203 mixture Substances 0.000 claims description 27
- 230000000875 corresponding Effects 0.000 claims description 18
- 230000003287 optical Effects 0.000 claims description 12
- 230000002194 synthesizing Effects 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims 3
- 239000002131 composite material Substances 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Description
小さなものを撮像する場合、撮像条件によっては、被写体深度が浅くなってしまうため、被写体全体に合焦させることが難しい場合がある。そのため、被写体の一部がボケた画像しか得られず、撮像者が満足する画像にならないケースがあった。あるいは、家族や仲間と写真を撮像しようとする場合に、全員が被写界深度内に入らなければ、全員に合焦させた状態の画像を得ることができなかった。そのため、全員に合焦させた画像を撮像しようとすると、必然的に人物の配置の自由度に制限が生じてしまっていた。 When imaging what small, depending on imaging conditions, since the depth of field becomes shallow, it may be difficult to focus on the entire object. For this reason, only a blurred image of a part of the subject can be obtained, and there are cases where the image is not satisfactory for the photographer. Alternatively, when taking a picture with a family member or a friend, if all the members do not fall within the depth of field, an image in a state where all the members are in focus cannot be obtained. For this reason, when trying to capture an image focused on everyone, the degree of freedom of arrangement of the person inevitably has been limited.
本発明は、光学系の合焦位置を変えながら撮像した複数の画像の各々の部分領域についてコントラスト値を算出するコントラスト値の算出手段と、前記複数の画像の前記部分領域ごとの前記コントラスト値と、前記複数の画像を撮像した際の前記合焦位置に基づいて設定される合成比率で前記複数の画像を合成する合成手段と、を有することを特徴とする画像処理装置を提供する。 The present invention provides a contrast value calculating means for calculating a contrast value for each partial region of a plurality of images captured while changing the focus position of the optical system, and the contrast value for each partial region of the plurality of images. There is provided an image processing apparatus comprising: a combining unit configured to combine the plurality of images at a combining ratio set based on the in-focus position when the plurality of images are captured.
制御部101は、例えばCPUやMPUなどのシグナルプロセッサなどのコンピュータであり、予め後述するROM105に内蔵されたコンピュータプログラムを読み出しながら、デジタルカメラ100の各部分を制御する。たとえば、後述するように、制御部101が、後述する撮像部104に対して撮像の開始と終了について指令を出す。または、後述する画像処理部107に対して、ROM105に内蔵されたプログラムに基づいて、画像処理の指令を出す。ユーザによる指令は、後述する操作部110によってデジタルカメラ100に入力され、制御部101を通して、デジタルカメラ100の各部分に達する。 The control unit 101 is a computer such as a signal processor such as a CPU or MPU, and controls each part of the digital camera 100 while reading a computer program built in the ROM 105 described later in advance. For example, as will be described later, the control unit 101 instructs the imaging unit 104 described later to start and end imaging. Alternatively, an image processing command is issued to an image processing unit 107 described later based on a program built in the ROM 105. A user command is input to the digital camera 100 by an operation unit 110 described later, and reaches each part of the digital camera 100 through the control unit 101.
ROM105は、コンピュータが読み取り可能なコンピュータプログラムを記憶した記録媒体としての読み出し専用の不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶している。RAM106は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。 The ROM 105 is a read-only non-volatile memory as a recording medium that stores a computer program that can be read by a computer, and stores parameters necessary for the operation of each block in addition to the operation program of each block provided in the digital camera 100. doing. The RAM 106 is a rewritable volatile memory, and is used as a temporary storage area for data output in the operation of each block included in the digital camera 100.
内蔵メモリ109は、撮像部104が撮像した画像や画像処理部107の処理を得た画像、および、画像撮像時の光学系の合焦位置の情報などを記録する場所である。内蔵メモリの代わりに、メモリカードなどを用いてもよい。 The built-in memory 109 is a place for recording an image captured by the image capturing unit 104, an image obtained by the processing of the image processing unit 107, information on a focus position of the optical system at the time of image capturing, and the like. A memory card or the like may be used instead of the built-in memory.
ステップS201で、デジタルカメラ100は、ユーザからの撮像指示に応じて、合焦位置を所定量ずつ自動的に変えながら、複数の画像を撮像する。撮像部104が光学系103を介して被写体を撮像し、制御部101が撮像した画像を内蔵メモリ109に保存するとともに、それぞれの画像を撮像したときの光学系103の合焦位置の情報を取得し、例えばメタデータとして各画像ファイル内に含ませた状態で内蔵メモリ109に保存する。あるいは各画像ファイルとは別のファイルに上記の合焦位置情報を記憶してもよい。その場合には、それぞれの合焦位置情報がどの画像ファイルに対応しているかを示す情報も一緒に記憶される。なお、ユーザが手動でフォーカスリングを回すことで、合焦位置を変えながら複数回撮像するようにしてもよい。なお、本実施形態では、駆動部102が光学系103に設けるレンズを駆動させることで合焦位置を変えるが、これに限らず、たとえば、複数のデジタルカメラを用いて、それぞれのデジタルカメラを異なる位置で合焦させた状態で撮像するようにしてもよい。ただし、この場合、複数のデジタルカメラで得られた画像間の視差が大きくならないように、それぞれのデジタルカメラの光軸を近づけるように工夫する必要がある。 In step S201, the digital camera 100 captures a plurality of images while automatically changing the in-focus position by a predetermined amount in accordance with an imaging instruction from the user. The imaging unit 104 captures an image of the subject via the optical system 103, saves the image captured by the control unit 101 in the built-in memory 109, and acquires information on the in-focus position of the optical system 103 when each image is captured. For example , the image data is stored in the built-in memory 109 in a state of being included in each image file as metadata . Or you may memorize | store said focusing position information in a file different from each image file. In that case, information indicating which image file corresponds to each in-focus position information is also stored together. It should be noted that the user may manually turn the focus ring so that images are taken a plurality of times while changing the focus position. In this embodiment, the driving unit 102 changes the in-focus position by driving a lens provided in the optical system 103. However, the present invention is not limited to this, and for example, a plurality of digital cameras are used, and each digital camera is different. You may make it image-capture in the state focused on the position. However, in this case, it is necessary to devise so that the optical axes of the respective digital cameras are close to each other so that the parallax between images obtained by a plurality of digital cameras does not increase.
ステップS204で、画像処理部107は、撮像した複数の画像に対して、コントラスト値の算出を行う。コントラスト値の算出の方法の一例としては、部分領域としての画素の出力にエッジ検出用のフィルタをかけ、その結果をコントラスト値とする。このエッジ検出用のフィルタとしては、たとえば、バンドパスフィルタ、ソーベルフィルタ、およびラプラシアンフィルタなどが用いられる。 In step S204, the image processing unit 107 calculates a contrast value for a plurality of captured images. As an example of the method for calculating the contrast value, an edge detection filter is applied to the output of the pixel as the partial region , and the result is used as the contrast value. As the edge detection filter, for example, a band pass filter, a Sobel filter, a Laplacian filter, or the like is used.
図3(b)は画像の並び順と、各画像を撮像したときの光学系103の合焦位置を示す。図3(c)〜(e)は図3(a)の領域303を拡大したものであり、それぞれ部分301に合焦した場合、部分303に合焦した場合、両者を合成した場合を示す図である。図4(a)は、部分304に含まれるいずれか1つの画素のコントラスト値を示す図であって、並び順1番から8番までの画像に含まれる対応する画素を、それぞれ画素411から418として示す。この図4(a)では、デジタルカメラ100が図3(b)の並び順が2番である合焦位置312に合焦させて撮像した画像において、部分304に含まれる画素412のコントラスト値が最も高くなることを示す。そのため、画像処理部107は、部分304の位置においては、並び順2番の画像に含まれる画素412の合成比率を100%とする。同時に、画像処理部107は並び順1番の画素411、および3番乃至8番の画像の対応する画素413〜418の合成比率を0%とする。画像処理部107は、このような合成比率の設定を、各画像のそれぞれ対応する画素に対して行う。なお、隣接画素間で合成比率が0%から100%に急に変化(あるいは100%から0%に変化)すると、合成境界での不自然さが目立つようになる。そのため、画像処理部107は合成マップに対して所定の画素数(タップ数)を持つフィルタをかけて、隣接画素間で合成比率が段階的に変化するようにする。 3 (b) shows the arrangement order of the image, the focus position of the optical system 103 when the captured each image. FIGS. 3C to 3E are enlarged views of the area 303 in FIG. 3A, and each shows a case where the portion 301 is focused, the portion 303 is focused, and the both are combined. It is. FIG. 4A is a diagram showing the contrast value of any one pixel included in the portion 304. The corresponding pixels included in the images in the first to eighth order are indicated by the pixels 411 to 418, respectively. As shown. In FIG. 4A , the contrast value of the pixel 412 included in the portion 304 in the image captured by the digital camera 100 in focus at the in-focus position 312 in FIG. Indicates that it will be the highest. Therefore, the image processing unit 107 sets the composition ratio of the pixels 412 included in the second image in the arrangement order to 100% at the position of the portion 304. At the same time, the image processing unit 107 sets the combination ratio of the first pixel 411 in the arrangement order and the corresponding pixels 413 to 418 of the third to eighth images to 0%. The image processing unit 107 performs such a composition ratio setting for each corresponding pixel of each image. Note that if the composition ratio suddenly changes from 0% to 100% (or changes from 100% to 0%) between adjacent pixels, unnaturalness at the composition boundary becomes conspicuous. Therefore, the image processing unit 107 applies a filter having a predetermined number of pixels (number of taps) to the composite map so that the composite ratio changes stepwise between adjacent pixels.
さらにステップS206で、制御部101は、合成比率の調整を行う画素の判断を行う。図5は、合成比率の調整処理を説明するためのフローチャートである。まず、ステップS501で、図4(a)〜(c)に示したように、制御部101は、画像の並び順と、各々の画像の対応する画素のコントラスト値との関係から、極大値(黒丸)を検出する。図4(a)の場合、並び順2番の画像の対応する画素におけるコントラスト値が極大値となる。図4(b)の場合、並び順2番と7番との画像の対応する画素におけるコントラスト値が極大値となる。図4(c)の場合、並び順2番、4番、7番の画像の対応する画素におけるコントラスト値が極大値となる。 Further, in step S206, the control unit 101 determines a pixel for which the synthesis ratio is adjusted. FIG. 5 is a flowchart for explaining the synthesis ratio adjustment processing. First, in step S501, as shown in FIG. 4 (a) ~ (c) , the control unit 101, the order of images, from the relationship between the contrast value of the corresponding pixel of each image, the maximum value ( ) Is detected. In the case of FIG. 4A, the contrast value in the corresponding pixel of the image in the second order is the maximum value. In the case of FIG. 4B, the contrast value in the corresponding pixel of the images in the second and seventh order is the maximum value. In the case of FIG. 4C, the contrast values in the corresponding pixels of the second, fourth, and seventh images in the arrangement order are maximum values.
以上の処理の理由を、図3を用いて簡単に説明する。たとえば、図3(a)のように、被写体301と被写体302とが存在し、図3(c)は被写体301に合焦するときに撮像した画像を示し、図3(d)は被写体302に合焦するときに撮像した画像を示す。ただし、図3(c)の被写体321と図3(d)の被写体331は被写体301の一部(頭部)とし、被写体301に合焦すると被写体321にも合焦すると仮定する。同様に、図3(c)の被写体322と図3(d)の被写体322とは被写体302の一部とし、被写体302に合焦すると被写体322にも合焦すると仮定する。被写体301に合焦するとき、被写体321に相当する領域のコントラスト値が高くなり、被写体302に合焦するとき、被写体322に相当する領域のコントラスト値が高くなる。被写体301と被写体302とが重なる領域323の画素のコントラスト値は、合焦位置を図3(b)の合焦位置311から318に変化させるとき、合焦位置312と317との2つの位置で極大値になる。合焦位置に基づく並び順とコントラスト値との関係をグラフにすると、2つの極大値を持つ。一方、1つの被写体しか存在していない領域324の画素では、2つ以上の極大値が存在することがない。したがって、上述した処理では、極大値が2つ以上存在する場合に、制御部201は、合成比率の調整の必要がある画素と判断する。 The reason for the above processing will be briefly described with reference to FIG. For example, as shown in FIG. 3A, a subject 301 and a subject 302 exist, FIG. 3C shows an image captured when focusing on the subject 301, and FIG. An image taken when focusing is shown. However, it is assumed that the subject 321 in FIG. 3C and the subject 331 in FIG. 3D are a part (head) of the subject 301, and when the subject 301 is focused, the subject 321 is also focused. Similarly, it is assumed that the subject 322 in FIG. 3C and the subject 322 in FIG. 3D are a part of the subject 302 and that when the subject 302 is focused, the subject 322 is also focused. When focusing on the subject 301, the contrast value of the region corresponding to the subject 321 increases, and when focusing on the subject 302, the contrast value of the region corresponding to the subject 322 increases. Contrast value of the pixels of the subject 301 and the subject 302 and the overlap region 323, when changing the focus position from the focus position 311 in FIG. 3 (b) 318, at two positions of the focus position 312 and 317 Maximum value. When the relationship between the arrangement order based on the focus position and the contrast value is graphed, it has two local maximum values. On the other hand, in the pixel of the region 324 where only one subject exists, two or more local maximum values do not exist. Therefore, in the above-described processing, when there are two or more maximum values, the control unit 201 determines that the pixel needs to be adjusted in the synthesis ratio.
ステップS207で、画像処理部107は、合成マップの補正を行う。ここでは、ステップS206で、制御部101が判断した合成比率の調整の必要があると判断された画素の合成比率の変更を行う。具体的に、画像処理部107は、ステップS206で合成比率の調整の必要があると判断した画素に対して、極大値を有する最も至近側の画像の画素の合成比率を上げる。たとえば、図4(b)のような場合には、並び順の2番の画素の合成比率を100%にする。かくして、図3(e)のように、被写体321の合成比率を100%にし、後方にある被写体322を完全に隠すことができる。または、被写体321の合成比率を上げるが、縁部の画素の合成比率を100%までとせずにやや抑え気味にすることで、合成後の画像をボケ味のある画像にすることができる。 In step S207, the image processing unit 107 corrects the composite map. Here, in step S206, the composition ratio of the pixel determined to be necessary to adjust the composition ratio determined by the control unit 101 is changed. Specifically, the image processing unit 107 increases the combination ratio of the pixels of the closest image having the maximum value with respect to the pixels determined to need adjustment of the combination ratio in step S206. For example, in the case of FIG. 4B, the composition ratio of the second pixel in the arrangement order is set to 100%. Thus, as shown in FIG. 3E, the composition ratio of the subject 321 can be set to 100%, and the subject 322 behind can be completely hidden. Alternatively, although the composition ratio of the subject 321 is increased, the composition ratio of the pixels at the edge portion is not limited to 100% and is slightly suppressed, so that the image after composition can be made a blurred image.
ステップS207での処理が終わると、ステップS208で制御部101は、すべての画素に対する合成マップの補正処理が終了したかどうかについて判断する。終了していなければ、画像処理部107には、次の画素を内蔵メモリ109から入力し、ステップS206からの処理を行う。終了していれば、ステップS210に入り、合成マップに基づいて、画像の合成を行う。また、ここでも、前述するステップS205と同様に、必要に応じ、画像処理部107はステップS207で補正済みの合成マップに対して所定の画素数を持つフィルタをかけて、隣接画素間で合成比率が段階的に変化するようにする。 When the processing in step S207 is completed, in step S208, the control unit 101 determines whether or not the composite map correction processing for all the pixels has been completed. If not completed, the image processing unit 107 receives the next pixel from the internal memory 109, the processing from step S206. If completed, the process enters step S210, and the images are combined based on the combination map. Also in this case, similarly to step S205 described above, the image processing unit 107 applies a filter having a predetermined number of pixels to the composite map corrected in step S207 as necessary, and combines the adjacent pixels with a composite ratio. To gradually change.
第1の実施形態によれば、合焦位置を変えて撮像した複数の画像を用いて合成するとき、合成時に位置が重なる画素の複数の画像間での合成比率を調整することで、被写体の前後の位置関係を正しく反映する合成画像を生成することができる。なお、ここでは画素ごとにコントラスト値および合成比率を求める構成を例に挙げて説明したが、処理負荷を軽減するため、複数の画素からなるブロックごとにコントラスト値および合成比率を求めても構わない。すなわち、画像に含まれる複数の部分領域ごとに、コントラスト値と合成比率を求める構成であれば、その領域の大きさは、処理負荷や画質を考慮して任意の大きさに設定することが可能である。 According to the first embodiment, when synthesizing using a plurality of images picked up by changing the in-focus position, by adjusting the composition ratio between the plurality of images of pixels whose positions overlap at the time of composition, A composite image that correctly reflects the positional relationship before and after can be generated. Here, the configuration for obtaining the contrast value and the composition ratio for each pixel has been described as an example. However, in order to reduce the processing load, the contrast value and the composition ratio may be obtained for each block composed of a plurality of pixels. . In other words, as long as the contrast value and the composition ratio are obtained for each of the plurality of partial areas included in the image, the size of the area can be set to an arbitrary size in consideration of processing load and image quality. It is.
合成比率の調整の必要がある画素において、前後の被写体のどちらか一方に合焦するとき、もう一方のボケ具合は、前後の被写体の間の距離が大きいほど、大きくなる。したがって、合焦位置を考慮し、ステップS601で算出したコントラスト値に対して補正を行う。その一例としては、至近側の画像の画素のコントラスト値に対して、補正係数をかけ、その結果を修正後のコントラスト値とする。図7(c)では、並び順2番の番号を持つ画素のコントラスト値C_near1に対して、補正係数W_near1をかけ、補正後のコントラスト値C_near1´が得られる。同様に、図7(d)では、並び順5番の番号を持つ画素のコントラスト値C_near2に対して、補正係数W_near2をかけ、補正後のコントラスト値C_near2´が得られる。図7(c)および(d)では、後方において、同じく並び順の7番の画像に合焦しているが、図7(c)は、図7(d)と比べ、前方被写体と後方被写体との距離が大きい。図7(c)において、並び順の2番の画像のボケ具合はより大きく、合成画像における被写体の前後位置の乱れが発生しやすいため、補正係数を大きくする必要がある。つまり、制御部101は、補正係数W_near1が補正係数W_near2より大きくなるように設定する。具体的に、図7(c)と図7(d)では、コントラスト値が極大値となる対応する画素のうち、最も無限側となる画素との距離に応じて、1より大きな補正係数を与える。一方、コントラスト値が極大値となる対応する画素のうち、最も無限側となる画素には、補正係数として1を与える、あるいは、補正を行わない。 When focusing on one of the front and rear subjects in a pixel that requires adjustment of the composition ratio, the other degree of blur increases as the distance between the front and rear subjects increases. Therefore, the contrast value calculated in step S601 is corrected in consideration of the in-focus position. As an example, a correction coefficient is applied to the contrast value of the pixel of the closest image, and the result is used as a corrected contrast value. In FIG. 7C, the correction value W_near1 is applied to the contrast value C_near1 of the pixel having the second number in the arrangement order to obtain a corrected contrast value C_near1 ′. Similarly, in FIG. 7D, a correction coefficient W_near2 is applied to the contrast value C_near2 of the pixel having the number 5 in the arrangement order to obtain a corrected contrast value C_near2 ′. In FIGS. 7 (c) and (d), the seventh image in the rearrangement order is focused in the rear, but FIG. 7 (c) is a front subject and a rear subject as compared with FIG. 7 (d). The distance to is large. In FIG. 7C, the degree of blurring of the second image in the arrangement order is larger, and the front-rear position of the subject in the composite image is likely to be disturbed. Therefore, it is necessary to increase the correction coefficient. That is, the control unit 101 sets the correction coefficient W_near1 to be larger than the correction coefficient W_near2. Specifically, in FIG. 7C and FIG. 7D, a correction coefficient larger than 1 is given according to the distance from the most infinite pixel among the corresponding pixels having the maximum contrast value. . On the other hand, among the corresponding pixels having the maximum contrast value, 1 is given as a correction coefficient to the most infinite pixel, or no correction is performed.
以上の判断の理由について説明する。最も至近側の極大値702をもつ画素の合焦位置は、ほかの極大値を持つ画素と比べ、後方被写体との距離がより大きく、前述する補正係数がより十分大きく設定されている。前方被写体の画像の対応する画素のコントラスト値702に十分大きい補正係数をかける以上、後方被写体に合焦するときの画像の対応する画素のコントラスト値703より大きくなるはずである。それにもかかわらず、前方被写体の画像の対応する画素のコントラスト値702の補正後の値712が、後方の画像の対応する画素のコントラスト値703より小さいことがあるとしたら、ノイズなどの影響による値と考えられる。つまり、そもそもコントラスト値702は、前方被写体に合焦していなく、コントラスト値802が極大値となるのは、ノイズなどの影響による値と考えられる。したがって、このような場合、処理中の画素の合成比率の調整処理をしない。 The reason for the above determination will be described. The in-focus position of the pixel having the local maximum value 702 on the closest side is set to have a larger distance from the rear subject and the correction coefficient described above sufficiently larger than those of other pixels having the local maximum value. As long as a sufficiently large correction coefficient is applied to the contrast value 702 of the corresponding pixel of the front subject image, the contrast value 703 of the corresponding pixel of the image when focusing on the rear subject should be larger. Nevertheless, if the corrected value 712 of the contrast value 702 of the corresponding pixel of the front subject image may be smaller than the contrast value 703 of the corresponding pixel of the rear image, the value due to the influence of noise or the like. it is conceivable that. That is, the contrast value 702 is not focused on the front subject in the first place, and it is considered that the contrast value 802 is the maximum value due to the influence of noise or the like. Therefore, in such a case, adjustment processing of the composition ratio of the pixel being processed is not performed.
(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子を内蔵したスマートフォンやタブレットなどの携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
(Other embodiments)
The above embodiment has been described based on the implementation with a digital camera, but is not limited to a digital camera. For example, it may be implemented by a portable device such as a smartphone or a tablet with a built-in image sensor , or a network camera that can capture an image.
Claims (13)
前記複数の画像の前記部分領域ごとの前記コントラスト値と、前記複数の画像を撮像した際の前記合焦位置に基づいて設定される合成比率で前記複数の画像を合成する合成手段と、を有することを特徴とする画像処理装置。 A calculation means of the contrast values for calculating a contrast value with the respective partial regions of a plurality of images captured while changing the focus position of the optical system,
Before Kiko contrast value for each of the partial areas of the previous SL plurality of images, and combining means for combining the plurality of images in combination ratio is set based on the focus position at the time of imaging the plurality of images an image processing apparatus characterized by having a.
前記複数の画像の前記部分領域ごとの前記コントラスト値と、前記複数の画像を撮像した際の前記合焦位置に基づいて設定される合成比率で前記複数の画像を合成する合成ステップと、を有することを特徴とする画像処理方法。 A calculation step of the contrast values for calculating a contrast value with the respective partial regions of a plurality of images captured while changing the focus position of the optical system,
Before Kiko contrast value for each of the partial areas of the previous SL plurality of images, a synthesizing step of synthesizing the plurality of images in combination ratio is set based on the focus position at the time of imaging the plurality of images an image processing method characterized by having a.
前記複数の画像の前記部分領域ごとの前記コントラスト値と、前記複数の画像を撮像した際の前記合焦位置に基づいて設定される合成比率で前記複数の画像を合成する合成ステップと、をコンピュータによって実行させることを特徴とするコンピュータプログラム。 A calculation step of the contrast values for calculating a contrast value with the respective partial regions of a plurality of images captured while changing the focus position of the optical system,
Before Kiko contrast value for each of the partial areas of the previous SL plurality of images, a synthesizing step of synthesizing the plurality of images in combination ratio is set based on the focus position at the time of imaging the plurality of images Is executed by a computer.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016169614A JP6786311B2 (en) | 2016-08-31 | 2016-08-31 | Image processing equipment, image processing methods, computer programs and storage media |
JP2020147126A JP6953594B2 (en) | 2016-08-31 | 2020-09-01 | Image processing equipment, imaging equipment, image processing methods, programs and recording media |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016169614A JP6786311B2 (en) | 2016-08-31 | 2016-08-31 | Image processing equipment, image processing methods, computer programs and storage media |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020147126A Division JP6953594B2 (en) | 2016-08-31 | 2020-09-01 | Image processing equipment, imaging equipment, image processing methods, programs and recording media |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018037857A JP2018037857A (en) | 2018-03-08 |
JP2018037857A5 true JP2018037857A5 (en) | 2019-08-15 |
JP6786311B2 JP6786311B2 (en) | 2020-11-18 |
Family
ID=61566153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016169614A Active JP6786311B2 (en) | 2016-08-31 | 2016-08-31 | Image processing equipment, image processing methods, computer programs and storage media |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6786311B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6818734B2 (en) * | 2018-06-26 | 2021-01-20 | キヤノン株式会社 | Image processing equipment, imaging equipment, image processing methods and programs |
JP6833772B2 (en) | 2018-08-22 | 2021-02-24 | キヤノン株式会社 | Image processing equipment, imaging equipment, image processing methods and programs |
JP7137544B2 (en) | 2019-09-26 | 2022-09-14 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP7409604B2 (en) * | 2019-12-18 | 2024-01-09 | キヤノン株式会社 | Image processing device, imaging device, image processing method, program and recording medium |
JP7458769B2 (en) * | 2019-12-18 | 2024-04-01 | キヤノン株式会社 | Image processing device, imaging device, image processing method, program and recording medium |
-
2016
- 2016-08-31 JP JP2016169614A patent/JP6786311B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5643563B2 (en) | Image processing apparatus and control method thereof | |
WO2017045558A1 (en) | Depth-of-field adjustment method and apparatus, and terminal | |
JP6267502B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP6224362B2 (en) | Imaging device | |
JP6720881B2 (en) | Image processing apparatus and image processing method | |
JP2018037857A5 (en) | Image processing apparatus, image processing method, computer program, and storage medium | |
JP2007124398A (en) | Photographing device | |
JP6907274B2 (en) | Imaging device and imaging method | |
JP6786311B2 (en) | Image processing equipment, image processing methods, computer programs and storage media | |
JP2018107526A (en) | Image processing device, imaging apparatus, image processing method and computer program | |
US10482580B2 (en) | Image processing apparatus, image processing method, and program | |
US10397475B2 (en) | Capturing control apparatus and method of controlling the same | |
US8648936B2 (en) | Image processing apparatus and image processing method | |
JP2015012437A (en) | Digital camera | |
CN110784642B (en) | Image processing apparatus, control method thereof, storage medium, and imaging apparatus | |
JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
JP7458769B2 (en) | Image processing device, imaging device, image processing method, program and recording medium | |
JP6245847B2 (en) | Image processing apparatus and image processing method | |
JP6953594B2 (en) | Image processing equipment, imaging equipment, image processing methods, programs and recording media | |
JP2017147498A (en) | Image processing apparatus, image processing method and program | |
JP2022083147A (en) | Imaging apparatus, imaging method, program, and recording medium | |
JP6575231B2 (en) | Imaging apparatus, imaging setting method, and program | |
JP5871590B2 (en) | Imaging apparatus and control method thereof | |
JP6873815B2 (en) | Image processing equipment, imaging equipment, image processing methods, programs, and storage media | |
JP6708490B2 (en) | Image processing method and image processing apparatus |