JP2007049545A - Image composing apparatus, image composing method, and program - Google Patents
Image composing apparatus, image composing method, and program Download PDFInfo
- Publication number
- JP2007049545A JP2007049545A JP2005233373A JP2005233373A JP2007049545A JP 2007049545 A JP2007049545 A JP 2007049545A JP 2005233373 A JP2005233373 A JP 2005233373A JP 2005233373 A JP2005233373 A JP 2005233373A JP 2007049545 A JP2007049545 A JP 2007049545A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- layer
- tracking
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title description 63
- 230000033001 locomotion Effects 0.000 claims abstract description 57
- 239000013598 vector Substances 0.000 claims abstract description 44
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 238000001308 synthesis method Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 48
- 239000002131 composite material Substances 0.000 abstract description 11
- 230000009467 reduction Effects 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 31
- 239000000203 mixture Substances 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 17
- 238000000605 extraction Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 238000005070 sampling Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、例えばデジタルカメラ等の撮像装置に用いられる画像合成装置と、画像合成方法及びプログラムに関する。 The present invention relates to an image composition device, an image composition method, and a program used in an imaging device such as a digital camera.
近年、デジタルカメラでは、手ぶれを起こさない短い露光時間で連続撮影を行い、その連続撮影によって得られた複数枚の画像を重ね合わせることで、ブレのないノイズを抑えた鮮明な画像を得る方法が考えられている。 In recent years, with digital cameras, there is a method of obtaining a clear image with reduced noise by performing continuous shooting with a short exposure time without causing camera shake and overlaying a plurality of images obtained by the continuous shooting. It is considered.
ここで、連続撮影における各フレームの間隔は短時間であっても、その間にカメラと被写体との間に位置ずれが生じる可能性がある。このため、連続撮影によって得られた各画像を重ね合わせて合成する場合には、このような位置ずれを補正して重ね合わせることが必要となる。 Here, even if the interval between the frames in the continuous shooting is short, there is a possibility that a positional deviation occurs between the camera and the subject during that time. For this reason, when superimposing and synthesizing the images obtained by continuous shooting, it is necessary to correct the positional deviation and superimpose the images.
例えば、特許文献1では、2枚の画像からオプティカルフローを計算し、そのオプティカルフローに基づいて2枚の画像間での位置合わせを行う技術について開示されている。オプティカルフロー(optical flow)とは、カメラから見た物体の見かけ上の動きのことである。
For example,
このオプティカルフローの推定方法の1つに勾配法と呼ばれるものがある。勾配法は、動きを画素値(明るさ)の勾配(一次微分)から計算する方法である。つまり、勾配法によるオプティカルフロー推定とは、「物体上の点の明るさは移動後も変化しない」という仮定から時空間微分とオプティカルフローとの関係式を導出し、それを利用して対象の動きを推定するものである。 One of the optical flow estimation methods is called a gradient method. The gradient method is a method of calculating the motion from the gradient (first derivative) of the pixel value (brightness). In other words, optical flow estimation by the gradient method means that the relation between the spatio-temporal derivative and the optical flow is derived from the assumption that the brightness of the point on the object does not change after movement, and is used to It estimates motion.
画像合成技術では、このような勾配法を用いて画像上で特徴点を追跡することにより、両画像間における射影変換の行列式Hを決定し、その行列式Hを用いて画像間の位置ずれを補正して重ね合わせを行う。 In the image synthesis technique, a determinant H of the projective transformation between the two images is determined by tracking the feature points on the image using such a gradient method, and the positional deviation between the images is determined using the determinant H. Is corrected and superimposed.
具体的に説明すると、例えば図8に示すように、画像1と画像2を合成対象とした場合に、まず、基準となる画像1の中から所定数分の特徴点をランダムに抽出し、これらの特徴点を画像1に重ね合わせる画像2上で勾配法を用いて追跡する。今、図中のP1,P2,P3を画像1から抽出した特徴点とすれば、この3つの特徴点P1,P2,P3の場所を画像2の中で追跡することになる。
More specifically, for example, as shown in FIG. 8, when
特徴点P1,P2,P3を追跡できたら、この特徴点P1,P2,P3の画像2上の座標位置と画像1上の座標位置との関係から射影変換における行列式Hを算出する。そして、この行列式Hに基づいて画像1上のすべての特徴点をずらしてみて(画像1′)、ある程度の精度で画像2上の各特徴点と一致すれば(画像1′+画像2)、当該行列式Hを用いて画像1と画像2との位置ずれを補正して重ね合わせる。
When the feature points P1, P2, and P3 can be tracked, a determinant H in the projective transformation is calculated from the relationship between the coordinate positions of the feature points P1, P2, and P3 on the
なお、実際には、このような特徴点の抽出と追跡を何回か繰り返し行うことで、最終的に最も評価値の高い行列式Hを選出するといった処理を行う。 It should be noted that in practice, processing such as extraction and tracking of such feature points is repeated several times to finally select a determinant H having the highest evaluation value.
ところで、画像間の特徴点を追跡する場合に、画像上のすべての画素を対象として特徴点を1つ1つ追跡していたのでは計算量が多くなり、非常に時間がかかる。そこで、予め段階的に解像度を低くした画像を作り、最も解像度が少ないレイヤから順番に最も解像度が高いレイヤに向かって特徴点を追跡していく方法が用いられる。これをピラミッド化と呼ぶ。 By the way, when tracking feature points between images, if the feature points are tracked one by one for all the pixels on the image, the amount of calculation increases and it takes a very long time. In view of this, a method is used in which an image with a resolution lowered stepwise in advance is used, and feature points are tracked in order from the layer with the lowest resolution toward the layer with the highest resolution. This is called pyramidization.
図9は従来のピラミッド化による特徴点の追跡方法を説明するための図である。図中のkは階層のパラメータであり、k=0〜mの値を取る。fは元画像サイズ、∂f/∂xと∂f/∂yは点(x,y)の一次微分を表している。 FIG. 9 is a diagram for explaining a conventional method of tracking feature points by pyramidization. K in the figure is a hierarchical parameter and takes a value of k = 0 to m. f represents the original image size, and ∂f / ∂x and ∂f / ∂y represent the first derivative of the point (x, y).
まず、元画像に対してノイズ除去フィルタをかけ、その画像をレイヤ0とする。また、レイヤ0に対してサブサンプリング(間引きによる縮小処理)したものをレイヤ1、そのレイヤ1に対してサブサンプリングしたものをレイヤ2とし、順にレイヤmまでのピラミッド階層を構成する。
First, a noise removal filter is applied to the original image, and the image is set as
ここで、特徴点の追跡は、最下位のレイヤmから始め、レイヤmから最上位のレイヤ0の画像に微分フィルタをかけて、上述した勾配法により特徴点の動きベクトルVを求める。
Here, the tracking of feature points starts with the lowest layer m, applies a differential filter to the image of
すなわち、例えば画像1(基準画像)の特徴点を、その画像1に連続する画像2で追跡する場合に、まず、最下位のレイヤにて画像2の追跡開始点YをY=Xにして、勾配法により特徴点の動きベクトルVを求める。そして、次のポイントをY=Y+Vに更新し、そのポイントから再度勾配法により動きベクトルVを求める。同様にして、次のポイントをY=Y+Vに更新する。これを繰り返し、Vが十分小さくなったか、予定された回数を繰り返した時点で計算を終了する。
That is, for example, when the feature point of the image 1 (reference image) is tracked by the
続いて、1つ上の階層にて同様の追跡を行う。この場合、階層が1つ上がる毎に画像サイズが大きくなる。1階層毎に画像の1辺が倍になるものと仮定した場合に、下の階層で得られたXとYを2倍にして、これを初期値として特徴点追跡(動きベクトルの計算)を繰り返す。 Subsequently, the same tracking is performed in the upper hierarchy. In this case, the image size increases each time the hierarchy is increased by one. If it is assumed that one side of the image doubles for each layer, X and Y obtained in the lower layer are doubled, and feature point tracking (motion vector calculation) is performed using this as an initial value. repeat.
最終的に最上位のレイヤまで動きベクトルを順に引き継ぎながら特徴点を追跡していく。そして、最終的に得られた画像2上の特徴点の位置と画像1上の特徴点の位置との相対関係から上述した射影変換の行列式Hを算出する。
Finally, the feature points are tracked while the motion vectors are successively inherited up to the highest layer. Then, the determinant H of the projective transformation described above is calculated from the relative relationship between the position of the feature point on the
具体的な処理動作を図10乃至図12に示す。図10は従来の画像合成処理の全体の流れを示すフローチャートである。図11はその画像合成処理に含まれる特徴点抽出処理を示すフローチャート、図12はその特徴点抽出処理に含まれる動きベクトルの計算処理を示すフローチャートである。 Specific processing operations are shown in FIGS. FIG. 10 is a flowchart showing the overall flow of a conventional image composition process. FIG. 11 is a flowchart showing a feature point extraction process included in the image composition process, and FIG. 12 is a flowchart showing a motion vector calculation process included in the feature point extraction process.
今、連続撮影により複数枚の連続した画像が図示せぬメモリに記憶されており、そのメモリから各画像を順次読み出して重ね合わせることで1枚の合成画像を作成するものとして説明する。 Now, a description will be given assuming that a plurality of continuous images are stored in a memory (not shown) by continuous shooting, and each image is sequentially read out from the memory and superimposed to create one composite image.
図10のフローチャートにおいて、ステップD11〜D19は基準画像に対するピラミッド化の処理、ステップD20〜D27はその基準画像に重ね合わせる画像に対するピラミッド化の処理を示している。 In the flowchart of FIG. 10, steps D11 to D19 indicate pyramidal processing for the reference image, and steps D20 to D27 indicate pyramidal processing for the image to be superimposed on the reference image.
すなわち、まず、前記メモリから画像合成の基準となる画像を読み込む(ステップD11)。その際に、図9に示すように、階層数k=0として(ステップD12)、前記基準画像にノイズ除去フィルタをかけてレイヤ0の画像を生成する(ステップD13)。このレイヤ0の画像の中で特徴点を抽出した後(ステップD14)、当該画像に微分フィルタをかけて画素値の勾配を求める(ステップD15)。
That is, first, an image serving as a reference for image composition is read from the memory (step D11). At that time, as shown in FIG. 9, the layer number k = 0 (step D12), and a noise removal filter is applied to the reference image to generate a
続いて、kを+1更新し(ステップD16)、サブサンプリングフィルタによりレイヤ0の画像を縦横1/2サイズに間引き処理することでレイヤ1の画像を作成する(ステップD17)。そして、このレイヤ1の画像に微分フィルタをかけて画素値の勾配を求める(ステップD18)。
Subsequently, k is updated by +1 (step D16), and a
以後、kを更新しながら、k=mになるまで前記同様の処理を繰り返す(ステップD19)。これにより、図9に示したように、レイヤ0を最上位、レイヤmを最下位とした階層画像が作成されることになる。
Thereafter, while updating k, the same processing is repeated until k = m (step D19). As a result, as shown in FIG. 9, a hierarchical image with the
続いて、前記メモリから基準画像に重ね合わせる画像を読み出し(ステップD20)、k=0にセットした後(ステップD21)、その画像に対して前記同様のピラミッド化の処理を行うことで(ステップD22〜D27)、レイヤ0〜mの画像を作成する。
Subsequently, an image to be overlaid on the reference image is read from the memory (step D20), k = 0 is set (step D21), and the same pyramidal process is performed on the image (step D22). To D27), images of
このようにして、基準画像とそれに重ね合わせる画像をピラミッド化すると、次に、それぞれのレイヤ画像間で特徴点の追跡処理を行い(ステップD28)、その追跡処理で得られた特徴点の座標位置に基づいて両画像を位置合わせして合成する(ステップD29)。これを所定枚数分繰り返して行うことで(ステップD30)、1枚の合成画像を作成する。 When the reference image and the image to be superimposed on it are pyramidal in this way, next, feature point tracking processing is performed between the respective layer images (step D28), and the coordinate position of the feature point obtained by the tracking processing is performed. Based on the above, both images are aligned and synthesized (step D29). By repeating this for a predetermined number of sheets (step D30), one composite image is created.
次に、前記ステップD28で実行される特徴点追跡処理について説明する。 Next, the feature point tracking process executed in step D28 will be described.
図11のフローチャートに示すように、まず、i=0とおく(ステップE11)。iは処理対象となる特徴点の番号であり、0〜nの値を取るものとする。 As shown in the flowchart of FIG. 11, first, i = 0 is set (step E11). i is the number of the feature point to be processed, and takes a value of 0 to n.
今、基準画像の特徴点の位置をXi、その基準画像に重ね合わせる画像(以下、被追跡画像と称す)の特徴点の位置(検索位置)をYiとすると、レイヤmにおける特徴点位置は以下のように表せる(ステップE12)。 Now, assuming that the position of the feature point of the reference image is Xi and the position (search position) of the feature point of the image to be superimposed on the reference image (hereinafter referred to as a tracked image) is Yi, the feature point position in layer m is (Step E12).
Xi=Xi/2m
Yi=Xi
ここで、特徴点の追跡は最下位のレイヤから始めるため、k=mとする(ステップE13)。また、繰り返し回数(つまり階層毎の特徴点の追跡回数)jを初期値0にセットして(ステップE14)、被追跡画像上における特徴点iの動きベクトルVjを計算する(ステップE15)。
Xi = Xi / 2 m
Yi = Xi
Here, since tracking of feature points starts from the lowest layer, k = m is set (step E13). Also, the number of repetitions (that is, the number of tracking of feature points for each layer) j is set to an initial value 0 (step E14), and the motion vector Vj of the feature point i on the tracked image is calculated (step E15).
図12のフローチャートに示すように、動きベクトルVjはXiとYiから計算する(ステップF11)。この場合、追跡開始時点ではYi=Xiであり、Vj=0である。この点を追跡の開始ポイントにして、勾配法により動きベクトルVjを求め、次のポイントをYi=Yi+Vjに更新する(ステップF12)。 As shown in the flowchart of FIG. 12, the motion vector Vj is calculated from Xi and Yi (step F11). In this case, Yi = Xi and Vj = 0 at the tracking start time. Using this point as the tracking start point, the motion vector Vj is obtained by the gradient method, and the next point is updated to Yi = Yi + Vj (step F12).
このとき得られたVjの動き量が所定値以下に収束していれば(ステップF13のYes)、終了とする。また、所定値より大きければ(ステップF13のNo)、ステップF11に戻って同様の計算を繰り返す。その際、繰り返し回数jを+1ずつ更新し(ステップF15)、その値が予め設定された最大反復数に達した時点で(ステップF14のYes)、終了とする。 If the amount of motion of Vj obtained at this time has converged to a predetermined value or less (Yes in step F13), the process ends. If it is larger than the predetermined value (No in step F13), the process returns to step F11 and the same calculation is repeated. At that time, the number of repetitions j is updated by +1 (step F15), and when the value reaches the preset maximum number of repetitions (Yes in step F14), the process is terminated.
図11に戻って、レイヤmでの特徴点の動きベクトルVjが得られると、次に、1つの上の階層で特徴点の追跡処理を行うべく、XiとYiを以下のように2倍にする(ステップE16)。 Returning to FIG. 11, when the motion vector Vj of the feature point in the layer m is obtained, next, Xi and Yi are doubled as follows in order to perform the feature point tracking process in one layer above (Step E16).
Xi=Xi×2
Yi=Yi×2
そして、階層パラメータkの値を−1して(ステップE18)、ステップE14に戻り、1つ上の階層で同様の追跡処理を行う。このとき、下の階層で得られた動きベクトルVjの値を引き継いで追跡処理を行うことになる。最上位のレイヤ1まで追跡すると(ステップE17のYes)、別の特徴点について同様の処理を繰り返す。そして、i=nに達したとき(ステップE19のYes)、つまり、n個分の特徴点に対する追跡処理を終えた時点で完了とする。
Xi = Xi × 2
Yi = Yi × 2
Then, the value of the hierarchy parameter k is decremented by -1 (step E18), the process returns to step E14, and the same tracking process is performed in the hierarchy one level higher. At this time, the tracking process is performed by taking over the value of the motion vector Vj obtained in the lower layer. When tracing up to the highest layer 1 (Yes in step E17), the same processing is repeated for another feature point. When i = n is reached (Yes in step E19), that is, when the tracking processing for n feature points is completed, the processing is completed.
前記ステップD29の画像合成処理では、これらの特徴点の座標位置に基づいて射影変換の行列式Hを求め、その行列式Hに従って2つの画像(基準画像と被追跡画像)の位置合わせを行って合成することになる。
上述したように、画像間で特徴点を追跡する際に、各画像をピラミッド化して最も解像度が少ないレイヤから順番に最も解像度が高いレイヤに向かって追跡していく方法が用いられる。 As described above, when tracking feature points between images, a method is used in which each image is made into a pyramid and tracked from the layer with the lowest resolution to the layer with the highest resolution in order.
しかしながら、この方法をソフトウエアで実装した場合に、高解像度の画像にかけるフィルタ演算が多くなり、その処理量が膨大なるといった問題がある。 However, when this method is implemented by software, there is a problem in that the number of filter operations to be applied to a high-resolution image increases, and the amount of processing increases.
本発明は前記のような点に鑑みなされたもので、画像処理に必要な演算量を削減し、十分な追跡精度を保ちながら合成画像を作成することのできる画像合成装置、画像合成方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and an image composition device, an image composition method, and a program capable of reducing the amount of calculation required for image processing and creating a composite image while maintaining sufficient tracking accuracy. The purpose is to provide.
本発明の請求項1に係る画像合成装置は、第1の画像から抽出した特徴点を第2の画像で追跡し、その特徴点の座標位置から前記第1の画像と前記第2の画像を位置合わせして合成する画像合成装置であって、元画像の所定縮小サイズを最上位のレイヤとして、前記第1および第2の画像を段階的に縮小してピラミッド階層を構成するピラミッド化手段と、このピラミッド化手段による最下位のレイヤから順番に最上位のレイヤに向けて前記特徴点を追跡する特徴点追跡手段と、この特徴点追跡手段によって得られる前記特徴点の動きを示すベクトルに所定の係数を乗じて前記特徴点の動きを収束させる収束手段とを具備して構成される。
An image composition device according to
このような構成によれば、特徴点を追跡する際に元画像サイズでの画像処理が不要となるので、その分、演算量が大幅に削減される。また、特徴点の動きベクトルに所定の係数を乗じることで収束性を高め、十分な追跡精度を保ちながら合成画像を作成することができる。 According to such a configuration, when the feature points are tracked, image processing with the original image size is not necessary, and the amount of calculation is significantly reduced accordingly. Further, by multiplying a motion vector of a feature point by a predetermined coefficient, convergence can be improved, and a composite image can be created while maintaining sufficient tracking accuracy.
また、本発明の請求項2は、前記請求項1記載の画像合成装置において、前記ピラミッド化手段は、元画像の1/4サイズを最上位のレイヤとして前記第1および第2の画像を段階的に縮小してピラミッド階層を構成することを特徴とする。 According to a second aspect of the present invention, in the image synthesizing apparatus according to the first aspect, the pyramidizing means steps the first and second images with a quarter size of the original image as the highest layer. It is characterized in that a pyramid hierarchy is formed by reducing the size.
このような構成によれば、最下位のレイヤから順に特徴点を追跡していき、最終的に元画像の1/4サイズでその追跡を完了することができるので、特徴点の追跡処理を高速化できる。 According to such a configuration, the feature points are tracked in order from the lowest layer, and finally the tracking can be completed with a quarter size of the original image. Can be
本発明の請求項3は、前記請求項1記載の画像合成装置において、前記収束手段は、前記所定の係数を各階層での特徴点の追跡回数に応じて段階的に収束性を高める方向に変更することを特徴とする。 According to a third aspect of the present invention, in the image synthesizing apparatus according to the first aspect, the convergence means increases the convergence in a stepwise manner according to the number of tracking of the feature points in each layer. It is characterized by changing.
このような構成によれば、特徴点の動きベクトルが発散することを防いで、所定の追跡回数内で安定して収束させることができる。 According to such a configuration, motion vectors of feature points can be prevented from diverging and can be stably converged within a predetermined number of times of tracking.
本発明の請求項4に係る画像合成方法は、第1の画像から抽出した特徴点を第2の画像で追跡し、その特徴点の座標位置から前記第1の画像と前記第2の画像を位置合わせして合成する画像合成方法であって、元画像の所定縮小サイズを最上位のレイヤとして、前記第1および第2の画像を段階的に縮小してピラミッド階層を構成する第1のステップと、この第1のステップによる最下位のレイヤから順番に最上位のレイヤに向けて特徴点を追跡する第2のステップと、この第2のステップによって得られる前記特徴点の動きを示すベクトルに所定の係数を乗じて前記特徴点の動きを収束させる第3のステップとを備えたことを特徴とする。 According to a fourth aspect of the present invention, a feature point extracted from a first image is tracked with a second image, and the first image and the second image are obtained from the coordinate position of the feature point. An image composition method for aligning and compositing, wherein a first reduction step of the original image is used as the highest layer, and the first and second images are reduced stepwise to form a pyramid hierarchy And a second step for tracking feature points from the lowest layer in the first step toward the highest layer in order, and a vector indicating the motion of the feature points obtained by the second step. And a third step of converging the movement of the feature points by multiplying by a predetermined coefficient.
このような画像合成方法によれば、前記各ステップに従った処理を実行することにより、前記請求項1記載の発明と同様の作用効果が奏せられる。 According to such an image synthesizing method, the same effects as those of the first aspect of the invention can be achieved by executing the processing according to each of the steps.
本発明の請求項5に係るプログラムは、第1の画像から抽出した特徴点を第2の画像で追跡し、その特徴点の座標位置から前記第1の画像と前記第2の画像を位置合わせして合成するプログラムであって、コンピュータに、元画像の所定縮小サイズを最上位のレイヤとして、前記第1および第2の画像を段階的に縮小してピラミッド階層を構成する第1の機能と、この第1の機能による最下位のレイヤから順番に最上位のレイヤに向けて特徴点を追跡する第2の機能と、この第2の機能によって得られる前記特徴点の動きを示すベクトルに所定の係数を乗じて前記特徴点の動きを収束させる第3の機能とを実行させることを特徴とする。 The program according to claim 5 of the present invention tracks a feature point extracted from the first image with the second image, and aligns the first image and the second image from the coordinate position of the feature point. A first function for composing a pyramid hierarchy by gradually reducing the first and second images with a predetermined reduced size of the original image as the uppermost layer. A second function for tracking feature points from the lowest layer to the highest layer in order from the lowest layer by the first function, and a vector indicating the motion of the feature points obtained by the second function are predetermined. And a third function for converging the movement of the feature points by multiplying by the coefficient.
したがって、コンピュータが前記各機能を実現するためのプログラムを実行することにより、前記請求項1記載の発明と同様の作用効果が奏せられる。 Therefore, when the computer executes the program for realizing each function, the same effects as those of the first aspect of the invention can be achieved.
本発明によれば、ピラミッド化による特徴点の追跡を行う場合に、画像処理に必要な演算量を削減し、十分な追跡精度を保ちながら合成画像を作成することができる。 According to the present invention, when tracking feature points by pyramidization, it is possible to reduce the amount of calculation required for image processing and create a composite image while maintaining sufficient tracking accuracy.
以下、図面を参照して本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は本発明の一実施形態に係る画像合成装置としてデジタルカメラを例にした場合の外観構成を示す図であり、図1(a)は主に前面の構成、同図(b)は主に背面の構成を示す斜視図である。 FIG. 1 is a diagram showing an external configuration when a digital camera is taken as an example of an image composition device according to an embodiment of the present invention. FIG. 1 (a) is mainly a front configuration, and FIG. It is a perspective view which shows the structure of a back surface.
このデジタルカメラ1は、略矩形の薄板状ボディ2の前面に、撮影レンズ3、セルフタイマランプ4、光学ファインダ窓5、ストロボ発光部6、マイクロホン部7などを有し、上面の(ユーザにとって)右端側には電源キー8及びシャッタキー9などが設けられている。
The
電源キー8は、電源のオン/オフ毎に操作するキーであり、シャッタキー9は、撮影時に撮影タイミングを指示するキーである。
The
また、デジタルカメラ1の背面には、撮影モード(R)キー10、再生モード(P)キー11、光学ファインダ12、スピーカ部13、マクロキー14、ストロボキー15、メニュー(MENU)キー16、リングキー17、セット(SET)キー18、表示部19などが設けられている。
Also, on the back of the
撮影モードキー10は、電源オフの状態から操作することで自動的に電源オンとして静止画の撮影モードに移行する一方で、電源オンの状態から繰返し操作することで、静止画モード、動画モードを循環的に設定する。静止画モードは、静止画を撮影するためのモードである。また、動画モードは、動画を撮影するためのモードである。
The
前記シャッタキー9は、これらの撮影モードに共通に使用される。すなわち、静止画モードでは、シャッタキー9が押下されたときのタイミングで静止画の撮影が行われる。動画モードでは、シャッタキー9が押下されたときのタイミングで動画の撮影が開始され、シャッタキー9が再度押下されたときにその動画の撮影が終了する。 The shutter key 9 is commonly used for these photographing modes. That is, in the still image mode, a still image is taken at the timing when the shutter key 9 is pressed. In the moving image mode, shooting of a moving image is started at a timing when the shutter key 9 is pressed, and shooting of the moving image is ended when the shutter key 9 is pressed again.
再生モードキー11は、電源オフの状態から操作することで自動的に電源オンとして再生モードに移行する。
When the
マクロキー14は、静止画の撮影モードで通常撮影とマクロ撮影とを切換える際に操作する。ストロボキー15は、ストロボ発光部6の発光モードを切換える際に操作する。メニューキー16は、連続撮影モードを含む各種メニュー項目等を選択する際に操作する。リングキー17は、上下左右各方向への項目選択用のキーが一体に形成されたものであり、このリングキー17の中央に位置するセットキー18は、その時点で選択されている項目を設定する際に操作する。
The
表示部19は、バックライト付きのカラー液晶パネルで構成されるもので、撮影モード時には電子ファインダとしてスルー画像のモニタ表示を行う一方で、再生モード時には選択した画像等を再生表示する。
The
なお、図示はしないがデジタルカメラ1の底面には、記録媒体として用いられるメモリカードを着脱するためのメモリカードスロットや、外部のパーソナルコンピュータ等と接続するためのシリアルインタフェースコネクタとして、例えばUSB(Universal Serial Bus)コネクタ等が設けられている。
Although not shown, the
図2はデジタルカメラ1の電子回路構成を示すブロック図である。
FIG. 2 is a block diagram showing an electronic circuit configuration of the
このデジタルカメラ1には、光学レンズ装置21、イメージセンサ22、メモリ23、表示装置24、画像処理装置25、操作部26、コンピュータインタフェース部27、外部記憶IO装置28、プログラムコード記憶装置29、CPU30、メモリカード31が備えられている。
The
光学レンズ装置21は、撮影レンズ3を構成する図示せぬフォーカスレンズおよびズームレンズを含むレンズ光学系とその駆動部とを備えたものであり、イメージセンサ22上に、撮影対象からの光を集光させて像を結像させる。
The
イメージセンサ22は、結像した画像を、デジタル化した画像データとして取り込むためのものであり、例えば、CCD(Charge Coupled Device:電荷結合素子)等によって構成される。イメージセンサ22は、CPU30によって制御され、シャッタキー9が押下されなければ、プレビュー用の解像度の低いデジタルの画像データを生成し、この画像データを秒間30枚程度の間隔で、定期的にメモリ23に送出する。また、イメージセンサ22は、シャッタキー9が押下されると、解像度の高い画像データを生成し、生成した画像データをメモリ23に送出する。また、イメージセンサ22は、CPU30によって撮像感度(ISO感度)の設定可能である。
The
メモリ23は、イメージセンサ22からの低解像度のプレビュー画像、高解像度の画像データまたは画像処理装置25が画像処理する元画像のデータ、処理後の画像データを一時記憶するものである。メモリ23は、一時記憶した画像データを表示装置24または画像処理装置25に送り出す。
The
表示装置24は、液晶モニタである表示部19に画像を表示させるためのものである。表示装置24は、メモリ23が一時記憶した低解像度のプレビュー画像または解像度の高い画像を表示部19に表示する。
The display device 24 is for displaying an image on the
画像処理装置25は、メモリ23に一時記憶された画像データに対して、画像データの圧縮等の画像処理を行うためのものである。
The image processing device 25 is for performing image processing such as image data compression on the image data temporarily stored in the
操作部26は、シャッタキー9の他に、電源キー8、撮影モードキー10、再生モードキー11、マクロキー14、ストロボキー15、メニューキー16、リングキー17、セットキー18などから構成され、それらのキー操作に伴う信号は直接CPU30へ送出される。
In addition to the shutter key 9, the
コンピュータインタフェース部27は、デジタルカメラ1がコンピュータ(図示せず)に接続されたときに、USBのストレジクラスドライバとして動作するものである。これにより、コンピュータは、デジタルカメラ1に接続されると、メモリカード31をコンピュータの外部記憶装置として取り扱う。
The
外部記憶IO装置28は、メモリカード31との間で、画像データ等の入出力を行うものである。メモリカード31は、外部記憶IO装置28から供給された画像データ等を記憶するものである。
The external
プログラムコード記憶装置29は、CPU30が実行するプログラムを記憶するためのものであり、ROMやフラッシュメモリなどによって構成される。
The program
CPU30は、プログラムコード記憶装置29に格納されているプログラムに従って、システム全体を制御するものである。なお、メモリ23は、CPU30の作業メモリとしても用いられる。
The
操作部26のスイッチ・キーが押下されることにより、操作部26から操作情報が送信されると、CPU30は、この操作情報に基づいて、イメージセンサ22、メモリ23、表示装置24、画像処理装置25等を制御する。
When operation information is transmitted from the
具体的には、操作部26から撮影モードキー10が押下された旨の操作情報が送信されると、CPU30は各部を撮影モードに設定する。この状態で、シャッタキー9が押下されなければ、イメージセンサ22をプレビューモードに設定し、シャッタキー9が押下されれば、解像度の高い撮影対象画像を読み込む高解像度モードに設定する。その際、メニューキー16の操作により連続撮影モードが設定されていれば、シャッタキー9の押下に伴い、所定枚数分の画像の読み込み処理が所定時間間隔で実行される。
Specifically, when operation information indicating that the
また、再生モードキー11が押下された旨の操作情報が送信されると、CPU30は、各部を再生モードに設定する。
When the operation information indicating that the
また、CPU30は、外部記憶IO装置28を介してメモリカード31に、プレビュー画像、高解像度の画像のデータを記録したり、メモリカード31から、記録された画像データを読み出したりする。CPU30は、メモリカード31には、例えば、JPEGフォーマットで圧縮した画像データを記録する。
Further, the
CPU30は、メモリ23に画像データを一時記憶する際、プレビュー画像、高解像度の画像データを異なる記憶領域に記録する。また、CPU30は、メモリカード31には、画像データを画像ファイルに分けて記録する。
When the image data is temporarily stored in the
また、CPU30は、外部記憶IO装置28を介してメモリカード31に、プレビュー画像、高解像度の画像のデータを記録したり、メモリカード31から、記録された画像データを読み出したりする。CPU30は、メモリカード31に画像データを格納する画像ファイルを作成する。
Further, the
次に、前記構成のデジタルカメラ1による画像合成処理について説明する。
Next, image composition processing by the
図9で説明したように、一般的なピラミッド化による方法では、元画像に対してノイズ除去フィルタをかけた画像をレイヤ0として、そのレイヤ0に対してサブサンプリングしたものをレイヤ1、レイヤ1に対してサブサンプリングしたものをレイヤ2…として順にレイヤmまで求める。そして、画像間の特徴点を追跡する場合に、最下位のレイヤmから順番に最も解像度が高い最上位のレイヤ0に向かって追跡を行う。
As described with reference to FIG. 9, in the general pyramidization method, an image obtained by applying a noise removal filter to an original image is set as
ここで、当然のことながら、全てのフィルタ処理は解像度が高いほど多くなる。よって、図9のような方法では、元画像サイズであるレイヤ0に対してのフィルタ処理が最も多くなり、ソフトウエアで実装する場合にその処理量が膨大となり、また、追跡処理に時間がかかるなどの問題がある。
Here, as a matter of course, all the filtering processes increase as the resolution increases. Therefore, in the method as shown in FIG. 9, the filter processing for the
そこで、本実施形態では、図3に示すように、元画像の1/4サイズ(縦横1/2サイズ)を最上位のレイヤ(k=1)としてピラミッド階層を構成し、特徴点の抽出処理および追跡処理をこのピラミッド階層で行う。これにより、図3から明らかなように、各レイヤの画像を作るのに必要なフィルタ処理の演算量が大幅に削減され、追跡処理時間も短縮化されることになる。 Therefore, in the present embodiment, as shown in FIG. 3, the pyramid hierarchy is configured with the 1/4 size (vertical / horizontal size) of the original image as the highest layer (k = 1), and feature point extraction processing is performed. The tracking process is performed in this pyramid hierarchy. Thus, as is apparent from FIG. 3, the amount of filter processing required to create an image of each layer is greatly reduced, and the tracking processing time is also shortened.
ただし、その代償として、オプティカルフローの精度が低下する問題がある。これは、図12で説明した特徴点の動きベクトルの計算(Yi=Xi+V0+V1+…+Vj)で各Vjが振動することが原因である。この問題点を解決するため、各VjをYiに単純に加算していくのではなく、j(繰り返し回数)によって異なる係数をVjにかけ、加算値を徐々に小さくしていくという方法を用いる。 However, as a price, there is a problem that the accuracy of the optical flow is lowered. This is because each Vj vibrates in the calculation of the motion vector of the feature points described in FIG. 12 (Yi = Xi + V0 + V1 +... + Vj). To solve this problem, instead of simply adding each Vj to Yi, a method is used in which a different coefficient is applied to Vj depending on j (the number of repetitions), and the added value is gradually reduced.
以下に、図4乃至図6のフローチャートを用いて具体的な処理について説明する。なお、以下の各フローチャートで示される処理は、マイクロコンピュータであるCPU30がプログラムコード記憶装置29に記憶されたプログラムを読み込むことにより、そのプログラムに記述された手順に従って実行される。
Specific processing will be described below with reference to the flowcharts of FIGS. The processing shown in the following flowcharts is executed according to the procedure described in the program by the
図4はデジタルカメラ1の画像合成処理の全体の流れを示すフローチャートである。図5はその画像合成処理に含まれる特徴点抽出処理を示すフローチャート、図6はその特徴点抽出処理に含まれる動きベクトルの計算処理を示すフローチャートである。
FIG. 4 is a flowchart showing an overall flow of image composition processing of the
今、連続撮影により複数枚の連続した画像が図2に示したメモリ23に記憶されており、そのメモリ23から各画像を順次読み出して重ね合わせることで1枚の合成画像を作成するものとして説明する。
Now, it is assumed that a plurality of continuous images are stored in the
図4のフローチャートにおいて、ステップA11〜A19は基準画像に対するピラミッド化の処理、ステップA20〜A27はその基準画像に重ね合わせる画像に対するピラミッド化の処理を示している。 In the flowchart of FIG. 4, steps A11 to A19 indicate pyramidal processing for a reference image, and steps A20 to A27 indicate pyramidal processing for an image to be superimposed on the reference image.
すなわち、まず、CPU30は、メモリ23から画像合成の基準となる画像を読み込む(ステップA11)。その際、図3に示すように、CPU30は、階層数k=1として(ステップA12)、前記基準画像にノイズ除去とサブサンプリングの合成フィルタをかけて、元画像の1/4(縦横1/2)サイズに縮小したレイヤ1の画像を生成する(ステップA13)。本実施形態では、このレイヤ1の画像サイズがピラミッド階層の最上位となる。
That is, first, the
CPU30は、このレイヤ1の画像の中で特徴点を抽出した後(ステップA14)、当該画像に微分フィルタをかけて画素値の勾配を求める(ステップA15)。
After extracting feature points from the
続いて、CPU30は、kを+1更新し(ステップA16)、サブサンプリングフィルタによりレイヤ1の画像を縦横1/2サイズに間引き処理することでレイヤ2の画像を作成する(ステップA17)。そして、このレイヤ2の画像に微分フィルタをかけて画素値の勾配を求める(ステップA18)。
Subsequently, the
以後、kを更新しながら、k=mになるまで前記同様の処理を繰り返す(ステップA19)。これにより、図3に示したように、レイヤ1を最上位、レイヤmを最下位とした階層画像が作成されることになる。
Thereafter, while updating k, the same process is repeated until k = m (step A19). As a result, as shown in FIG. 3, a hierarchical image having the
続いて、CPU30は、前記メモリ23から基準画像に重ね合わせる画像を読み出し(ステップA20)、k=1にセットした後(ステップA21)、その画像に対して前記同様のピラミッド化の処理を行うことで(ステップA22〜A27)、レイヤ1〜mの画像を作成する。この場合、前記基準画像のときと同様に、レイヤ1では、当該画像に対してノイズ除去とサブサンプリングの合成フィルタをかけて、元画像の1/4(縦横1/2)サイズに縮小した画像を作成する。
Subsequently, the
このようにして、基準画像とそれに重ね合わせる画像をピラミッド化すると、次に、それぞれのレイヤ画像間で特徴点の追跡処理を行い(ステップA28)、その追跡処理で得られた特徴点の座標位置に基づいて両画像を位置合わせして合成する(ステップA29)。これを所定枚数分繰り返して行うことで(ステップA30)、1枚の合成画像を作成する。 When the reference image and the image to be superimposed on it are pyramidal in this way, next, feature point tracking processing is performed between the respective layer images (step A28), and the coordinate position of the feature point obtained by the tracking processing is performed. Based on the above, both images are aligned and synthesized (step A29). By repeating this for a predetermined number of sheets (step A30), one composite image is created.
次に、前記ステップA28で実行される特徴点追跡処理について説明する。 Next, the feature point tracking process executed in step A28 will be described.
図5のフローチャートに示すように、まず、i=0とおく(ステップB11)。iは処理対象となる特徴点の番号であり、0〜nの値を取るものとする。 As shown in the flowchart of FIG. 5, first, i = 0 is set (step B11). i is the number of the feature point to be processed, and takes a value of 0 to n.
今、基準画像の特徴点の位置をXi、その基準画像に重ね合わせる画像(以下、被追跡画像と称す)の特徴点の位置(検索位置)をYiとすると、レイヤmにおける特徴点位置は以下のように表せる(ステップB12)。 Now, assuming that the position of the feature point of the reference image is Xi and the position (search position) of the feature point of the image to be superimposed on the reference image (hereinafter referred to as a tracked image) is Yi, the feature point position in layer m is (Step B12).
Xi=Xi/2m
Yi=Xi
ここで、特徴点の追跡は最下位のレイヤから始めるため、k=mとする(ステップB13)。また、j(繰り返し回数)を初期値0にセットして(ステップB14)、被追跡画像上における特徴点iの動きベクトルVjを計算する(ステップB15)。
Xi = Xi / 2 m
Yi = Xi
Here, since tracking of feature points starts from the lowest layer, k = m is set (step B13). Also, j (number of repetitions) is set to an initial value 0 (step B14), and a motion vector Vj of the feature point i on the tracked image is calculated (step B15).
図6のフローチャートに示すように、CPU30は、XiとYiから動きベクトルVjを計算する(ステップC11)。この場合、追跡開始時点ではYi=Xiであり、Vj=0である。この点を追跡の開始ポイントにして、勾配法により動きベクトルVjを求める。
As shown in the flowchart of FIG. 6, the
ここで、動きベクトルVjの振動を抑えるため、CPU30は、j(繰り返し回数)によって異なる係数をVjに乗じる(ステップC12〜C15)。具体的には、最大反復数をT、係数をαとすると、下記のような条件でαが設定される。
Here, in order to suppress the vibration of the motion vector Vj, the
0≦j<T×1/3のとき、α=1
T×1/3≦j<T×2/3のとき、α=1/2
T×2/3≦jのとき、α=1/4
すなわち、例えば最大反復数Tが12回とすると、jが4回未満であれば、係数α=1である。よって、Vjはそのままの値となる。一方、jが4回〜7回の間では、係数α=1/2に設定される。よって、Vj=Vj/2となる。また、jが8回以上であれば、係数α=1/3に設定され、Vj=Vj/4となる。
When 0 ≦ j <T × 1/3, α = 1
When T × 1/3 ≦ j <T × 2/3, α = 1/2
When T × 2/3 ≦ j, α = 1/4
That is, for example, if the maximum number of repetitions T is 12, and if j is less than 4, the coefficient α = 1. Therefore, Vj is a value as it is. On the other hand, when j is 4 to 7 times, the coefficient α is set to 1/2. Therefore, Vj = Vj / 2. If j is 8 times or more, the coefficient α = 1/3 is set, and Vj = Vj / 4.
このようにして、jに応じた係数を特徴点の動きベクトルVjに乗じた後、次のポイントをYi=Yi+Vjに更新する(ステップC16)。そして、このとき得られたVjの動き量と所定値とを比較し、Vjの動き量が所定値以下に収束していれば(ステップC17のYes)、終了とする。また、所定値より大きければ(ステップC17のNo)、ステップC11に戻って同様の計算を繰り返す。その際、繰り返し回数jを+1ずつ更新し(ステップC19)、その値が予め設定された最大反復数に達した時点で(ステップC18のYes)、終了とする。 In this way, after multiplying the motion vector Vj of the feature point by a coefficient corresponding to j, the next point is updated to Yi = Yi + Vj (step C16). Then, the amount of motion of Vj obtained at this time is compared with a predetermined value, and if the amount of motion of Vj has converged below the predetermined value (Yes in step C17), the processing ends. If it is larger than the predetermined value (No in step C17), the process returns to step C11 and the same calculation is repeated. At that time, the number of repetitions j is updated by +1 (step C19), and when the value reaches the preset maximum number of repetitions (Yes in step C18), the process is terminated.
図5に戻って、レイヤmでの特徴点の動きベクトルVjが得られると、次に、CPU30は、1つの上の階層で特徴点の追跡処理を行うべく、XiとYiを以下のように2倍にする(ステップB16)。
Returning to FIG. 5, when the motion vector Vj of the feature point in the layer m is obtained, the
Xi=Xi×2
Yi=Yi×2
そして、CPU30は、階層パラメータkの値を−1して(ステップB18)、ステップB14に戻り、1つ上の階層で同様の追跡処理を行う。このとき、下の階層で得られた動きベクトルVjの値を引き継いで追跡処理を行うことになる。最上位のレイヤ1まで追跡すると(ステップB17のYes)、別の特徴点について同様の処理を繰り返す。そして、i=nに達したとき(ステップB19のYes)、つまり、n個分の特徴点に対する追跡処理を終えた時点で完了とする。
Xi = Xi × 2
Yi = Yi × 2
Then, the
前記ステップA29の画像合成処理では、これらの特徴点の座標位置に基づいて射影変換の行列式Hを求め、その行列式Hに従って2つの画像(基準画像と被追跡画像)の位置合わせを行って合成することになる。 In the image composition processing in step A29, a determinant H of projective transformation is obtained based on the coordinate positions of these feature points, and the two images (reference image and tracked image) are aligned according to the determinant H. Will be synthesized.
図7は動きベクトルの収束の概念を説明するための図であり、図7(a)は発散状態、同図(b)は収束状態を示す。 7A and 7B are diagrams for explaining the concept of motion vector convergence. FIG. 7A shows a divergent state, and FIG. 7B shows a convergent state.
ある1つの特徴点を2枚の画像間で勾配法を繰り返して追跡した場合に、図7(a)に示すように、動きベクトルVjは徐々に収束していくが、最終段階で動きベクトルVjが振動して発散状態になることがある。この例では、動きベクトルVjがV1〜V7まで徐々に収束した後、発散状態となったことを示している。この場合、特徴点の位置を正確に特定できないため、射影変換の行列式Hの精度に影響がでる。 When a certain feature point is tracked by repeating the gradient method between two images, the motion vector Vj gradually converges as shown in FIG. 7A, but at the final stage, the motion vector Vj May vibrate and diverge. This example shows that the motion vector Vj has converged gradually from V1 to V7, and then has entered a divergence state. In this case, since the position of the feature point cannot be accurately specified, the accuracy of the determinant H of the projective transformation is affected.
そこで、図7(b)の点線で示すように、動きベクトルVjに所定の係数を乗じることで振動を抑え込み、最終段階で収束させる。この例では、V6〜V9までのベクトル成分が係数によって減衰し、最終的に収束状態となったことを示している。この場合、係数の値は一定ではなく、そのときの繰り返し回数に応じて減衰量を多くする方向(つまり、収束性の高める方向)に段階的に変更される。具体的には、図6で説明したように、1→1/2→1/4といったように変更される。 Therefore, as indicated by the dotted line in FIG. 7B, the vibration is suppressed by multiplying the motion vector Vj by a predetermined coefficient, and is converged at the final stage. In this example, it is shown that the vector components from V6 to V9 are attenuated by the coefficient and finally become converged. In this case, the value of the coefficient is not constant, and is changed stepwise in the direction of increasing the amount of attenuation (that is, the direction of increasing the convergence) according to the number of repetitions at that time. Specifically, as described with reference to FIG. 6, the change is made such that 1 → 1/2 → 1/4.
以上のように、元画像の1/4サイズを最上位レイヤとしたピラミッド階層により特徴点を追跡する構成としたことで、従来のように元画像サイズを含めたピラミッド階層に比べ、元画像サイズでの画像処理が不要となるので、その分、演算量が大幅に削減される。また、特徴点の動きベクトルに所定の係数を乗じることで収束性を高め、十分な追跡精度を保ちながら合成画像を作成することができる。 As described above, since the feature points are tracked by the pyramid hierarchy with the 1/4 size of the original image as the highest layer, the original image size is compared with the conventional pyramid hierarchy including the original image size. Thus, the amount of calculation is greatly reduced. Further, by multiplying a motion vector of a feature point by a predetermined coefficient, convergence can be improved, and a composite image can be created while maintaining sufficient tracking accuracy.
なお、前記実施形態では、元画像の1/4サイズを最上位レイヤとしたが、1/4サイズ以外の縮小サイズを最上位レイヤとしてピラミッド階層を構成することでも良い。ただし、追跡の最終段階となる最上位レイヤでの画像サイズが小さくなるほど、動きベクトルが振動して収束しづらくなるため、そのことを考慮して動きベクトルに乗じる係数を設定することが好ましい。 In the above-described embodiment, the ¼ size of the original image is set as the highest layer, but a pyramid hierarchy may be configured with a reduced size other than the ¼ size as the highest layer. However, as the image size in the uppermost layer, which is the final stage of tracking, becomes smaller, the motion vector vibrates and becomes more difficult to converge. Therefore, it is preferable to set a coefficient by which the motion vector is multiplied in consideration of this.
また、前記実施形態では、動きベクトルに乗じる係数を図6のように2段階に変更したが、さらに細かく段階的に変更することでも良く、また、その係数を乗じるタイミングも特徴点の追跡回数に応じて適宜変更可能である。要は、各階層で動きベクトルが発散することを防いで、安定して収束させることのできる減衰係数を適切なタイミングで乗じれば良い。 In the above embodiment, the coefficient to be multiplied by the motion vector is changed to two stages as shown in FIG. 6, but it may be changed more finely in stages, and the timing for multiplying the coefficient by the number of tracking of the feature points is also possible. It can be changed as appropriate. In short, it is only necessary to multiply at appropriate timing an attenuation coefficient that can prevent the motion vector from diverging in each layer and can be stably converged.
なお、前記実施形態では、デジタルカメラを例にして説明したが、本発明はこれに限られるものではなく、例えばカメラ付きの携帯電話など、撮像機能を備えた電子機器であれば同様に適用可能である。 In the above embodiment, the digital camera has been described as an example. However, the present invention is not limited to this, and can be similarly applied to an electronic device having an imaging function such as a mobile phone with a camera. It is.
さらに、予めカメラで連続撮影した複数枚の画像をPC(パーソナルコンピュータ)等の情報処理装置に与えて、その情報処理装置内で前記のような処理を行うことで良い。画像の提供方法としては、着脱可能なメモリに画像を保存する方法の他に、通信ネットワークを介して提供することでも良い。 Furthermore, a plurality of images continuously photographed by a camera in advance may be given to an information processing apparatus such as a PC (personal computer) and the above-described processing may be performed in the information processing apparatus. As a method for providing an image, in addition to a method for storing an image in a removable memory, the image may be provided via a communication network.
要するに、本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
さらに、上述した実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD−ROM等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、そのプログラム自体をネットワーク等の伝送媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムあるいは伝送媒体を介して提供されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。 Further, the method described in the above-described embodiment is a program that can be executed by a computer, for example, recording on a magnetic disk (flexible disk, hard disk, etc.), optical disk (CD-ROM, DVD-ROM, etc.), semiconductor memory, etc. The program can be written on a medium and applied to various apparatuses, or the program itself can be transmitted through a transmission medium such as a network and applied to various apparatuses. A computer that implements this apparatus reads a program recorded on a recording medium or a program provided via a transmission medium, and performs the above-described processing by controlling operations by this program.
1…デジタルカメラ、2…ボディ、3…撮影レンズ、4…セルフタイマランプ、5…光学ファインダ窓、6…ストロボ発光部、7…マイクロホン部、8…電源キー、9…シャッタキー、10…撮影モードキー、11…再生モードキー、12…光学ファインダ、13…スピーカ部、14…マクロキー、15…ストロボキー、16…メニュー(MENU)キー、17…リングキー、18…セット(SET)キー、19…表示部、21…光学レンズ装置、22…イメージセンサ、23…メモリ、24…表示装置、25…画像処理装置、26…操作部、27…コンピュータインタフェース部、28…外部記憶IO装置、29…プログラムコード記憶装置、30…CPU、31…メモリカード。
DESCRIPTION OF
Claims (5)
元画像の所定縮小サイズを最上位のレイヤとして、前記第1および第2の画像を段階的に縮小してピラミッド階層を構成するピラミッド化手段と、
このピラミッド化手段による最下位のレイヤから順番に最上位のレイヤに向けて前記特徴点を追跡する特徴点追跡手段と、
この特徴点追跡手段によって得られる前記特徴点の動きを示すベクトルに所定の係数を乗じて前記特徴点の動きを収束させる収束手段と
を具備したことを特徴とする画像合成装置。 An image synthesis device that tracks a feature point extracted from a first image with a second image, aligns the first image with the second image from the coordinate position of the feature point, and synthesizes the image,
Pyramidizing means for forming a pyramid hierarchy by reducing the first and second images in stages with a predetermined reduced size of the original image as the top layer;
Feature point tracking means for tracking the feature points in order from the lowest layer to the highest layer by the pyramidal means;
An image synthesizing apparatus comprising: convergence means for converging the motion of the feature points by multiplying a vector indicating the motion of the feature points obtained by the feature point tracking means by a predetermined coefficient.
元画像の所定縮小サイズを最上位のレイヤとして、前記第1および第2の画像を段階的に縮小してピラミッド階層を構成する第1のステップと、
この第1のステップによる最下位のレイヤから順番に最上位のレイヤに向けて前記特徴点を追跡する第2のステップと、
この第2のステップによって得られる前記特徴点の動きを示すベクトルに所定の係数を乗じて前記特徴点の動きを収束させる第3のステップと
を備えたことを特徴とする画像合成方法。 An image synthesis method for tracking a feature point extracted from a first image with a second image and aligning and synthesizing the first image and the second image from a coordinate position of the feature point,
A first step of forming a pyramid hierarchy by reducing the first and second images in stages, with a predetermined reduced size of the original image as the top layer;
A second step of tracking the feature points from the lowest layer to the highest layer in order from the first step;
And a third step of converging the motion of the feature points by multiplying a vector indicating the motion of the feature points obtained by the second step by a predetermined coefficient.
コンピュータに、
元画像の所定縮小サイズを最上位のレイヤとして、前記第1および第2の画像を段階的に縮小してピラミッド階層を構成する第1の機能と、
この第1の機能による最下位のレイヤから順番に最上位のレイヤに向けて前記特徴点を追跡する第2の機能と、
この第2の機能によって得られる前記特徴点の動きを示すベクトルに所定の係数を乗じて前記特徴点の動きを収束させる第3の機能と
を実行させることを特徴とするプログラム。 A feature point extracted from the first image is tracked by the second image, and the first image and the second image are aligned and synthesized from the coordinate position of the feature point,
On the computer,
A first function that configures a pyramid hierarchy by gradually reducing the first and second images with a predetermined reduced size of the original image as the top layer;
A second function for tracking the feature points from the lowest layer to the highest layer in order from the first function;
And a third function for converging the motion of the feature point by multiplying a vector indicating the motion of the feature point obtained by the second function by a predetermined coefficient.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005233373A JP4640032B2 (en) | 2005-08-11 | 2005-08-11 | Image composition apparatus, image composition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005233373A JP4640032B2 (en) | 2005-08-11 | 2005-08-11 | Image composition apparatus, image composition method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007049545A true JP2007049545A (en) | 2007-02-22 |
JP2007049545A5 JP2007049545A5 (en) | 2008-09-18 |
JP4640032B2 JP4640032B2 (en) | 2011-03-02 |
Family
ID=37851998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005233373A Expired - Fee Related JP4640032B2 (en) | 2005-08-11 | 2005-08-11 | Image composition apparatus, image composition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4640032B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008232780A (en) * | 2007-03-20 | 2008-10-02 | Tokyo Electric Power Co Inc:The | Noncontact vibration measurement system, noncontact vibration measurement method, and computer program |
JP2008311907A (en) * | 2007-06-14 | 2008-12-25 | Casio Comput Co Ltd | Image data collating device, image composition device, and program |
JP2010009375A (en) * | 2008-06-27 | 2010-01-14 | Fujifilm Corp | Image processor, image processing method and image processing program |
JP2010021698A (en) * | 2008-07-09 | 2010-01-28 | Casio Comput Co Ltd | Image processing device, and program |
JP2012133716A (en) * | 2010-12-24 | 2012-07-12 | Nikon Corp | Image processing system, imaging apparatus and program |
KR20130001215A (en) * | 2010-02-11 | 2013-01-03 | 마이크로소프트 코포레이션 | Generic platform video image stabilization |
JP2014099921A (en) * | 2007-09-11 | 2014-05-29 | Samsung Electronics Co Ltd | Image-registration method and apparatus |
US9824426B2 (en) | 2011-08-01 | 2017-11-21 | Microsoft Technology Licensing, Llc | Reduced latency video stabilization |
CN110326027A (en) * | 2017-01-24 | 2019-10-11 | 深圳市大疆创新科技有限公司 | The method and system of signature tracking is carried out using image pyramid |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04345382A (en) * | 1991-05-23 | 1992-12-01 | Nippon Hoso Kyokai <Nhk> | Scene change detecting method |
JPH04365185A (en) * | 1991-06-12 | 1992-12-17 | Nippon Hoso Kyokai <Nhk> | Deciding method for reliability of motion vector |
JPH07115583A (en) * | 1993-10-20 | 1995-05-02 | Sanyo Electric Co Ltd | Video camera with hand-shake correction device |
JPH08265778A (en) * | 1995-03-20 | 1996-10-11 | Sony Corp | Moving amount detection method and moving amount detector |
JPH09224249A (en) * | 1996-02-15 | 1997-08-26 | Nippon Hoso Kyokai <Nhk> | Motion vector detector |
JP2001167249A (en) * | 1999-12-06 | 2001-06-22 | Sanyo Electric Co Ltd | Method and device for synthesizing image and recording medium stored with image synthesizing program |
JP2004070490A (en) * | 2002-08-02 | 2004-03-04 | Kddi Corp | Matching device for image |
JP2004343483A (en) * | 2003-05-16 | 2004-12-02 | Acutelogic Corp | Device and method for correcting camera-shake and device for detecting camera shake |
JP2005204075A (en) * | 2004-01-15 | 2005-07-28 | Sony Corp | Device and method for detecting motion vector, frame interpolation apparatus using the same, frame interpolation method using the method, program, and recording medium |
-
2005
- 2005-08-11 JP JP2005233373A patent/JP4640032B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04345382A (en) * | 1991-05-23 | 1992-12-01 | Nippon Hoso Kyokai <Nhk> | Scene change detecting method |
JPH04365185A (en) * | 1991-06-12 | 1992-12-17 | Nippon Hoso Kyokai <Nhk> | Deciding method for reliability of motion vector |
JPH07115583A (en) * | 1993-10-20 | 1995-05-02 | Sanyo Electric Co Ltd | Video camera with hand-shake correction device |
JPH08265778A (en) * | 1995-03-20 | 1996-10-11 | Sony Corp | Moving amount detection method and moving amount detector |
JPH09224249A (en) * | 1996-02-15 | 1997-08-26 | Nippon Hoso Kyokai <Nhk> | Motion vector detector |
JP2001167249A (en) * | 1999-12-06 | 2001-06-22 | Sanyo Electric Co Ltd | Method and device for synthesizing image and recording medium stored with image synthesizing program |
JP2004070490A (en) * | 2002-08-02 | 2004-03-04 | Kddi Corp | Matching device for image |
JP2004343483A (en) * | 2003-05-16 | 2004-12-02 | Acutelogic Corp | Device and method for correcting camera-shake and device for detecting camera shake |
JP2005204075A (en) * | 2004-01-15 | 2005-07-28 | Sony Corp | Device and method for detecting motion vector, frame interpolation apparatus using the same, frame interpolation method using the method, program, and recording medium |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008232780A (en) * | 2007-03-20 | 2008-10-02 | Tokyo Electric Power Co Inc:The | Noncontact vibration measurement system, noncontact vibration measurement method, and computer program |
JP2008311907A (en) * | 2007-06-14 | 2008-12-25 | Casio Comput Co Ltd | Image data collating device, image composition device, and program |
JP2014099921A (en) * | 2007-09-11 | 2014-05-29 | Samsung Electronics Co Ltd | Image-registration method and apparatus |
JP2010009375A (en) * | 2008-06-27 | 2010-01-14 | Fujifilm Corp | Image processor, image processing method and image processing program |
US7912248B2 (en) | 2008-06-27 | 2011-03-22 | Fujifilm Corporation | Hierarchical feature tracking using optical flow |
JP2010021698A (en) * | 2008-07-09 | 2010-01-28 | Casio Comput Co Ltd | Image processing device, and program |
JP4720859B2 (en) * | 2008-07-09 | 2011-07-13 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
US8233055B2 (en) | 2008-07-09 | 2012-07-31 | Casio Computer Co., Ltd. | Image processing device and program |
KR20130001215A (en) * | 2010-02-11 | 2013-01-03 | 마이크로소프트 코포레이션 | Generic platform video image stabilization |
JP2013520717A (en) * | 2010-02-11 | 2013-06-06 | マイクロソフト コーポレーション | General platform video image stabilization |
US9578240B2 (en) | 2010-02-11 | 2017-02-21 | Microsoft Technology Licensing, Llc | Generic platform video image stabilization |
KR101725215B1 (en) | 2010-02-11 | 2017-04-10 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Generic platform video image stabilization |
US10257421B2 (en) | 2010-02-11 | 2019-04-09 | Microsoft Technology Licensing, Llc | Generic platform video image stabilization |
US10841494B2 (en) | 2010-02-11 | 2020-11-17 | Microsoft Technology Licensing, Llc | Motion vector estimation for video image stabilization |
JP2012133716A (en) * | 2010-12-24 | 2012-07-12 | Nikon Corp | Image processing system, imaging apparatus and program |
US9824426B2 (en) | 2011-08-01 | 2017-11-21 | Microsoft Technology Licensing, Llc | Reduced latency video stabilization |
CN110326027A (en) * | 2017-01-24 | 2019-10-11 | 深圳市大疆创新科技有限公司 | The method and system of signature tracking is carried out using image pyramid |
Also Published As
Publication number | Publication date |
---|---|
JP4640032B2 (en) | 2011-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4947060B2 (en) | Image composition apparatus, image composition method, and program | |
CN100498835C (en) | Image combining system, image combining method | |
JP2005123667A (en) | Generation of still picture data from a plurality of image data | |
JP2009017223A (en) | Imaging device, image processing device, and their image processing method and program | |
JP4924228B2 (en) | Image processing apparatus, image processing method, and program | |
JP4930277B2 (en) | Imaging apparatus and computer program therefor | |
JP4640032B2 (en) | Image composition apparatus, image composition method, and program | |
JP6261205B2 (en) | Image processing device | |
JP2015053741A (en) | Image reproduction device | |
JP5393237B2 (en) | Image display apparatus, control method therefor, program, and storage medium | |
WO2010032649A1 (en) | Image display device and imaging apparatus | |
JP2006339903A (en) | Imaging device, image processing method and program | |
JP6056551B2 (en) | Image processing program and digital camera | |
JP3444281B2 (en) | IMAGE PROCESSING SYSTEM, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROCESSING PROGRAM OF THE METHOD | |
JP5011504B2 (en) | Image composition apparatus, image composition method, and program | |
JP4742296B2 (en) | Imaging apparatus, composite image creation method, and program | |
JP4001233B2 (en) | Panorama shooting method and image processing apparatus and image pickup apparatus capable of using the method | |
JP2007214620A (en) | Image processing apparatus, image processing method, and program | |
JP2017212550A (en) | Image reproducer, control method thereof, program, and storage medium | |
JP2010273268A (en) | Image reproducing device, imaging apparatus, image reproducing method, and image reproducing program | |
JP4525459B2 (en) | Movie processing apparatus, movie processing method and program | |
JP2005275765A (en) | Image processor, image processing method, image processing program and recording medium recording the program | |
JP2006094200A (en) | Imaging apparatus, focusing display method, and program | |
JP2018207178A (en) | Imaging apparatus, control method and program of imaging apparatus | |
JP7305689B2 (en) | Image processing device, image processing method, imaging device, program and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080805 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101102 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4640032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131210 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |