JP2007179354A - Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium - Google Patents
Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium Download PDFInfo
- Publication number
- JP2007179354A JP2007179354A JP2005377691A JP2005377691A JP2007179354A JP 2007179354 A JP2007179354 A JP 2007179354A JP 2005377691 A JP2005377691 A JP 2005377691A JP 2005377691 A JP2005377691 A JP 2005377691A JP 2007179354 A JP2007179354 A JP 2007179354A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- motion vector
- point
- optical flow
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
この発明は、カメラから入力されてくる一連のフレーム画像におけるオプティカルフローを高精度に算出するオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体に関する。 The present invention relates to an optical flow calculation device, an optical flow calculation method, an optical flow calculation program, and a recording medium that calculate an optical flow in a series of frame images input from a camera with high accuracy.
従来より、時間的に連続した複数のフレーム画像から、あるフレーム画像中に存在する物体の3次元構造を推定するために、オプティカルフロー(動きベクトル)を算出する方法がある。このオプティカルフロー(動きベクトル)の算出は、第一フレーム画像内の基点と、第二フレーム画像内における、基点に対応する対応点に基づいておこなう方法がとられている。 Conventionally, there is a method of calculating an optical flow (motion vector) in order to estimate a three-dimensional structure of an object existing in a certain frame image from a plurality of temporally continuous frame images. The optical flow (motion vector) is calculated based on a base point in the first frame image and a corresponding point corresponding to the base point in the second frame image.
より具体的には、たとえば、第一フレーム画像内の基点を含む所定領域の画素値と、第二フレーム画像内における第一フレーム画像内の基点を中心とした検索領域内における、基点に対応する対応点を含む所定領域の画素値の相関値を算出する。そして、算出した相関値の最も高い所定領域の対応点を正式な対応点に決定して、決定した対応点と第一フレーム画像内の基点から動きベクトルを算出する。このように、第一フレーム画像中の各画素について動きベクトルを算出して、あるフレーム画像中に存在する物体の3次元構造を推定するためのオプティカルフロー(動きベクトル)を算出する(たとえば、下記特許文献1参照。)。 More specifically, for example, it corresponds to the pixel value of a predetermined area including the base point in the first frame image and the base point in the search area centering on the base point in the first frame image in the second frame image. A correlation value of pixel values in a predetermined area including corresponding points is calculated. Then, the corresponding point of the predetermined area having the highest calculated correlation value is determined as an official corresponding point, and a motion vector is calculated from the determined corresponding point and the base point in the first frame image. In this manner, a motion vector is calculated for each pixel in the first frame image, and an optical flow (motion vector) for estimating the three-dimensional structure of an object existing in a certain frame image is calculated (for example, (See Patent Document 1).
ここで、図9−1および図9−2を用いて、従来のオプティカルフロー算出方式によって、時間的に連続した2つのフレーム画像(ここでは第一フレーム画像、第二フレーム画像とする)のオプティカルフローを算出する場合について説明する。図9−1は、従来のオプティカルフロー算出方式を示す第一フレーム画像に関する説明図である。図9−1において、第一フレーム画像910は、注目点911と、テンプレート912と、から構成されている。注目点911は、任意の座標(x1,y1)に位置しており、第一フレーム画像910と、後述する第二フレーム画像920における動きベクトルの基点となる構成でもよい。また、テンプレート912は、注目点911の座標(x1,y1)を中心とする微小な領域を切り出したもので、細密なオプティカルフローを取得するために、より微少なサイズが要求される。
Here, using FIGS. 9-1 and 9-2, optical images of two temporally continuous frame images (here, a first frame image and a second frame image) are obtained by a conventional optical flow calculation method. A case where a flow is calculated will be described. FIG. 9A is an explanatory diagram of a first frame image showing a conventional optical flow calculation method. In FIG. 9A, the
つづいて、図9−2について説明する。図9−2は、従来のオプティカルフロー算出方式を示す第二フレーム画像に関する説明図である。図9−2において、第二フレーム画像920は、対応点921と、対応点921における微小領域922と、検索領域923と、から構成されている。対応点921は、検索領域923内における注目点911に対応する座標(x2,y2)に位置している。また、検索領域923は、注目点911の座標(x1,y1)を中心とした領域で、対応点921の座標(x2,y2)を中心とした微小領域922を含んでいる。
Next, FIG. 9-2 will be described. FIG. 9-2 is an explanatory diagram relating to a second frame image showing a conventional optical flow calculation method. 9-2, the
オプティカルフローの算出は、まず、第一フレーム画像910におけるテンプレート912と、第二フレーム画像920における座標(x2,y2)を中心とした微小領域922との相関値を算出する。より具体的には、たとえば、第一フレーム画像910のテンプレート912と、第二フレーム画像920の座標(x2,y2)を中心とした微小領域922の各画素値の差のRMS(Root Mean Square(二乗平均平方根))を算出する。そして、検索領域923内をラスタスキャンしながら相関マップを作成し、相関値が最も大きくなる座標(x2max,y2max)を座標(x1,y1)の対応点921とする。この2つの対応した座標から座標(x1,y1)における動きベクトルを(x2max−x1,y2max−y1)として算出し、これを第一フレーム画像910内の各画素について算出することでオプティカルフローを得ることができる。
The optical flow is calculated by first calculating a correlation value between the template 912 in the
しかしながら、上述した従来技術では、画像内の物体の動きが速い場合、第一フレーム画像と第二フレーム画像間の物体の移動距離が長くなるため、座標(x1,y1)の対応点である座標(x2max,y2max)は、座標(x1,y1)から離れた位置となる。したがって、物体の動きが速い場合に狭い検索領域であると、座標(x1,y1)の対応点である座標(x2max,y2max)が含まれず、適切なオプティカルフローが得られないという問題がある。 However, in the above-described prior art, when the movement of the object in the image is fast, the moving distance of the object between the first frame image and the second frame image becomes long, so the coordinates that are corresponding points of the coordinates (x1, y1) (X2max, y2max) is a position away from the coordinates (x1, y1). Therefore, when the object moves quickly, the narrow search region does not include the coordinates (x2max, y2max) corresponding to the coordinates (x1, y1), and thus there is a problem that an appropriate optical flow cannot be obtained.
また一方で、細密なオプティカルフローを得るには、第一フレーム画像の注目点周辺の局所的な特徴から、第二フレーム画像における対応点を決定しなければならないため、テンプレートのサイズは小さく設定する必要がある。したがって、物体の動きが速い場合に広い検索領域であると、サイズの小さなテンプレートに含まれる特徴量は比較的少ないため、相関値が同程度となる対応点候補が複数検出されてしまい、正確な対応点を決定できず、適切なオプティカルフローが得られないという問題がある。換言すれば、物体の動きが速くなるほど、適切なオプティカルフローを得られずに、物体の3次元構造を正確に推定できないという問題がある。 On the other hand, in order to obtain a fine optical flow, the corresponding points in the second frame image must be determined from local features around the point of interest in the first frame image, so the template size is set small. There is a need. Therefore, if the object movement is fast and the search area is wide, the feature amount included in the small template is relatively small, and multiple corresponding point candidates with the same correlation value are detected. There is a problem that a corresponding point cannot be determined and an appropriate optical flow cannot be obtained. In other words, there is a problem that the faster the movement of the object, the more accurate the optical flow cannot be obtained and the three-dimensional structure of the object cannot be estimated accurately.
この発明は、上述した従来技術による問題点を解消するため、フレーム画像の復元処理によって得られる動きボケ関数を用いて、簡単かつ高精度にオプティカルフローを算出して、物体の3次元構造推定の高品質化を図ることができるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体を提供することを目的とする。 In order to eliminate the above-described problems caused by the conventional technology, the present invention calculates an optical flow easily and with high accuracy using a motion blur function obtained by a frame image restoration process to estimate the three-dimensional structure of an object. It is an object of the present invention to provide an optical flow calculation device, an optical flow calculation method, an optical flow calculation program, and a recording medium that can achieve high quality.
上述した課題を解決し、目的を達成するため、この発明にかかるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体は、カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出し、前記第1のフレーム画像に関する画像復元処理により、抽出された注目点に関する動きボケ関数を算出し、算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出し、算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出し、算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定することを特徴とする。 In order to solve the above-described problems and achieve the object, an optical flow calculation device, an optical flow calculation method, an optical flow calculation program, and a recording medium according to the present invention are provided in an arbitrary sequence of frame images input from a camera. An arbitrary attention point is extracted from the first frame image, and a motion blur function related to the extracted attention point is calculated by image restoration processing related to the first frame image. Based on a blur function, an intra-frame motion vector of the point of interest in the first frame image is calculated, and based on the calculated intra-frame motion vector and the integration time and frame interval time of the camera, Between the first frame image and the second frame image next to the first frame image. The inter-frame motion vector of the target point is calculated, the motion vector between the calculated frame and determining the optical flow of the point of interest that.
この発明によれば、第1のフレーム画像を用いるだけで、注目点における第2のフレーム画像間とのフレーム間動きベクトルを算出し、オプティカルフローを決定することができる。 According to the present invention, the inter-frame motion vector between the second frame images at the point of interest can be calculated and the optical flow can be determined only by using the first frame image.
また、上記発明において、前記第2のフレーム画像から前記注目点に対応する対応点候補を抽出し、算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定し、抽出された対応点候補と、推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定し、決定された対応点に基づいて、前記注目点のオプティカルフローを決定することとしてもよい。 Further, in the above invention, corresponding point coordinates corresponding to the attention point are extracted from the second frame image by extracting a corresponding point candidate corresponding to the attention point and based on the calculated inter-frame motion vector. The corresponding point corresponding to the attention point is determined based on the extracted corresponding point candidate and the estimated corresponding point coordinates, and the optical flow of the attention point is determined based on the determined corresponding point. May be determined.
この発明によれば、第2のフレーム画像から抽出された対応点候補と、第1のフレーム画像から推定された対応点座標とに基づいて、注目点に対応する対応点を決定して、高精度に注目点のオプティカルフローを決定することができる。 According to the present invention, the corresponding point corresponding to the target point is determined based on the corresponding point candidate extracted from the second frame image and the corresponding point coordinates estimated from the first frame image. It is possible to determine the optical flow of the attention point with respect to accuracy.
本発明にかかるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体によれば、フレーム間動きベクトルによって注目点のオプティカルフローを決定できるため、簡単かつ高精度にオプティカルフローを算出して、物体の3次元構造推定の高品質化を図ることができるという効果を奏する。 According to the optical flow calculation device, the optical flow calculation method, the optical flow calculation program, and the recording medium according to the present invention, the optical flow at the point of interest can be determined by the inter-frame motion vector, so that the optical flow can be calculated easily and with high accuracy. Thus, there is an effect that the quality of the three-dimensional structure estimation of the object can be improved.
以下に添付図面を参照して、この発明にかかるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体の好適な実施の形態を詳細に説明する。 Exemplary embodiments of an optical flow calculation device, an optical flow calculation method, an optical flow calculation program, and a recording medium according to the present invention will be described below in detail with reference to the accompanying drawings.
(実施の形態1)
(オプティカルフロー算出の概要)
まず、図1〜図4を用いて、この発明の実施の形態にかかるオプティカルフロー算出の概要について説明する。図1は、この発明の実施の形態にかかるフレーム内動きベクトルの概要を示す説明図である。
(Embodiment 1)
(Outline of optical flow calculation)
First, the outline of optical flow calculation according to the embodiment of the present invention will be described with reference to FIGS. FIG. 1 is an explanatory diagram showing an outline of an intra-frame motion vector according to an embodiment of the present invention.
図1において、図示しない撮像部などによって入力されるフレーム画像内の物体の像101は、矢印102の方向にボケを含んで記録される。より具体的には、たとえば、撮像部によって入力されるフレーム画像内の物体の像101は、所定時間積分された各画素の輝度値を有しているため、単一フレーム画像内においてもボケを含んで記録されることとなる。
In FIG. 1, an
フレーム内動きボケ関数104は、PSF105(Point Spread Function(ボケ関数))と、フレーム内動きベクトル106とがコンボリューション(たたみ込み積分)されたものである。ここで、PSF105は、撮像部などがあらかじめ有しているものであり、撮像部の特性などに基づいて既知である構成でもよい。また、フレーム内動きベクトル106は、撮像部によってフレーム画像内の各画素の輝度値が積分される所定時間における、物体の動きベクトルである。
The intra-frame
復元像103は、フレーム画像内の物体が静止していた場合に得られる真の物体像などであり、ボケを含んだフレーム画像内の物体の像101について画像復元処理をおこなうことで、復元像103と、フレーム内動きボケ関数104を得ることができる。
The restored
つぎに、フレーム内動きベクトル106の算出の概要について説明する。撮像部などによって入力されるフレーム画像内の物体の像101における座標をg(x,y)とすると、g(x,y)は、f(x,y)をフレーム画像内の物体が静止していた場合に得られる真の物体像(復元像103)、h(x,y)をフレーム内動きボケ関数104、n(x,y)をノイズとして、下記式(1)によってあらわすことができる。
Next, an outline of calculation of the
g(x,y)=f(x,y)*h(x,y)+n(x,y)・・・(1) g (x, y) = f (x, y) * h (x, y) + n (x, y) (1)
ここで、『*』はコンボリュージョン(たたみ込み積分)をあらわし、g(x,y)から、公知の画像復元処理によって、f(x,y)、h(x,y)を得ることができる。以下に、AD(Ayers Dainty)法による画像復元処理の手順の概要を説明する。 Here, “*” represents convolution (convolution integration), and f (x, y) and h (x, y) can be obtained from g (x, y) by a known image restoration process. it can. The outline of the procedure of image restoration processing by the AD (Ayer's Dainty) method will be described below.
AD法による画像復元処理は、下記手順(1)〜手順(11)によっておこなう。
・手順(1):G(u,v)=FFT[g(x,y)]
・手順(2):F’(u,v)=FFT[f’(x,y)](初期f’(x,y)はランダム画像)
・手順(3):H(u,v)=G(u,v)/(F’(u,v)+sn)(ここで、snは撮像部におけるS/Nである。)
・手順(4):h(x,y)=IFFT[H(u,v)]
・手順(5):もし、h(x,y)>0ならh’(x,y)=h(x,y)、それ以外はh’(x,y)=0
・手順(6):H’(u,v)=FFT[h’(x,y)]
・手順(7):F(u,v)=G(u,v)/(H’(u,v)+sn)
・手順(8):f(x,y)=IFFT[F(u,v)]
・手順(9):もし、f(x,y)>0ならf’(x,y)=f(x,y)、それ以外はf’(x,y)=0
・手順(10):手順(2)〜手順(9)をあらかじめ決められた回数繰り返す。
・手順(11):各ループにおいて、下記式(2)に示すフーリエエラーが最小となるf’(x,y)、h’(x,y)をそれぞれ復元像103、フレーム内動きボケ関数104とする。
Image restoration processing by the AD method is performed by the following procedure (1) to procedure (11).
Procedure (1): G (u, v) = FFT [g (x, y)]
Procedure (2): F ′ (u, v) = FFT [f ′ (x, y)] (initial f ′ (x, y) is a random image)
Procedure (3): H (u, v) = G (u, v) / (F ′ (u, v) + sn) (where sn is S / N in the imaging unit)
Procedure (4): h (x, y) = IFFT [H (u, v)]
Procedure (5): If h (x, y)> 0, h ′ (x, y) = h (x, y), otherwise h ′ (x, y) = 0
Procedure (6): H ′ (u, v) = FFT [h ′ (x, y)]
Procedure (7): F (u, v) = G (u, v) / (H ′ (u, v) + sn)
Procedure (8): f (x, y) = IFFT [F (u, v)]
Procedure (9): If f (x, y)> 0, f ′ (x, y) = f (x, y), otherwise f ′ (x, y) = 0
Procedure (10): Procedure (2) to procedure (9) are repeated a predetermined number of times.
Procedure (11): In each loop, f ′ (x, y) and h ′ (x, y) that minimize the Fourier error shown in the following equation (2) are respectively restored
Error=Σ|G(u,v)−F’(u,v)×H’(u,v)|・・・(2) Error = Σ | G (u, v) −F ′ (u, v) × H ′ (u, v) | (2)
上述の手順(1)〜手順(11)により得たフレーム内動きボケ関数h’(x,y)は、撮像部などがあらかじめ有しているPSF105と、フレーム内動きベクトル106がコンボリューションされたものであり、PSF105をpsf(x,y)、フレーム内動きベクトル106をm(x,y)とすると、下記の式(3)によってあらわすことができる。
The intra-frame motion blur function h ′ (x, y) obtained by the above-described procedure (1) to procedure (11) is obtained by convolving the
h’(x,y)=psf(x,y)*m(x,y)・・・(3) h ′ (x, y) = psf (x, y) * m (x, y) (3)
この式(3)より、h’(x,y)を既知のpsf(x,y)を用いてデコンボリューションすることにより、フレーム画像内の物体の像101における積分時間内のフレーム内動きベクトル106を算出することができる。
From this equation (3), by deconvoluting h ′ (x, y) using known psf (x, y), the
つづいて、図2−1〜図2−3を用いて、この発明の実施の形態にかかるフレーム間動きベクトルの算出の概要について説明する。図2−1は、この発明の実施の形態にかかる第一フレーム画像を示す説明図である。また、図2−2は、この発明の実施の形態にかかる第二フレーム画像を示す説明図である。 Next, an outline of calculation of the inter-frame motion vector according to the embodiment of the present invention will be described with reference to FIGS. FIGS. 2-1 is explanatory drawing which shows the 1st frame image concerning embodiment of this invention. FIGS. FIG. 2-2 is an explanatory diagram showing a second frame image according to the embodiment of the present invention.
図2−1において、オプティカルフロー算出装置に入力された第一フレーム画像210は、相対的に移動する複数の矩形の物体を撮像したフレーム画像であり、複数の物体の像214〜216を含んでいる。相対的な移動は、より具体的には、撮像する装置あるいは撮像される物体の少なくともいずれかが移動することである。図2−1において、物体の像214〜216は、たとえば、図1で前述したように、フレーム画像内において、PSFとフレーム内動きベクトルを有している。したがって、第1フレーム画像210において、図示のように右上から左下へのフレーム内動きベクトルによって、矩形ではなく六角形に類似した形状となっている。また、物体の像214〜216は、それぞれの中心を注目点211〜213としている。また、図2−2において、オプティカルフロー算出装置に入力された第二フレーム画像220は、図2−1で前述した第一フレーム画像210と連続するフレーム画像で、物体の像214〜216に対応する物体の像224〜226を含んでいる。図2−2において、物体の像224〜226は、たとえば、前述した物体の像224〜226と同様に、フレーム画像内でPSFとフレーム内動きベクトルを有しているため、六角形に類似した形状となっている。また、物体の像224〜226は、それぞれの中心を対応点候補221〜223としている。
2A, a
つぎに、図2−3を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置における第一フレーム画像210と第二フレーム画像220の間のフレーム間動きベクトルについて説明する。図2−3は、この発明の実施の形態にかかるフレーム間動きベクトルを示す説明図である。
Next, an inter-frame motion vector between the
図2−3は、前述の第一フレーム画像210と第2フレーム画像220を同一図面上に示したもので、注目点211〜213は、注目点211〜213のそれぞれを基点とするフレーム間動きベクトル231〜233を有している。これらフレーム間動きベクトル231〜233は、たとえば、図1で前述したフレーム内動きベクトルの算出によって算出された第一フレーム画像210における、注目点211〜213のフレーム内動きベクトルに基づいて算出することができる。
FIG. 2-3 shows the
より具体的には、たとえば、第一フレーム画像210と第二フレーム画像220の間のフレーム間隔時間は、ごく短いものである(たとえば33ミリ秒)ため、物体の動きを等速運動と仮定することができる。そして、第一フレーム画像210から第二フレーム画像220までの注目点211〜213の動きであるフレーム間動きベクトル231〜233は、第一フレーム画像210における注目点211〜213のフレーム内動きベクトルを(フレーム間隔時間/積分時間)倍して算出する。
More specifically, for example, since the frame interval time between the
ここで、図3−1および図3−2を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置によるオプティカルフロー算出について説明する。この発明の実施の形態にかかるオプティカルフローの算出は、図2−1〜図2−3で説明したフレーム間動きベクトルと、相関マップとを用いておこなう構成としている。図3−1は、この発明の実施の形態にかかる対応点候補の抽出について示す説明図である。なお、図3−1の説明においては、図2−1〜図2−3で前述した注目点211と、対応点候補221〜223を用いて説明する。
Here, the optical flow calculation by the optical flow calculation apparatus according to the embodiment of the present invention will be described with reference to FIGS. 3A and 3B. The optical flow according to the embodiment of the present invention is calculated using the inter-frame motion vector and the correlation map described with reference to FIGS. FIG. 3A is an explanatory diagram of extraction of corresponding point candidates according to the embodiment of the present invention. 3A will be described using the
図3−1において、相関マップ300は、注目点211の座標を中心とする検索領域310内に、対応点候補221〜223に関する相関値の相関ピーク301〜303を垂直方向に示している。相関マップ300の作成は、たとえば、検索領域310をラスタスキャンしながら、注目点211を含む微小領域を切り出したテンプレートの画素値と所定値以上となる相関値を算出して、対応点候補221〜223に関する相関ピーク301〜303を抽出する構成でもよい。テンプレートは、たとえば、図示はしないが、注目点211を中心とした矩形の領域などである。
3A, the
相関ピーク301〜303における相関値は、より具体的には、第一フレーム画像210内の注目点211を含むテンプレートの画素値と、第二フレーム画像220内における検索領域310内の対応点候補221〜223を中心とした微小領域の画素値の相関値で、各画素値の差のRMS(二乗平均平方根)を算出して得ることができる。
More specifically, the correlation values at the correlation peaks 301 to 303 include the pixel value of the template including the
ここで、相関ピーク301〜303の算出は、ノイズなどの影響によって注目点211におけるテンプレートとの正確な相関関係が反映されない場合がある。図3−1において、相関ピーク301〜303の中で最大ピークは、対応点候補222における相関ピーク302である。注目点211におけるテンプレートに対する相関ピーク301〜303の中で、相関値が最大となる対応点候補222を注目点211に対応する対応点とすると、点線304が注目点211のオプティカルフローとなる。
Here, the calculation of the correlation peaks 301 to 303 may not reflect the exact correlation with the template at the point of
一方で、図2−1〜図2−3で前述した注目点211を基点とするフレーム間動きベクトル231の終点は対応点候補221である。この発明の実施の形態によれば、相関ピーク301〜303の中から、フレーム間動きベクトル231に近接した対応点候補221を注目点211に対応する対応点に決定する構成でもよい。したがって、図3−1では、対応点候補221を注目点211に対応する対応点に決定して、フレーム間動きベクトル231が注目点211のオプティカルフローとなる。なお、図3−1の説明では、フレーム間動きベクトル231の終点と対応点候補221を同一な位置として説明したが、フレーム間動きベクトル231の終点近傍にある対応点候補221〜223を、注目点211に対応する対応点に決定する構成としてもよい。
On the other hand, the end point of the
つづいて、図3−2を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置による対応点の決定について説明する。図3−2は、この発明の実施の形態にかかる対応点の決定について示す説明図である。 Next, determination of corresponding points by the optical flow calculation apparatus according to the embodiment of the present invention will be described with reference to FIG. 3-2 is explanatory drawing shown about determination of the corresponding point concerning embodiment of this invention.
図3−2において、注目点211〜213は、図2−1〜図2−3で前述したフレーム間動きベクトル231〜233の基点となっている。また、図3−2では、注目点211を基点としたフレーム間動きベクトルの終点は、対応点候補221である。そして、注目点212を基点としたフレーム間動きベクトルの終点は、対応点候補222である。同様に、注目点213を基点としたフレーム間動きベクトルの終点は、対応点候補223である。なお、図3−2では、フレーム間動きベクトル231〜233の終点と対応点候補221〜223を同一な位置として説明しているが、対応点候補221〜223は、相関マップの作成によって抽出するものでもよく、フレーム間動きベクトル231〜233の終点近傍にあることとしてもよい。
3-2, attention points 211 to 213 are base points of the
ここで、注目点211の座標を中心とする検索領域310は、対応点候補221〜223を含んでおり、注目点211との相関値が最も高い対応点候補221〜223は、図3−1で前述したように、注目点211から点線304方向に位置する対応点候補222である。一方で、第一フレーム画像210における注目点211は、第二フレーム画像220内では、フレーム間動きベクトル231の方向へ移動したものとされる。したがって、図3−2においては、対応点候補222は注目点211に対して相関値は高いものの、ノイズなどによる最大ピークを示したものであり、対応点候補221を注目点211の対応点に決定する。
Here, the search area 310 centered on the coordinates of the point of
同様にして、注目点212に対応する対応点は、対応点候補222とし、注目点213に対応する対応点は、対応点候補223と決定する。そして、本実施の形態では、注目点211〜213と、注目点211〜213に対応する対応点との関係に基づいてオプティカルフローを算出することができる。なお、注目点211〜213は、3点に限ることはなく、任意の各画素についてオプティカルフローを算出することとしてもよい。
Similarly, the corresponding point corresponding to the
(オプティカルフロー算出装置のハードウェア構成)
つぎに、図4を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置のハードウェア構成について説明する。図4は、この発明の実施の形態にかかるオプティカルフロー算出装置のハードウェア構成を示すブロック図である。
(Hardware configuration of optical flow calculation device)
Next, the hardware configuration of the optical flow calculation apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 4 is a block diagram showing a hardware configuration of the optical flow calculation apparatus according to the embodiment of the present invention.
図4において、オプティカルフロー算出装置は、CPU401と、ROM402と、RAM403と、HDD(ハードディスクドライブ)404と、HD(ハードディスク)405と、FDD(フレキシブルディスクドライブ)406と、着脱可能な記録媒体の一例としてのFD(フレキシブルディスク)407と、ディスプレイ408と、通信I/F(インターフェース)409と、キーボード410と、マウス411と、映像I/F412と、カメラ413と、を備えている。また、各構成部はバス400によってそれぞれ接続されている。
In FIG. 4, the optical flow calculation apparatus includes an example of a
ここで、CPU401は、オプティカルフロー算出装置の全体の制御を司る。ROM402は、ブートプログラムなどのプログラムを記憶している。RAM403は、CPU401のワークエリアとして使用される。HDD404は、CPU401の制御にしたがってHD405に対するデータのリード/ライトを制御する。HD405は、HDD404の制御で書き込まれたデータを記憶する。
Here, the
FDD406は、CPU401の制御にしたがってFD407に対するデータのリード/ライトを制御する。FD407は、FDD406の制御で書き込まれたデータを記憶したり、FD407に記憶されたデータをオプティカルフロー算出装置に読み取らせたりする。
The
また、着脱可能な記録媒体として、FD407のほか、CD−ROM(CD−R、CD−RW)、MO、DVD(Digital Versatile Disk)、メモリカードなどであってもよい。ディスプレイ408は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する。このディスプレイ408は、たとえば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。
In addition to the
通信I/F409は、通信回線を通じてインターネットなどのネットワーク414に接続され、このネットワーク414を介して他の装置に接続される。そして、通信I/F409は、ネットワーク414と内部のインターフェースを司り、外部装置からのデータの入出力を制御する。通信I/F409には、たとえばモデムやLANアダプタなどを採用することができる。
The communication I /
キーボード410は、文字、数字、各種指示などの入力のためのキーを備え、押下されたキーに対応するデータを装置内部へ入力する。また、タッチパネル式の入力パッドやテンキーなどであってもよい。また、マウス411を操作することで、マウス411の本体下部の移動を検出するセンサによる出力および本体上部の各ボタンのON/OFFを随時装置内部へ入力して、カーソルの移動や範囲選択、あるいはウィンドウの移動やサイズの変更などをおこなってもよい。なお、ポインティングデバイスとして同様に機能を備えるものであれば、トラックボールやジョイスティックなどであってもよい。
The
また、映像I/F412は、カメラ413と接続される。映像I/F412は、カメラ413全体の制御をおこなう制御ICと、カメラ413によって撮影されたフレーム画像を一時的に記録するVRAM(Video RAM)などのバッファメモリなどによって構成される。また、バッファメモリは、複数のフレームバッファを有する構成でもよく、たとえば、2つのフレームバッファにより、後述するカメラ413によって撮影されるフレーム画像を交互に格納することとしてもよい。そして、カメラ413によって撮影されたフレーム画像について、オプティカルフロー算出装置の各構成への入出力を制御する構成でもよい。
The video I /
カメラ413は、被写体を撮影して連続する一連のフレーム画像として取り込む。カメラ413は、モノクロやカラーのどちらでもよく、ビデオカメラなどによって構成され、C−MOS(Complementary Metal Oxide Semiconductor)あるいはCCD(Charge Coupled Device)などの光電変換素子を有している。
The
また、カメラ413は、USB(Universal Serial Bus)やIEEE1394(Institute of Electrical and Electronic Engineers 1394)などによって映像I/F412と接続されており、撮影したフレーム画像を、映像I/F412を介して逐次オプティカルフロー算出装置へ出力する構成としてもよい。
The
(オプティカルフロー算出装置の機能的構成)
つぎに、図5を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置の機能的構成について説明する。図5は、この発明の実施の形態にかかるオプティカルフロー算出装置の機能的構成を示すブロック図である。図5において、オプティカルフロー算出装置500は、フレーム画像取得部501と、第一フレーム画像保持部502と、テンプレート切り出し部503と、フレーム画像復元部504と、フレーム内動きベクトル算出部505と、フレーム間動きベクトル算出部506と、対応点座標推定部507と、オプティカルフロー決定部508と、第二フレーム画像保持部509と、相関マップ生成部510と、対応点候補抽出部511と、抽出しきい値指定部512と、対応点決定部513と、から構成されている。
(Functional configuration of optical flow calculation device)
Next, the functional configuration of the optical flow calculation apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 5 is a block diagram showing a functional configuration of the optical flow calculation apparatus according to the embodiment of the present invention. In FIG. 5, an optical
図5において、フレーム画像取得部501は、撮像部514と、増幅部515と、A/D(アナログ/デジタル)変換部516と、から構成されている。撮像部514によって撮像された一連のフレーム画像の画像信号は、増幅部515に出力される。増幅部515は、入力されたフレーム画像の画像信号を増幅し、A/D変換部516へ出力する。A/D変換部516は、入力されたフレーム画像の画像信号を変換してデジタル画像信号として第一フレーム画像保持部502や第二フレーム画像保持部509へ出力する。なお、このフレーム画像取得部501における撮像部514、増幅部515、A/D変換部516は、具体的には、たとえば、図4に示した映像I/F412やカメラ413によって、その機能を実現する。
In FIG. 5, the frame
第一フレーム画像保持部502や第二フレーム画像保持部509は、フレーム画像取得部501から随時連続して入力される2フレームのフレーム画像が記録される。図5の説明においては、第一フレーム画像保持部502は、第一フレーム画像210を保持し、第二フレーム画像保持部509は、第一フレーム画像210に連続する第二フレーム画像220を保持する構成である。なお、第一フレーム画像保持部502や第二フレーム画像保持部509は、具体的には、たとえば、図4で示した映像I/F412におけるバッファメモリや、HD405や、RAM403や、その他メモリなどによって、その機能を実現する。
The first frame
テンプレート切り出し部503は、第一フレーム画像保持部502によって保持された、第一フレーム画像210における注目点211の座標を中心としたテンプレートを切り出す。テンプレートは、たとえば、注目点211を中心とした、物体の像214を含む矩形の領域などである。なお、図5における説明では、注目点211に関して説明をするが、注目点211に限るものではなく、たとえば、テンプレート切り出し部503は、第一フレーム画像210から任意の点を注目点211として抽出し、テンプレートを切り出してもよい。
The
フレーム画像復元部504は、テンプレート切り出し部503によって切り出されたテンプレートに対して、画像復元処理をおこなって、復元画像とフレーム内動きボケ関数に分離する。画像復元処理は、たとえば、前述のAD法による方式でもよく、所定の回数だけ画像復元処理をおこなって、フーリエエラーが最小となる復元画像とフレーム内動きボケ関数に分離する構成でもよい。
The frame
フレーム内動きベクトル算出部505は、フレーム画像復元部504によって分離されたフレーム内動きボケ関数と、フレーム画像取得部501のボケ関数とに基づいて、第一フレーム画像210内の注目点211のフレーム内動きベクトルを算出する。より具体的には、図1を参照すると、フレーム画像復元部504によって分離されたフレーム内動きボケ関数104は、フレーム画像取得部501のPSF105(Point Spread Function(ボケ関数))とフレーム内動きベクトル106がコンボリューションされたものである。したがって、フレーム内動きベクトル算出部505は、フレーム内動きボケ関数104をフレーム画像取得部501のPSF105を用いてデコンボリューションして、フレーム内動きベクトル106を算出する。
The intra-frame motion
フレーム間動きベクトル算出部506は、フレーム内動きベクトル算出部505によって算出されたフレーム内動きベクトルと、積分時間およびフレーム間隔時間とに基づいて、フレーム間動きベクトルを算出する。積分時間は、フレーム画像内の輝度値を積分する所定時間であり、より具体的には、図2−1〜図2−3を参照すると、第一フレーム画像210における各画素の輝度値を積分する時間である。また、フレーム間隔時間は、連続する2フレーム画像間の時間であり、より具体的には、図2−1〜図2−3を参照すると、第一フレーム画像210と第二フレーム画像220との時間間隔である。積分時間およびフレーム間隔時間は、撮像部514の特性などによるもので、フレーム間動きベクトルの算出は、フレーム内動きベクトルを(フレーム間隔時間/積分時間)倍して算出することとしてもよい。
The inter-frame motion
対応点座標推定部507は、フレーム間動きベクトル算出部506によって算出されたフレーム間動きベクトルに基づいて、注目点211に対応する対応点となる対応点座標を推定する。より具体的には、たとえば、テンプレート切り出し部503によってテンプレートを切り出す際に用いた注目点211の座標に、フレーム間動きベクトルを加算して対応点座標を推定する。
The corresponding point coordinate
オプティカルフロー決定部508は、フレーム間動きベクトル算出部406によって算出されたフレーム間動きベクトルを、注目点211のオプティカルフローに決定する。また、オプティカルフロー決定部508は、対応点決定部513によって決定された対応点に基づいて、注目点211のオプティカルフローを決定する構成でもよい。より具体的には、たとえば、注目点211と、対応点から、注目点211のフレーム間動きベクトルを算出して、注目点211のオプティカルフローに決定する。なお、図5の説明では、注目点211に関して説明をおこなったが、第一フレーム画像210の他の座標を注目点としてオプティカルフローを決定することで、第一フレーム画像210内の各画素に対するオプティカルフローを得る構成でもよい。
The optical
相関マップ生成部510は、第二フレーム画像保持部509によって保持された第二フレーム画像220において、テンプレート切り出し部503によって切り出されたテンプレートの注目点211を中心とする検索領域310内の各領域との相関処理をおこなって、相関マップ300を生成する。より具体的には、たとえば、検索領域310内をラスタスキャンしながら、注目点211を含むテンプレートの画素値との相関値を算出して、相関値の分布図を生成する。相関値は、たとえば、テンプレートの画素値と、検索領域310内の各画素値の差のRMS(二乗平均平方根)などを算出して得ることができる。
The correlation
対応点候補抽出部511は、後述する抽出しきい値指定部512によって指定されたしきい値を用いて、相関マップ300における相関値から対応点候補221〜223の抽出をおこなう。より具体的には、たとえば、相関マップ300において、しきい値以上となる相関値をもつ相関ピーク301〜303の対応点候補221〜223を抽出する。
The corresponding point
抽出しきい値指定部512は、相関マップ300における注目点211に対する対応点候補221〜223を抽出する相関値のしきい値を指定する。しきい値は、たとえば、任意の値でもよく、ユーザにより設定できる構成としてもよい。
The extraction threshold
対応点決定部513は、対応点候補抽出部511によって抽出された対応点候補221〜223の中から、対応点座標推定部507によって推定された対応点座標に最も近い対応点候補221を注目点211に対応する対応点に決定する。
The corresponding
なお、図5において上述したテンプレート切り出し部503、フレーム画像復元部504、フレーム内動きベクトル算出部505、フレーム間動きベクトル算出部506、対応点座標推定部507、オプティカルフロー決定部508、相関マップ生成部510、対応点候補抽出部511、抽出しきい値指定部512、対応点決定部513は、具体的には、たとえば、図4に示したROM402、RAM403、HD405などの記録媒体に記録されたプログラムを、CPU401が実行することによって、また通信I/F409やキーボード410やマウス411によって、その機能を実現する。
Note that the
(オプティカルフロー算出装置500の処理の内容)
つぎに、図6を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置500の処理の内容について説明する。図6は、この発明の実施の形態にかかるオプティカルフロー算出装置の処理の内容を示すフローチャートである。図6のフローチャートにおいて、まず、オプティカルフロー算出装置500は、フレーム画像取得部501によって取得されたフレーム画像の入力を受け付けたか否かを判断する(ステップS601)。
(Contents of processing of optical flow calculation apparatus 500)
Next, the contents of the process of the optical
ステップS601において、フレーム画像の入力を受け付けるのを待って、受け付けた場合(ステップS601:Yes)は、第一フレーム画像保持部502および第二フレーム画像保持部509に、連続する2フレームのフレーム画像を記録する(ステップS602)。フレーム画像の記録は、たとえば、第一フレーム画像保持部502によって第一フレーム画像210を保持し、第二フレーム画像保持部509によって第二フレーム画像220を保持する。また、フレーム画像の保持は、連続して入力されるフレーム画像を交互に必要な容量分保持するものとして、上書きや消去を繰り返す構成としてもよい。
In step S601, waiting for the input of the frame image, and if received (step S601: Yes), the first frame
つぎに、オプティカルフロー算出装置500は、ステップS602において記録されたフレーム画像に基づいて、オプティカルフロー算出座標を算出する(ステップS603)。オプティカルフロー算出座標の算出は、第一フレーム画像保持部502に保持された第一フレーム画像210内における任意の点の座標を算出してもよく、具体的に本実施の形態では、注目点211の座標を算出する。
Next, the optical
つづいて、オプティカルフロー算出装置500は、ステップS603において算出されたオプティカルフロー算出座標に対応する対応点座標推定処理を実行する(ステップS604)。対応点座標推定処理は、たとえば、第一フレーム画像保持部502に保持された第一フレーム画像210内の注目点211に関するフレーム間動きベクトルに基づいておこなう構成であり、対応点座標推定処理の詳細は図7に後述する。
Subsequently, the optical
そして、オプティカルフロー算出装置500は、ステップS603において算出されたオプティカルフロー算出座標に対応する対応点候補抽出処理を実行する(ステップS605)。対応点候補抽出処理は、たとえば、第二フレーム画像保持部509に保持された第二フレーム画像220内において、注目点211に関する相関マップ300に基づいておこなう構成でもよく、対応点候補抽出処理の詳細は図8に後述する。
Then, the optical
なお、図6のフローチャートにおいては、ステップS604において対応点座標推定処理を実行して、ステップS605における対応点候補抽出処理を実行するものとしているが、処理の順序はこれに限るものではなく、たとえば、先に対応点候補抽出処理を実行して、その後対応点座標推定処理を実行したり、対応点座標推定処理と対応点候補抽出処理を同時に実行することとしてもよい。 In the flowchart of FIG. 6, the corresponding point coordinate estimation process is executed in step S604 and the corresponding point candidate extraction process in step S605 is executed. However, the order of the processes is not limited to this, for example, The corresponding point candidate extraction process may be executed first, and then the corresponding point coordinate estimation process may be executed, or the corresponding point coordinate estimation process and the corresponding point candidate extraction process may be executed simultaneously.
つぎに、対応点決定部513により、ステップS604において推定された対応点座標と、ステップS605において抽出された対応点候補とに基づいて、対応点を決定する(ステップS606)。より具体的に対応点の決定は、たとえば、ステップS605において抽出された対応点候補221〜223の中から、ステップS604において推定された対応点座標に最も近い対応点候補221を、注目点211に対応する対応点に決定する。
Next, a corresponding point is determined by the corresponding
つづいて、オプティカルフロー算出装置500は、オプティカルフローを算出する(ステップS607)。オプティカルフローの算出は、たとえば、ステップS606において決定された注目点211に対応する対応点に基づいておこなう。より具体的には、オプティカルフロー決定部508により、注目点211と、ステップS606において決定された対応点から、注目点211のフレーム間動きベクトルを算出して、注目点211のオプティカルフローに決定する。
Subsequently, the optical
なお、図6のフローチャートにおいては、ステップS607において、注目点211と、ステップS606において決定された対応点から、注目点211のフレーム間動きベクトルを算出して、注目点211のオプティカルフローに決定する構成としたが、図7に後述するステップS604の対応点座標推定処理において算出されるフレーム間動きベクトルに基づいて、オプティカルフローを決定する構成としてもよい。その場合、ステップS605における第二フレーム画像を用いた対応点候補抽出処理を実行することなく、第一フレーム画像のみで、オプティカルフローが決定できる。
In the flowchart of FIG. 6, in step S607, the inter-frame motion vector of the
そして、オプティカルフロー算出装置500は、すべてのオプティカルフローの算出が終了したか否かを判断する(ステップS608)。より具体的には、たとえば、オプティカルフロー決定部508により、第一フレーム画像210における注目点211の他の座標を注目点として、第一フレーム画像210内の各画素に対するオプティカルフローの決定が終了したか否かを判断する。
Then, the optical
ステップS608において、すべてのオプティカルフローの算出が終了していない場合(ステップS608:No)は、ステップS603に戻って処理を繰り返す。また、ステップS608において、すべてのオプティカルフローの算出が終了した場合(ステップS608:Yes)は、そのまま一連の処理を終了する。 In step S608, when calculation of all the optical flows has not been completed (step S608: No), the process returns to step S603 and is repeated. In step S608, when calculation of all optical flows has been completed (step S608: Yes), the series of processing ends.
つづいて、図7を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置500における対応点座標推定処理(図6のステップS604)の内容について説明する。図7は、この発明の実施の形態にかかる対応点座標推定処理(図6のステップS604)の内容を示すフローチャートである。
Next, the contents of the corresponding point coordinate estimation process (step S604 in FIG. 6) in the optical
図7のフローチャートにおいて、まず、テンプレート切り出し部503により、図6におけるステップS603において算出されたオプティカルフロー算出座標に基づいて、テンプレートを切り出す(ステップS701)。テンプレートの切り出しは、たとえば、前述したように、ステップS603において算出された注目点211の座標を中心とした所定領域のテンプレートを切り出すこととしてもよい。
In the flowchart of FIG. 7, first, the
つぎに、フレーム画像復元部504により、ステップS701において切り出されたテンプレートに対して、画像復元処理をおこなう(ステップS702)。画像復元処理は、たとえば、前述のAD法による方式でもよく、所定の回数だけ画像復元処理をおこなって、フーリエエラーが最小となる復元画像とフレーム内動きボケ関数に分離する構成でもよい。
Next, the frame
つづいて、フレーム内動きベクトル算出部505により、ステップS702において分離されたフレーム内動きボケ関数と、フレーム画像取得部501のボケ関数とに基づいて、フレーム内動きベクトルを算出する(ステップS703)。より具体的には、たとえば、フレーム内動きボケ関数をフレーム画像取得部501のボケ関数によりデコンボリューションして、第一フレーム画像210内の注目点211のフレーム内動きベクトルを算出する。
Subsequently, the intra-frame motion
そして、フレーム間動きベクトル算出部506により、ステップS703において算出されたフレーム内動きベクトルと、積分時間およびフレーム間隔時間とに基づいて、フレーム間動きベクトルを算出する(ステップS704)。フレーム間動きベクトルの算出は、より具体的には、フレーム内動きベクトルを(フレーム間隔時間/積分時間)倍して算出することとしてもよい。
Then, the inter-frame motion
つぎに、対応点座標推定部507により、ステップS704において算出されたフレーム間動きベクトルに基づいて、注目点211に対応する対応点となる対応点座標を推定する(ステップS705)。具体的には、たとえば、前述したように、ステップS701においてテンプレートを切り出した注目点211の座標に、フレーム間動きベクトルを加算して対応点座標を推定する。そして、図6におけるステップS604の対応点座標推定処理を終了して、ステップS605へ移行する。
Next, the corresponding point coordinate
さらに、図8を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置500における対応点候補抽出処理(図6のステップS605)の内容について説明する。図8は、この発明の実施の形態にかかる対応点候補抽出処理(図6のステップS605)の内容を示すフローチャートである。
Furthermore, the contents of the corresponding point candidate extraction process (step S605 in FIG. 6) in the optical
図8のフローチャートにおいて、まず、相関マップ生成部510により、相関処理座標を算出する(ステップS801)。相関処理座標の算出は、たとえば、前述したように、第二フレーム画像220において、注目点211と相関処理をおこなう座標を算出する構成でもよく、注目点211の座標を中心とする検索領域310内の任意の座標としてもよい。
In the flowchart of FIG. 8, first, correlation processing coordinates are calculated by the correlation map generation unit 510 (step S801). For example, as described above, the correlation processing coordinates may be calculated by calculating the coordinates for performing the correlation processing with the
つづいて、相関マップ生成部510により、ステップS801において算出された相関処理座標に基づいて、相関領域を切り出す(ステップS802)とともに、相関領域における相関値を算出する(ステップS803)。相関領域の切り出しは、たとえば、前述したように、相関処理座標を中心とした微小領域を切り出す構成でもよく、注目点211におけるテンプレートの画素値と、相関領域内の画素値の差のRMS(二乗平均平方根)などを相関値として算出してもよい。
Subsequently, the correlation
そして、相関マップ生成部510により、相関マップ300の生成が終了したか否かを判断する(ステップS804)。より具体的には、たとえば、検索領域310内をラスタスキャンしながら、相関値の算出が終了したか否かを判断する。ここで、相関マップ300の生成が終了していない場合(ステップS804:No)は、ステップS801に戻って処理を繰り返す。また、相関マップ300の生成が終了した場合(ステップS804:Yes)は、対応点候補抽出部511により、相関マップ300に対して、抽出しきい値指定部512によって指定された抽出しきい値を読み込む(ステップS805)。
Then, the correlation
つぎに、対応点候補抽出部511により、ステップS805において読み込まれた抽出しきい値を用いて、相関マップ300における相関値から対応点候補221〜223を抽出する(ステップS806)。より具体的には、たとえば、相関マップ300において、しきい値以上となる相関値をもつ相関ピーク301〜303の対応点候補221〜223を抽出する。そして、図6におけるステップS605の対応点候補抽出処理を終了して、ステップS606へ移行する。
Next, the corresponding point
このように、この発明の実施の形態によれば、注目点のフレーム間動きベクトルを算出し、算出されたフレーム間動きベクトルに基づいてオプティカルフローを決定することができる。したがって、単一のフレーム画像を用いるだけで、オプティカルフローを得ることができ、高速に移動する物体であっても、次フレーム画像に依存することなくオプティカルフローを算出し、物体の3次元構造推定の高品質化を図ることができる。 As described above, according to the embodiment of the present invention, the inter-frame motion vector of the target point can be calculated, and the optical flow can be determined based on the calculated inter-frame motion vector. Therefore, an optical flow can be obtained simply by using a single frame image, and even if the object moves at high speed, the optical flow is calculated without depending on the next frame image, and the three-dimensional structure of the object is estimated. The quality can be improved.
また、対応点座標推定処理によって対応点座標を推定する。そして、対応点候補抽出処理によって抽出された対応点候補の中から、推定された対応点座標に近いものを対応点に決定してオプティカルフローを算出することができる。したがって、検索領域内に類似した輝度分布をもつ領域が複数あっても、正確な対応点を決定して、簡単かつ高精度にオプティカルフローを算出し、物体の3次元構造推定の高品質化を図ることができる。 Corresponding point coordinates are estimated by corresponding point coordinate estimation processing. Then, from the corresponding point candidates extracted by the corresponding point candidate extraction process, the one close to the estimated corresponding point coordinates is determined as the corresponding point, and the optical flow can be calculated. Therefore, even if there are multiple regions with similar luminance distributions in the search region, the exact corresponding points are determined, the optical flow is calculated easily and with high accuracy, and the quality of the three-dimensional structure estimation of the object is improved. Can be planned.
以上説明したように、この発明によれば、フレーム間動きベクトルによって注目点のオプティカルフローを決定できるため、簡単かつ高精度にオプティカルフローを算出して、物体の3次元構造推定の高品質化を図ることができる。 As described above, according to the present invention, since the optical flow at the point of interest can be determined by the inter-frame motion vector, the optical flow can be calculated easily and with high accuracy to improve the quality of the three-dimensional structure estimation of the object. Can be planned.
なお、本実施の形態で説明したオプティカルフロー算出方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The optical flow calculation method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The program may be a transmission medium that can be distributed via a network such as the Internet.
(付記1)カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出する注目点抽出手段と、
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出手段によって抽出された注目点に関する動きボケ関数を算出する動きボケ関数算出手段と、
前記動きボケ関数算出手段によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出するフレーム内動きベクトル算出手段と、
前記フレーム内動きベクトル算出手段によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出するフレーム間動きベクトル算出手段と、
前記フレーム間動きベクトル算出手段によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定するオプティカルフロー決定手段と、
を備えることを特徴とするオプティカルフロー算出装置。
(Supplementary note 1) Attention point extraction means for extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating unit that calculates a motion blur function related to the target point extracted by the target point extracting unit by the image restoration processing related to the first frame image;
Intraframe motion vector calculation means for calculating an intraframe motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation means and the blur function of the camera. When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculating means, and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculating means for calculating an inter-frame motion vector of the point of interest between the frame image of
Optical flow determination means for determining the inter-frame motion vector calculated by the inter-frame motion vector calculation means as the optical flow of the target point;
An optical flow calculation device comprising:
(付記2)前記第2のフレーム画像から前記注目点に対応する対応点候補を抽出する対応点候補抽出手段と、
前記フレーム間動きベクトル算出手段によって算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定する対応点座標推定手段と、
前記対応点候補抽出手段によって抽出された対応点候補と、前記対応点座標推定手段によって推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定する対応点決定手段と、を備え、
前記オプティカルフロー決定手段は、
前記対応点決定手段によって決定された対応点に基づいて、前記注目点のオプティカルフローを決定することを特徴とする付記1に記載のオプティカルフロー算出装置。
(Supplementary Note 2) Corresponding point candidate extracting means for extracting a corresponding point candidate corresponding to the attention point from the second frame image;
Corresponding point coordinate estimating means for estimating corresponding point coordinates that become corresponding points corresponding to the point of interest based on the inter-frame motion vector calculated by the inter-frame motion vector calculating means;
A corresponding point determining unit that determines a corresponding point corresponding to the point of interest based on the corresponding point candidate extracted by the corresponding point candidate extracting unit and the corresponding point coordinate estimated by the corresponding point coordinate estimating unit; With
The optical flow determining means includes
The optical flow calculation apparatus according to appendix 1, wherein the optical flow of the attention point is determined based on the corresponding points determined by the corresponding point determination means.
(付記3)カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出する注目点抽出工程と、
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出工程によって抽出された注目点に関する動きボケ関数を算出する動きボケ関数算出工程と、
前記動きボケ関数算出工程によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出するフレーム内動きベクトル算出工程と、
前記フレーム内動きベクトル算出工程によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出するフレーム間動きベクトル算出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定するオプティカルフロー決定工程と、
を含むことを特徴とするオプティカルフロー算出方法。
(Supplementary Note 3) An attention point extraction step of extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating step of calculating a motion blur function related to the attention point extracted by the attention point extraction step by the image restoration processing related to the first frame image;
An intra-frame motion vector calculation step of calculating an intra-frame motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation step and the blur function of the camera When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculation step and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculation step of calculating an inter-frame motion vector of the point of interest between the frame image of
An optical flow determination step of determining an inter-frame motion vector calculated by the inter-frame motion vector calculation step as an optical flow of the attention point;
An optical flow calculation method comprising:
(付記4)前記第2のフレーム画像から前記注目点に対応する対応点候補を抽出する対応点候補抽出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定する対応点座標推定工程と、
前記対応点候補抽出工程によって抽出された対応点候補と、前記対応点座標推定工程によって推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定する対応点決定工程と、を含み、
前記オプティカルフロー決定工程は、
前記対応点決定工程によって決定された対応点に基づいて、前記注目点のオプティカルフローを決定することを特徴とする付記3に記載のオプティカルフロー算出方法。
(Supplementary Note 4) A corresponding point candidate extracting step of extracting a corresponding point candidate corresponding to the target point from the second frame image;
A corresponding point coordinate estimating step for estimating a corresponding point coordinate to be a corresponding point corresponding to the target point based on the inter-frame motion vector calculated by the inter-frame motion vector calculating step;
A corresponding point determining step for determining a corresponding point corresponding to the point of interest based on the corresponding point candidate extracted by the corresponding point candidate extracting step and the corresponding point coordinate estimated by the corresponding point coordinate estimating step; Including
The optical flow determination step includes
4. The optical flow calculation method according to appendix 3, wherein the optical flow of the attention point is determined based on the corresponding points determined in the corresponding point determination step.
(付記5)カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出させる注目点抽出工程と、
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出工程によって抽出された注目点に関する動きボケ関数を算出させる動きボケ関数算出工程と、
前記動きボケ関数算出工程によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出させるフレーム内動きベクトル算出工程と、
前記フレーム内動きベクトル算出工程によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出させるフレーム間動きベクトル算出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定させるオプティカルフロー決定工程と、
をコンピュータに実行させることを特徴とするオプティカルフロー算出プログラム。
(Supplementary Note 5) An attention point extraction step of extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating step of calculating a motion blur function related to the attention point extracted by the attention point extraction step by the image restoration processing related to the first frame image;
An intra-frame motion vector calculation step of calculating an intra-frame motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation step and the blur function of the camera When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculation step and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculation step of calculating an inter-frame motion vector of the point of interest between the frame image of
An optical flow determination step of determining the inter-frame motion vector calculated by the inter-frame motion vector calculation step as the optical flow of the attention point;
An optical flow calculation program for causing a computer to execute.
(付記6)前記第2のフレーム画像から前記注目点に対応する対応点候補を抽出させる対応点候補抽出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定させる対応点座標推定工程と、
前記対応点候補抽出工程によって抽出された対応点候補と、前記対応点座標推定工程によって推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定させる対応点決定工程と、をコンピュータに実行させ、
前記オプティカルフロー決定工程は、
さらに、前記対応点決定工程によって決定された対応点に基づいて、前記注目点のオプティカルフローを決定させることを特徴とする付記5に記載のオプティカルフロー算出プログラム。
(Supplementary Note 6) A corresponding point candidate extracting step of extracting a corresponding point candidate corresponding to the target point from the second frame image;
A corresponding point coordinate estimating step for estimating a corresponding point coordinate to be a corresponding point corresponding to the target point based on the inter-frame motion vector calculated by the inter-frame motion vector calculating step;
A corresponding point determining step for determining a corresponding point corresponding to the point of interest based on the corresponding point candidate extracted by the corresponding point candidate extracting step and the corresponding point coordinate estimated by the corresponding point coordinate estimating step; To the computer,
The optical flow determination step includes
Furthermore, the optical flow calculation program according to appendix 5, wherein the optical flow of the attention point is determined based on the corresponding points determined in the corresponding point determination step.
(付記7)付記4〜6のいずれか一つに記載のオプティカルフロー算出プログラムを記録したコンピュータに読み取り可能な記録媒体。 (Supplementary note 7) A computer-readable recording medium in which the optical flow calculation program according to any one of supplementary notes 4 to 6 is recorded.
以上のように、本発明にかかるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体は、2次元に投影された画像から、画像中の物体の3次元構造の推定などに用いるオプティカルフローの算出に有用であり、特に、車両や航空機など、高速に移動する物体の動画像に関するオプティカルフローを算出する場合や、航空機など高速に移動するプラットフォームに設置された撮像部によって撮像された動画像に関するオプティカルフローを算出する場合に適している。 As described above, the optical flow calculation device, the optical flow calculation method, the optical flow calculation program, and the recording medium according to the present invention are used for estimating a three-dimensional structure of an object in an image from a two-dimensionally projected image. It is useful for calculating optical flow, especially when calculating optical flow related to moving images of fast moving objects such as vehicles and airplanes, and for images taken by imaging units installed on high-speed moving platforms such as aircraft. This is suitable for calculating an optical flow related to a moving image.
400 バス
401 CPU
402 ROM
403 RAM
404 HDD
405 HD
406 FDD
407 FD
408 ディスプレイ
409 通信I/F
410 キーボード
411 マウス
412 映像I/F
413 カメラ
500 オプティカルフロー算出装置
501 フレーム画像取得部
502 第一フレーム画像保持部
503 テンプレート切り出し部
504 フレーム画像復元部
505 フレーム内動きベクトル算出部
506 フレーム間動きベクトル算出部
507 対応点座標推定部
508 オプティカルフロー決定部
509 第二フレーム画像保持部
510 相関マップ生成部
511 対応点候補抽出部
512 抽出しきい値指定部
513 対応点決定部
514 撮像部
515 増幅部
516 A/D変換部
400
402 ROM
403 RAM
404 HDD
405 HD
406 FDD
407 FD
408
410
Claims (5)
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出手段によって抽出された注目点に関する動きボケ関数を算出する動きボケ関数算出手段と、
前記動きボケ関数算出手段によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出するフレーム内動きベクトル算出手段と、
前記フレーム内動きベクトル算出手段によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出するフレーム間動きベクトル算出手段と、
前記フレーム間動きベクトル算出手段によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定するオプティカルフロー決定手段と、
を備えることを特徴とするオプティカルフロー算出装置。 Attention point extracting means for extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating unit that calculates a motion blur function related to the target point extracted by the target point extracting unit by the image restoration processing related to the first frame image;
Intraframe motion vector calculation means for calculating an intraframe motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation means and the blur function of the camera. When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculating means, and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculating means for calculating an inter-frame motion vector of the point of interest between the frame image of
Optical flow determination means for determining the inter-frame motion vector calculated by the inter-frame motion vector calculation means as the optical flow of the target point;
An optical flow calculation device comprising:
前記フレーム間動きベクトル算出手段によって算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定する対応点座標推定手段と、
前記対応点候補抽出手段によって抽出された対応点候補と、前記対応点座標推定手段によって推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定する対応点決定手段と、を備え、
前記オプティカルフロー決定手段は、
前記対応点決定手段によって決定された対応点に基づいて、前記注目点のオプティカルフローを決定することを特徴とする請求項1に記載のオプティカルフロー算出装置。 Corresponding point candidate extracting means for extracting corresponding point candidates corresponding to the point of interest from the second frame image;
Corresponding point coordinate estimating means for estimating corresponding point coordinates that become corresponding points corresponding to the point of interest based on the inter-frame motion vector calculated by the inter-frame motion vector calculating means;
A corresponding point determining unit that determines a corresponding point corresponding to the point of interest based on the corresponding point candidate extracted by the corresponding point candidate extracting unit and the corresponding point coordinate estimated by the corresponding point coordinate estimating unit; With
The optical flow determining means includes
The optical flow calculation apparatus according to claim 1, wherein the optical flow of the attention point is determined based on the corresponding point determined by the corresponding point determination unit.
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出工程によって抽出された注目点に関する動きボケ関数を算出する動きボケ関数算出工程と、
前記動きボケ関数算出工程によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出するフレーム内動きベクトル算出工程と、
前記フレーム内動きベクトル算出工程によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出するフレーム間動きベクトル算出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定するオプティカルフロー決定工程と、
を含むことを特徴とするオプティカルフロー算出方法。 An attention point extraction step of extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating step of calculating a motion blur function related to the attention point extracted by the attention point extraction step by the image restoration processing related to the first frame image;
An intra-frame motion vector calculation step of calculating an intra-frame motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation step and the blur function of the camera When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculation step and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculation step of calculating an inter-frame motion vector of the point of interest between the frame image of
An optical flow determination step of determining an inter-frame motion vector calculated by the inter-frame motion vector calculation step as an optical flow of the attention point;
An optical flow calculation method comprising:
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出工程によって抽出された注目点に関する動きボケ関数を算出させる動きボケ関数算出工程と、
前記動きボケ関数算出工程によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出させるフレーム内動きベクトル算出工程と、
前記フレーム内動きベクトル算出工程によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出させるフレーム間動きベクトル算出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定させるオプティカルフロー決定工程と、
をコンピュータに実行させることを特徴とするオプティカルフロー算出プログラム。 An attention point extraction step of extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating step of calculating a motion blur function related to the attention point extracted by the attention point extraction step by the image restoration processing related to the first frame image;
An intra-frame motion vector calculation step of calculating an intra-frame motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation step and the blur function of the camera When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculation step and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculation step of calculating an inter-frame motion vector of the point of interest between the frame image of
An optical flow determination step of determining the inter-frame motion vector calculated by the inter-frame motion vector calculation step as the optical flow of the attention point;
An optical flow calculation program for causing a computer to execute.
A computer-readable recording medium on which the optical flow calculation program according to claim 4 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005377691A JP2007179354A (en) | 2005-12-28 | 2005-12-28 | Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005377691A JP2007179354A (en) | 2005-12-28 | 2005-12-28 | Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007179354A true JP2007179354A (en) | 2007-07-12 |
Family
ID=38304467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005377691A Withdrawn JP2007179354A (en) | 2005-12-28 | 2005-12-28 | Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007179354A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101968881A (en) * | 2010-10-27 | 2011-02-09 | 东南大学 | Motion blurring and defocusing composite blurring image restoration method |
WO2013001710A1 (en) * | 2011-06-29 | 2013-01-03 | コニカミノルタホールディングス株式会社 | Corresponding-point search apparatus |
CN105957036A (en) * | 2016-05-06 | 2016-09-21 | 电子科技大学 | Video motion blur removing method strengthening character prior |
CN110036638A (en) * | 2017-01-04 | 2019-07-19 | 高通股份有限公司 | Motion vector for bi-directional optical stream (BIO) is rebuild |
-
2005
- 2005-12-28 JP JP2005377691A patent/JP2007179354A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101968881A (en) * | 2010-10-27 | 2011-02-09 | 东南大学 | Motion blurring and defocusing composite blurring image restoration method |
WO2013001710A1 (en) * | 2011-06-29 | 2013-01-03 | コニカミノルタホールディングス株式会社 | Corresponding-point search apparatus |
JPWO2013001710A1 (en) * | 2011-06-29 | 2015-02-23 | コニカミノルタ株式会社 | Corresponding point search device |
US9117135B2 (en) | 2011-06-29 | 2015-08-25 | Konica Minolta, Inc. | Corresponding point searching apparatus |
CN105957036A (en) * | 2016-05-06 | 2016-09-21 | 电子科技大学 | Video motion blur removing method strengthening character prior |
CN105957036B (en) * | 2016-05-06 | 2018-07-10 | 电子科技大学 | A kind of video for strengthening character priori goes motion blur method |
CN110036638A (en) * | 2017-01-04 | 2019-07-19 | 高通股份有限公司 | Motion vector for bi-directional optical stream (BIO) is rebuild |
CN110036638B (en) * | 2017-01-04 | 2023-06-27 | 高通股份有限公司 | Method, device, equipment and storage medium for decoding video data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3944647B2 (en) | Object measuring apparatus, object measuring method, and program | |
US9767611B2 (en) | Information processing apparatus and method for estimating depth values using an approximate plane | |
JP3837575B2 (en) | Speeding up of super-resolution processing | |
JP6478654B2 (en) | Imaging apparatus and control method thereof | |
JP3109469B2 (en) | Image input device | |
JP6326847B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5965293B2 (en) | Camera pose estimation device and camera pose estimation program | |
JP5238220B2 (en) | Resolution conversion apparatus, method and program | |
JP5335574B2 (en) | Image processing apparatus and control method thereof | |
US20230394833A1 (en) | Method, system and computer readable media for object detection coverage estimation | |
JP5251410B2 (en) | Camera work calculation program, imaging apparatus, and camera work calculation method | |
JP5173549B2 (en) | Image processing apparatus and imaging apparatus | |
JP2007179354A (en) | Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium | |
TWI361093B (en) | Measuring object contour method and measuring object contour apparatus | |
JP5748355B2 (en) | Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and program | |
JP2006245677A (en) | Image processor, image processing method, and image processing program | |
JP2008217330A (en) | Speed estimation method and speed estimation program | |
JP7232663B2 (en) | Image processing device and image processing method | |
JP2000011134A (en) | Device and method for detecting moving amount | |
US8179967B2 (en) | Method and device for detecting movement of an entity provided with an image sensor | |
JP2008524696A (en) | Method and system for calculating motion using correlation of difference images | |
JP7393179B2 (en) | Photography equipment | |
US10410054B2 (en) | Image processing device, method and program to align two images | |
JP2019070822A (en) | Imaging apparatus and control method of the same | |
JP2007292657A (en) | Camera motion information acquiring apparatus, camera motion information acquiring method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090303 |