[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2007179354A - Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium - Google Patents

Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium Download PDF

Info

Publication number
JP2007179354A
JP2007179354A JP2005377691A JP2005377691A JP2007179354A JP 2007179354 A JP2007179354 A JP 2007179354A JP 2005377691 A JP2005377691 A JP 2005377691A JP 2005377691 A JP2005377691 A JP 2005377691A JP 2007179354 A JP2007179354 A JP 2007179354A
Authority
JP
Japan
Prior art keywords
frame
motion vector
point
optical flow
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005377691A
Other languages
Japanese (ja)
Inventor
Eiji Yamazaki
英治 山▲崎▼
Hisao Nanba
久男 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005377691A priority Critical patent/JP2007179354A/en
Publication of JP2007179354A publication Critical patent/JP2007179354A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To calculate a high-accuracy optical flow to acquire a high-quality image. <P>SOLUTION: An image 101 of an object inside a frame image is inputted by an imaging part or the like, and is recorded with blurring included in a direction of an arrow 102. Image restoration processing is performed about the recorded image 101 of the object to obtain a restoration image 103 and in-frame motion blurring function (104). Here, a PSF (Point Spread Function) 105 is already known on the basis of a characteristic or the like of the imaging part, and the in-frame motion blurring function (104) is obtained by convoluting the PSF 105 and an in-frame motion vector 106, so that the in-frame motion vector 106 can be obtained by deconvoluting the in-frame motion blurring function (104) by the PSF 105. The in-frame motion vector 106 is increased (a frame interval time/an integral time) times to calculate an inter-frame motion vector, and the optical flow is determined. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、カメラから入力されてくる一連のフレーム画像におけるオプティカルフローを高精度に算出するオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体に関する。   The present invention relates to an optical flow calculation device, an optical flow calculation method, an optical flow calculation program, and a recording medium that calculate an optical flow in a series of frame images input from a camera with high accuracy.

従来より、時間的に連続した複数のフレーム画像から、あるフレーム画像中に存在する物体の3次元構造を推定するために、オプティカルフロー(動きベクトル)を算出する方法がある。このオプティカルフロー(動きベクトル)の算出は、第一フレーム画像内の基点と、第二フレーム画像内における、基点に対応する対応点に基づいておこなう方法がとられている。   Conventionally, there is a method of calculating an optical flow (motion vector) in order to estimate a three-dimensional structure of an object existing in a certain frame image from a plurality of temporally continuous frame images. The optical flow (motion vector) is calculated based on a base point in the first frame image and a corresponding point corresponding to the base point in the second frame image.

より具体的には、たとえば、第一フレーム画像内の基点を含む所定領域の画素値と、第二フレーム画像内における第一フレーム画像内の基点を中心とした検索領域内における、基点に対応する対応点を含む所定領域の画素値の相関値を算出する。そして、算出した相関値の最も高い所定領域の対応点を正式な対応点に決定して、決定した対応点と第一フレーム画像内の基点から動きベクトルを算出する。このように、第一フレーム画像中の各画素について動きベクトルを算出して、あるフレーム画像中に存在する物体の3次元構造を推定するためのオプティカルフロー(動きベクトル)を算出する(たとえば、下記特許文献1参照。)。   More specifically, for example, it corresponds to the pixel value of a predetermined area including the base point in the first frame image and the base point in the search area centering on the base point in the first frame image in the second frame image. A correlation value of pixel values in a predetermined area including corresponding points is calculated. Then, the corresponding point of the predetermined area having the highest calculated correlation value is determined as an official corresponding point, and a motion vector is calculated from the determined corresponding point and the base point in the first frame image. In this manner, a motion vector is calculated for each pixel in the first frame image, and an optical flow (motion vector) for estimating the three-dimensional structure of an object existing in a certain frame image is calculated (for example, (See Patent Document 1).

ここで、図9−1および図9−2を用いて、従来のオプティカルフロー算出方式によって、時間的に連続した2つのフレーム画像(ここでは第一フレーム画像、第二フレーム画像とする)のオプティカルフローを算出する場合について説明する。図9−1は、従来のオプティカルフロー算出方式を示す第一フレーム画像に関する説明図である。図9−1において、第一フレーム画像910は、注目点911と、テンプレート912と、から構成されている。注目点911は、任意の座標(x1,y1)に位置しており、第一フレーム画像910と、後述する第二フレーム画像920における動きベクトルの基点となる構成でもよい。また、テンプレート912は、注目点911の座標(x1,y1)を中心とする微小な領域を切り出したもので、細密なオプティカルフローを取得するために、より微少なサイズが要求される。   Here, using FIGS. 9-1 and 9-2, optical images of two temporally continuous frame images (here, a first frame image and a second frame image) are obtained by a conventional optical flow calculation method. A case where a flow is calculated will be described. FIG. 9A is an explanatory diagram of a first frame image showing a conventional optical flow calculation method. In FIG. 9A, the first frame image 910 is composed of an attention point 911 and a template 912. The attention point 911 may be located at an arbitrary coordinate (x1, y1), and may be a base point of a motion vector in the first frame image 910 and a second frame image 920 described later. Further, the template 912 is obtained by cutting out a minute region centered on the coordinates (x1, y1) of the point of interest 911, and a smaller size is required in order to obtain a fine optical flow.

つづいて、図9−2について説明する。図9−2は、従来のオプティカルフロー算出方式を示す第二フレーム画像に関する説明図である。図9−2において、第二フレーム画像920は、対応点921と、対応点921における微小領域922と、検索領域923と、から構成されている。対応点921は、検索領域923内における注目点911に対応する座標(x2,y2)に位置している。また、検索領域923は、注目点911の座標(x1,y1)を中心とした領域で、対応点921の座標(x2,y2)を中心とした微小領域922を含んでいる。   Next, FIG. 9-2 will be described. FIG. 9-2 is an explanatory diagram relating to a second frame image showing a conventional optical flow calculation method. 9-2, the second frame image 920 includes a corresponding point 921, a minute area 922 at the corresponding point 921, and a search area 923. The corresponding point 921 is located at the coordinates (x2, y2) corresponding to the attention point 911 in the search area 923. The search area 923 is an area centered on the coordinates (x1, y1) of the point of interest 911 and includes a micro area 922 centered on the coordinates (x2, y2) of the corresponding point 921.

オプティカルフローの算出は、まず、第一フレーム画像910におけるテンプレート912と、第二フレーム画像920における座標(x2,y2)を中心とした微小領域922との相関値を算出する。より具体的には、たとえば、第一フレーム画像910のテンプレート912と、第二フレーム画像920の座標(x2,y2)を中心とした微小領域922の各画素値の差のRMS(Root Mean Square(二乗平均平方根))を算出する。そして、検索領域923内をラスタスキャンしながら相関マップを作成し、相関値が最も大きくなる座標(x2max,y2max)を座標(x1,y1)の対応点921とする。この2つの対応した座標から座標(x1,y1)における動きベクトルを(x2max−x1,y2max−y1)として算出し、これを第一フレーム画像910内の各画素について算出することでオプティカルフローを得ることができる。   The optical flow is calculated by first calculating a correlation value between the template 912 in the first frame image 910 and the minute region 922 centered on the coordinates (x2, y2) in the second frame image 920. More specifically, for example, the RMS (Root Mean Square) of the difference between the pixel values of the template 912 of the first frame image 910 and the minute region 922 around the coordinates (x2, y2) of the second frame image 920 is used. Calculate the root mean square)). Then, a correlation map is created while performing a raster scan in the search area 923, and the coordinate (x2max, y2max) where the correlation value is the largest is set as the corresponding point 921 of the coordinate (x1, y1). From these two corresponding coordinates, a motion vector at the coordinates (x1, y1) is calculated as (x2max−x1, y2max−y1), and this is calculated for each pixel in the first frame image 910 to obtain an optical flow. be able to.

特開平10−91793号公報JP-A-10-91793

しかしながら、上述した従来技術では、画像内の物体の動きが速い場合、第一フレーム画像と第二フレーム画像間の物体の移動距離が長くなるため、座標(x1,y1)の対応点である座標(x2max,y2max)は、座標(x1,y1)から離れた位置となる。したがって、物体の動きが速い場合に狭い検索領域であると、座標(x1,y1)の対応点である座標(x2max,y2max)が含まれず、適切なオプティカルフローが得られないという問題がある。   However, in the above-described prior art, when the movement of the object in the image is fast, the moving distance of the object between the first frame image and the second frame image becomes long, so the coordinates that are corresponding points of the coordinates (x1, y1) (X2max, y2max) is a position away from the coordinates (x1, y1). Therefore, when the object moves quickly, the narrow search region does not include the coordinates (x2max, y2max) corresponding to the coordinates (x1, y1), and thus there is a problem that an appropriate optical flow cannot be obtained.

また一方で、細密なオプティカルフローを得るには、第一フレーム画像の注目点周辺の局所的な特徴から、第二フレーム画像における対応点を決定しなければならないため、テンプレートのサイズは小さく設定する必要がある。したがって、物体の動きが速い場合に広い検索領域であると、サイズの小さなテンプレートに含まれる特徴量は比較的少ないため、相関値が同程度となる対応点候補が複数検出されてしまい、正確な対応点を決定できず、適切なオプティカルフローが得られないという問題がある。換言すれば、物体の動きが速くなるほど、適切なオプティカルフローを得られずに、物体の3次元構造を正確に推定できないという問題がある。   On the other hand, in order to obtain a fine optical flow, the corresponding points in the second frame image must be determined from local features around the point of interest in the first frame image, so the template size is set small. There is a need. Therefore, if the object movement is fast and the search area is wide, the feature amount included in the small template is relatively small, and multiple corresponding point candidates with the same correlation value are detected. There is a problem that a corresponding point cannot be determined and an appropriate optical flow cannot be obtained. In other words, there is a problem that the faster the movement of the object, the more accurate the optical flow cannot be obtained and the three-dimensional structure of the object cannot be estimated accurately.

この発明は、上述した従来技術による問題点を解消するため、フレーム画像の復元処理によって得られる動きボケ関数を用いて、簡単かつ高精度にオプティカルフローを算出して、物体の3次元構造推定の高品質化を図ることができるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体を提供することを目的とする。   In order to eliminate the above-described problems caused by the conventional technology, the present invention calculates an optical flow easily and with high accuracy using a motion blur function obtained by a frame image restoration process to estimate the three-dimensional structure of an object. It is an object of the present invention to provide an optical flow calculation device, an optical flow calculation method, an optical flow calculation program, and a recording medium that can achieve high quality.

上述した課題を解決し、目的を達成するため、この発明にかかるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体は、カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出し、前記第1のフレーム画像に関する画像復元処理により、抽出された注目点に関する動きボケ関数を算出し、算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出し、算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出し、算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定することを特徴とする。   In order to solve the above-described problems and achieve the object, an optical flow calculation device, an optical flow calculation method, an optical flow calculation program, and a recording medium according to the present invention are provided in an arbitrary sequence of frame images input from a camera. An arbitrary attention point is extracted from the first frame image, and a motion blur function related to the extracted attention point is calculated by image restoration processing related to the first frame image. Based on a blur function, an intra-frame motion vector of the point of interest in the first frame image is calculated, and based on the calculated intra-frame motion vector and the integration time and frame interval time of the camera, Between the first frame image and the second frame image next to the first frame image. The inter-frame motion vector of the target point is calculated, the motion vector between the calculated frame and determining the optical flow of the point of interest that.

この発明によれば、第1のフレーム画像を用いるだけで、注目点における第2のフレーム画像間とのフレーム間動きベクトルを算出し、オプティカルフローを決定することができる。   According to the present invention, the inter-frame motion vector between the second frame images at the point of interest can be calculated and the optical flow can be determined only by using the first frame image.

また、上記発明において、前記第2のフレーム画像から前記注目点に対応する対応点候補を抽出し、算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定し、抽出された対応点候補と、推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定し、決定された対応点に基づいて、前記注目点のオプティカルフローを決定することとしてもよい。   Further, in the above invention, corresponding point coordinates corresponding to the attention point are extracted from the second frame image by extracting a corresponding point candidate corresponding to the attention point and based on the calculated inter-frame motion vector. The corresponding point corresponding to the attention point is determined based on the extracted corresponding point candidate and the estimated corresponding point coordinates, and the optical flow of the attention point is determined based on the determined corresponding point. May be determined.

この発明によれば、第2のフレーム画像から抽出された対応点候補と、第1のフレーム画像から推定された対応点座標とに基づいて、注目点に対応する対応点を決定して、高精度に注目点のオプティカルフローを決定することができる。   According to the present invention, the corresponding point corresponding to the target point is determined based on the corresponding point candidate extracted from the second frame image and the corresponding point coordinates estimated from the first frame image. It is possible to determine the optical flow of the attention point with respect to accuracy.

本発明にかかるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体によれば、フレーム間動きベクトルによって注目点のオプティカルフローを決定できるため、簡単かつ高精度にオプティカルフローを算出して、物体の3次元構造推定の高品質化を図ることができるという効果を奏する。   According to the optical flow calculation device, the optical flow calculation method, the optical flow calculation program, and the recording medium according to the present invention, the optical flow at the point of interest can be determined by the inter-frame motion vector, so that the optical flow can be calculated easily and with high accuracy. Thus, there is an effect that the quality of the three-dimensional structure estimation of the object can be improved.

以下に添付図面を参照して、この発明にかかるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体の好適な実施の形態を詳細に説明する。   Exemplary embodiments of an optical flow calculation device, an optical flow calculation method, an optical flow calculation program, and a recording medium according to the present invention will be described below in detail with reference to the accompanying drawings.

(実施の形態1)
(オプティカルフロー算出の概要)
まず、図1〜図4を用いて、この発明の実施の形態にかかるオプティカルフロー算出の概要について説明する。図1は、この発明の実施の形態にかかるフレーム内動きベクトルの概要を示す説明図である。
(Embodiment 1)
(Outline of optical flow calculation)
First, the outline of optical flow calculation according to the embodiment of the present invention will be described with reference to FIGS. FIG. 1 is an explanatory diagram showing an outline of an intra-frame motion vector according to an embodiment of the present invention.

図1において、図示しない撮像部などによって入力されるフレーム画像内の物体の像101は、矢印102の方向にボケを含んで記録される。より具体的には、たとえば、撮像部によって入力されるフレーム画像内の物体の像101は、所定時間積分された各画素の輝度値を有しているため、単一フレーム画像内においてもボケを含んで記録されることとなる。   In FIG. 1, an object image 101 in a frame image input by an imaging unit (not shown) is recorded including a blur in the direction of an arrow 102. More specifically, for example, the image 101 of the object in the frame image input by the imaging unit has the luminance value of each pixel integrated for a predetermined time, and thus blurs even in the single frame image. Will be recorded.

フレーム内動きボケ関数104は、PSF105(Point Spread Function(ボケ関数))と、フレーム内動きベクトル106とがコンボリューション(たたみ込み積分)されたものである。ここで、PSF105は、撮像部などがあらかじめ有しているものであり、撮像部の特性などに基づいて既知である構成でもよい。また、フレーム内動きベクトル106は、撮像部によってフレーム画像内の各画素の輝度値が積分される所定時間における、物体の動きベクトルである。   The intra-frame motion blur function 104 is a convolution (convolution integration) of the PSF 105 (Point Spread Function) and the intra-frame motion vector 106. Here, the PSF 105 is provided in advance by the imaging unit or the like, and may be configured based on the characteristics of the imaging unit. The intra-frame motion vector 106 is a motion vector of the object at a predetermined time when the luminance value of each pixel in the frame image is integrated by the imaging unit.

復元像103は、フレーム画像内の物体が静止していた場合に得られる真の物体像などであり、ボケを含んだフレーム画像内の物体の像101について画像復元処理をおこなうことで、復元像103と、フレーム内動きボケ関数104を得ることができる。   The restored image 103 is a true object image or the like obtained when the object in the frame image is stationary. The restored image 103 is obtained by performing image restoration processing on the image 101 of the object in the frame image including blur. 103 and an intra-frame motion blur function 104 can be obtained.

つぎに、フレーム内動きベクトル106の算出の概要について説明する。撮像部などによって入力されるフレーム画像内の物体の像101における座標をg(x,y)とすると、g(x,y)は、f(x,y)をフレーム画像内の物体が静止していた場合に得られる真の物体像(復元像103)、h(x,y)をフレーム内動きボケ関数104、n(x,y)をノイズとして、下記式(1)によってあらわすことができる。   Next, an outline of calculation of the intra-frame motion vector 106 will be described. Assuming that the coordinates in the image 101 of the object in the frame image input by the imaging unit or the like is g (x, y), g (x, y) is f (x, y) and the object in the frame image is stationary. The true object image (restored image 103) obtained in the case of the above, h (x, y) can be represented by the following equation (1), with the intra-frame motion blur function 104 and n (x, y) as noise. .

g(x,y)=f(x,y)*h(x,y)+n(x,y)・・・(1)     g (x, y) = f (x, y) * h (x, y) + n (x, y) (1)

ここで、『*』はコンボリュージョン(たたみ込み積分)をあらわし、g(x,y)から、公知の画像復元処理によって、f(x,y)、h(x,y)を得ることができる。以下に、AD(Ayers Dainty)法による画像復元処理の手順の概要を説明する。   Here, “*” represents convolution (convolution integration), and f (x, y) and h (x, y) can be obtained from g (x, y) by a known image restoration process. it can. The outline of the procedure of image restoration processing by the AD (Ayer's Dainty) method will be described below.

AD法による画像復元処理は、下記手順(1)〜手順(11)によっておこなう。
・手順(1):G(u,v)=FFT[g(x,y)]
・手順(2):F’(u,v)=FFT[f’(x,y)](初期f’(x,y)はランダム画像)
・手順(3):H(u,v)=G(u,v)/(F’(u,v)+sn)(ここで、snは撮像部におけるS/Nである。)
・手順(4):h(x,y)=IFFT[H(u,v)]
・手順(5):もし、h(x,y)>0ならh’(x,y)=h(x,y)、それ以外はh’(x,y)=0
・手順(6):H’(u,v)=FFT[h’(x,y)]
・手順(7):F(u,v)=G(u,v)/(H’(u,v)+sn)
・手順(8):f(x,y)=IFFT[F(u,v)]
・手順(9):もし、f(x,y)>0ならf’(x,y)=f(x,y)、それ以外はf’(x,y)=0
・手順(10):手順(2)〜手順(9)をあらかじめ決められた回数繰り返す。
・手順(11):各ループにおいて、下記式(2)に示すフーリエエラーが最小となるf’(x,y)、h’(x,y)をそれぞれ復元像103、フレーム内動きボケ関数104とする。
Image restoration processing by the AD method is performed by the following procedure (1) to procedure (11).
Procedure (1): G (u, v) = FFT [g (x, y)]
Procedure (2): F ′ (u, v) = FFT [f ′ (x, y)] (initial f ′ (x, y) is a random image)
Procedure (3): H (u, v) = G (u, v) / (F ′ (u, v) + sn) (where sn is S / N in the imaging unit)
Procedure (4): h (x, y) = IFFT [H (u, v)]
Procedure (5): If h (x, y)> 0, h ′ (x, y) = h (x, y), otherwise h ′ (x, y) = 0
Procedure (6): H ′ (u, v) = FFT [h ′ (x, y)]
Procedure (7): F (u, v) = G (u, v) / (H ′ (u, v) + sn)
Procedure (8): f (x, y) = IFFT [F (u, v)]
Procedure (9): If f (x, y)> 0, f ′ (x, y) = f (x, y), otherwise f ′ (x, y) = 0
Procedure (10): Procedure (2) to procedure (9) are repeated a predetermined number of times.
Procedure (11): In each loop, f ′ (x, y) and h ′ (x, y) that minimize the Fourier error shown in the following equation (2) are respectively restored image 103 and intra-frame motion blur function 104. And

Error=Σ|G(u,v)−F’(u,v)×H’(u,v)|・・・(2)     Error = Σ | G (u, v) −F ′ (u, v) × H ′ (u, v) | (2)

上述の手順(1)〜手順(11)により得たフレーム内動きボケ関数h’(x,y)は、撮像部などがあらかじめ有しているPSF105と、フレーム内動きベクトル106がコンボリューションされたものであり、PSF105をpsf(x,y)、フレーム内動きベクトル106をm(x,y)とすると、下記の式(3)によってあらわすことができる。   The intra-frame motion blur function h ′ (x, y) obtained by the above-described procedure (1) to procedure (11) is obtained by convolving the PSF 105 and the intra-frame motion vector 106 that the imaging unit or the like has in advance. Assuming that PSF 105 is psf (x, y) and intra-frame motion vector 106 is m (x, y), it can be expressed by the following equation (3).

h’(x,y)=psf(x,y)*m(x,y)・・・(3)     h ′ (x, y) = psf (x, y) * m (x, y) (3)

この式(3)より、h’(x,y)を既知のpsf(x,y)を用いてデコンボリューションすることにより、フレーム画像内の物体の像101における積分時間内のフレーム内動きベクトル106を算出することができる。   From this equation (3), by deconvoluting h ′ (x, y) using known psf (x, y), the intra-frame motion vector 106 within the integration time in the image 101 of the object in the frame image. Can be calculated.

つづいて、図2−1〜図2−3を用いて、この発明の実施の形態にかかるフレーム間動きベクトルの算出の概要について説明する。図2−1は、この発明の実施の形態にかかる第一フレーム画像を示す説明図である。また、図2−2は、この発明の実施の形態にかかる第二フレーム画像を示す説明図である。   Next, an outline of calculation of the inter-frame motion vector according to the embodiment of the present invention will be described with reference to FIGS. FIGS. 2-1 is explanatory drawing which shows the 1st frame image concerning embodiment of this invention. FIGS. FIG. 2-2 is an explanatory diagram showing a second frame image according to the embodiment of the present invention.

図2−1において、オプティカルフロー算出装置に入力された第一フレーム画像210は、相対的に移動する複数の矩形の物体を撮像したフレーム画像であり、複数の物体の像214〜216を含んでいる。相対的な移動は、より具体的には、撮像する装置あるいは撮像される物体の少なくともいずれかが移動することである。図2−1において、物体の像214〜216は、たとえば、図1で前述したように、フレーム画像内において、PSFとフレーム内動きベクトルを有している。したがって、第1フレーム画像210において、図示のように右上から左下へのフレーム内動きベクトルによって、矩形ではなく六角形に類似した形状となっている。また、物体の像214〜216は、それぞれの中心を注目点211〜213としている。また、図2−2において、オプティカルフロー算出装置に入力された第二フレーム画像220は、図2−1で前述した第一フレーム画像210と連続するフレーム画像で、物体の像214〜216に対応する物体の像224〜226を含んでいる。図2−2において、物体の像224〜226は、たとえば、前述した物体の像224〜226と同様に、フレーム画像内でPSFとフレーム内動きベクトルを有しているため、六角形に類似した形状となっている。また、物体の像224〜226は、それぞれの中心を対応点候補221〜223としている。   2A, a first frame image 210 input to the optical flow calculation device is a frame image obtained by capturing a plurality of relatively moving rectangular objects, and includes a plurality of object images 214 to 216. Yes. More specifically, the relative movement is a movement of at least one of an imaging device and an object to be imaged. 2A, object images 214 to 216 have a PSF and an intra-frame motion vector in the frame image, for example, as described above with reference to FIG. Accordingly, the first frame image 210 has a shape similar to a hexagon instead of a rectangle due to the motion vector in the frame from the upper right to the lower left as illustrated. Further, the object images 214 to 216 have their respective centers as attention points 211 to 213. In FIG. 2B, the second frame image 220 input to the optical flow calculation device is a frame image continuous with the first frame image 210 described above with reference to FIG. 2-1, and corresponds to the object images 214 to 216. Image 224 to 226 of the object to be performed. In FIG. 2B, the object images 224 to 226 have a PSF and an intraframe motion vector in the frame image, for example, similar to the object images 224 to 226 described above. It has a shape. In addition, the object images 224 to 226 have the respective centers as corresponding point candidates 221 to 223.

つぎに、図2−3を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置における第一フレーム画像210と第二フレーム画像220の間のフレーム間動きベクトルについて説明する。図2−3は、この発明の実施の形態にかかるフレーム間動きベクトルを示す説明図である。   Next, an inter-frame motion vector between the first frame image 210 and the second frame image 220 in the optical flow calculation apparatus according to the embodiment of the present invention will be described with reference to FIG. FIGS. 2-3 is explanatory drawing which shows the inter-frame motion vector concerning Embodiment of this invention.

図2−3は、前述の第一フレーム画像210と第2フレーム画像220を同一図面上に示したもので、注目点211〜213は、注目点211〜213のそれぞれを基点とするフレーム間動きベクトル231〜233を有している。これらフレーム間動きベクトル231〜233は、たとえば、図1で前述したフレーム内動きベクトルの算出によって算出された第一フレーム画像210における、注目点211〜213のフレーム内動きベクトルに基づいて算出することができる。   FIG. 2-3 shows the first frame image 210 and the second frame image 220 described above on the same drawing, and the attention points 211 to 213 are inter-frame motions based on the attention points 211 to 213, respectively. Vectors 231 to 233 are included. These inter-frame motion vectors 231 to 233 are calculated based on the intra-frame motion vectors of the attention points 211 to 213 in the first frame image 210 calculated by the intra-frame motion vector calculation described above with reference to FIG. Can do.

より具体的には、たとえば、第一フレーム画像210と第二フレーム画像220の間のフレーム間隔時間は、ごく短いものである(たとえば33ミリ秒)ため、物体の動きを等速運動と仮定することができる。そして、第一フレーム画像210から第二フレーム画像220までの注目点211〜213の動きであるフレーム間動きベクトル231〜233は、第一フレーム画像210における注目点211〜213のフレーム内動きベクトルを(フレーム間隔時間/積分時間)倍して算出する。   More specifically, for example, since the frame interval time between the first frame image 210 and the second frame image 220 is very short (for example, 33 milliseconds), the motion of the object is assumed to be constant velocity motion. be able to. The inter-frame motion vectors 231 to 233 that are the movements of the attention points 211 to 213 from the first frame image 210 to the second frame image 220 are the intra-frame motion vectors of the attention points 211 to 213 in the first frame image 210. Multiply by (frame interval time / integration time).

ここで、図3−1および図3−2を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置によるオプティカルフロー算出について説明する。この発明の実施の形態にかかるオプティカルフローの算出は、図2−1〜図2−3で説明したフレーム間動きベクトルと、相関マップとを用いておこなう構成としている。図3−1は、この発明の実施の形態にかかる対応点候補の抽出について示す説明図である。なお、図3−1の説明においては、図2−1〜図2−3で前述した注目点211と、対応点候補221〜223を用いて説明する。   Here, the optical flow calculation by the optical flow calculation apparatus according to the embodiment of the present invention will be described with reference to FIGS. 3A and 3B. The optical flow according to the embodiment of the present invention is calculated using the inter-frame motion vector and the correlation map described with reference to FIGS. FIG. 3A is an explanatory diagram of extraction of corresponding point candidates according to the embodiment of the present invention. 3A will be described using the attention point 211 and the corresponding point candidates 221 to 223 described above with reference to FIGS. 2-1 to 2-3.

図3−1において、相関マップ300は、注目点211の座標を中心とする検索領域310内に、対応点候補221〜223に関する相関値の相関ピーク301〜303を垂直方向に示している。相関マップ300の作成は、たとえば、検索領域310をラスタスキャンしながら、注目点211を含む微小領域を切り出したテンプレートの画素値と所定値以上となる相関値を算出して、対応点候補221〜223に関する相関ピーク301〜303を抽出する構成でもよい。テンプレートは、たとえば、図示はしないが、注目点211を中心とした矩形の領域などである。   3A, the correlation map 300 indicates correlation peaks 301 to 303 of correlation values regarding the corresponding point candidates 221 to 223 in the vertical direction in a search area 310 centered on the coordinates of the point of interest 211. For example, the correlation map 300 is created by calculating a correlation value that is equal to or greater than a predetermined value with a pixel value of a template obtained by cutting out a minute region including the point of interest 211 while raster scanning the search region 310. The structure which extracts the correlation peaks 301-303 regarding H.223 may be sufficient. For example, although not shown, the template is a rectangular area centered on the point of interest 211.

相関ピーク301〜303における相関値は、より具体的には、第一フレーム画像210内の注目点211を含むテンプレートの画素値と、第二フレーム画像220内における検索領域310内の対応点候補221〜223を中心とした微小領域の画素値の相関値で、各画素値の差のRMS(二乗平均平方根)を算出して得ることができる。   More specifically, the correlation values at the correlation peaks 301 to 303 include the pixel value of the template including the attention point 211 in the first frame image 210 and the corresponding point candidate 221 in the search region 310 in the second frame image 220. It can be obtained by calculating the RMS (root mean square) of the difference between the pixel values with the correlation value of the pixel values in the minute region centered at ˜223.

ここで、相関ピーク301〜303の算出は、ノイズなどの影響によって注目点211におけるテンプレートとの正確な相関関係が反映されない場合がある。図3−1において、相関ピーク301〜303の中で最大ピークは、対応点候補222における相関ピーク302である。注目点211におけるテンプレートに対する相関ピーク301〜303の中で、相関値が最大となる対応点候補222を注目点211に対応する対応点とすると、点線304が注目点211のオプティカルフローとなる。   Here, the calculation of the correlation peaks 301 to 303 may not reflect the exact correlation with the template at the point of interest 211 due to the influence of noise or the like. In FIG. 3A, the maximum peak among the correlation peaks 301 to 303 is the correlation peak 302 in the corresponding point candidate 222. If the corresponding point candidate 222 having the maximum correlation value among the correlation peaks 301 to 303 with respect to the template at the point of interest 211 is the corresponding point corresponding to the point of interest 211, the dotted line 304 becomes the optical flow of the point of interest 211.

一方で、図2−1〜図2−3で前述した注目点211を基点とするフレーム間動きベクトル231の終点は対応点候補221である。この発明の実施の形態によれば、相関ピーク301〜303の中から、フレーム間動きベクトル231に近接した対応点候補221を注目点211に対応する対応点に決定する構成でもよい。したがって、図3−1では、対応点候補221を注目点211に対応する対応点に決定して、フレーム間動きベクトル231が注目点211のオプティカルフローとなる。なお、図3−1の説明では、フレーム間動きベクトル231の終点と対応点候補221を同一な位置として説明したが、フレーム間動きベクトル231の終点近傍にある対応点候補221〜223を、注目点211に対応する対応点に決定する構成としてもよい。   On the other hand, the end point of the inter-frame motion vector 231 based on the attention point 211 described above with reference to FIGS. 2-1 to 2-3 is the corresponding point candidate 221. According to the embodiment of the present invention, the configuration may be such that the corresponding point candidate 221 close to the inter-frame motion vector 231 is determined as the corresponding point corresponding to the attention point 211 from among the correlation peaks 301 to 303. Therefore, in FIG. 3A, the corresponding point candidate 221 is determined as the corresponding point corresponding to the attention point 211, and the inter-frame motion vector 231 becomes the optical flow of the attention point 211. In the description of FIG. 3A, the end point of the inter-frame motion vector 231 and the corresponding point candidate 221 are described as the same position. However, the corresponding point candidates 221 to 223 near the end point of the inter-frame motion vector 231 are noted. It is good also as a structure determined to the corresponding point corresponding to the point 211. FIG.

つづいて、図3−2を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置による対応点の決定について説明する。図3−2は、この発明の実施の形態にかかる対応点の決定について示す説明図である。   Next, determination of corresponding points by the optical flow calculation apparatus according to the embodiment of the present invention will be described with reference to FIG. 3-2 is explanatory drawing shown about determination of the corresponding point concerning embodiment of this invention.

図3−2において、注目点211〜213は、図2−1〜図2−3で前述したフレーム間動きベクトル231〜233の基点となっている。また、図3−2では、注目点211を基点としたフレーム間動きベクトルの終点は、対応点候補221である。そして、注目点212を基点としたフレーム間動きベクトルの終点は、対応点候補222である。同様に、注目点213を基点としたフレーム間動きベクトルの終点は、対応点候補223である。なお、図3−2では、フレーム間動きベクトル231〜233の終点と対応点候補221〜223を同一な位置として説明しているが、対応点候補221〜223は、相関マップの作成によって抽出するものでもよく、フレーム間動きベクトル231〜233の終点近傍にあることとしてもよい。   3-2, attention points 211 to 213 are base points of the inter-frame motion vectors 231 to 233 described above with reference to FIGS. 2-1 to 2-3. In FIG. 3B, the end point of the inter-frame motion vector with the attention point 211 as the base point is a corresponding point candidate 221. The end point of the inter-frame motion vector with the attention point 212 as a base point is a corresponding point candidate 222. Similarly, the end point of the inter-frame motion vector with the attention point 213 as a base point is a corresponding point candidate 223. In FIG. 3B, the end points of the inter-frame motion vectors 231 to 233 and the corresponding point candidates 221 to 223 are described as the same position, but the corresponding point candidates 221 to 223 are extracted by creating a correlation map. It may be a thing, and it is good also as being in the end point vicinity of the inter-frame motion vectors 231-233.

ここで、注目点211の座標を中心とする検索領域310は、対応点候補221〜223を含んでおり、注目点211との相関値が最も高い対応点候補221〜223は、図3−1で前述したように、注目点211から点線304方向に位置する対応点候補222である。一方で、第一フレーム画像210における注目点211は、第二フレーム画像220内では、フレーム間動きベクトル231の方向へ移動したものとされる。したがって、図3−2においては、対応点候補222は注目点211に対して相関値は高いものの、ノイズなどによる最大ピークを示したものであり、対応点候補221を注目点211の対応点に決定する。   Here, the search area 310 centered on the coordinates of the point of interest 211 includes the corresponding point candidates 221 to 223, and the corresponding point candidates 221 to 223 having the highest correlation value with the point of interest 211 are shown in FIG. As described above, the corresponding point candidate 222 is located in the direction of the dotted line 304 from the attention point 211. On the other hand, the point of interest 211 in the first frame image 210 is assumed to have moved in the direction of the interframe motion vector 231 in the second frame image 220. Therefore, in FIG. 3B, although the corresponding point candidate 222 has a high correlation value with respect to the attention point 211, the corresponding point candidate 222 shows the maximum peak due to noise or the like. decide.

同様にして、注目点212に対応する対応点は、対応点候補222とし、注目点213に対応する対応点は、対応点候補223と決定する。そして、本実施の形態では、注目点211〜213と、注目点211〜213に対応する対応点との関係に基づいてオプティカルフローを算出することができる。なお、注目点211〜213は、3点に限ることはなく、任意の各画素についてオプティカルフローを算出することとしてもよい。   Similarly, the corresponding point corresponding to the attention point 212 is determined as the corresponding point candidate 222, and the corresponding point corresponding to the attention point 213 is determined as the corresponding point candidate 223. In this embodiment, the optical flow can be calculated based on the relationship between the attention points 211 to 213 and the corresponding points corresponding to the attention points 211 to 213. Note that the attention points 211 to 213 are not limited to three points, and an optical flow may be calculated for each arbitrary pixel.

(オプティカルフロー算出装置のハードウェア構成)
つぎに、図4を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置のハードウェア構成について説明する。図4は、この発明の実施の形態にかかるオプティカルフロー算出装置のハードウェア構成を示すブロック図である。
(Hardware configuration of optical flow calculation device)
Next, the hardware configuration of the optical flow calculation apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 4 is a block diagram showing a hardware configuration of the optical flow calculation apparatus according to the embodiment of the present invention.

図4において、オプティカルフロー算出装置は、CPU401と、ROM402と、RAM403と、HDD(ハードディスクドライブ)404と、HD(ハードディスク)405と、FDD(フレキシブルディスクドライブ)406と、着脱可能な記録媒体の一例としてのFD(フレキシブルディスク)407と、ディスプレイ408と、通信I/F(インターフェース)409と、キーボード410と、マウス411と、映像I/F412と、カメラ413と、を備えている。また、各構成部はバス400によってそれぞれ接続されている。   In FIG. 4, the optical flow calculation apparatus includes an example of a CPU 401, a ROM 402, a RAM 403, an HDD (hard disk drive) 404, an HD (hard disk) 405, an FDD (flexible disk drive) 406, and a removable recording medium. FD (flexible disk) 407, a display 408, a communication I / F (interface) 409, a keyboard 410, a mouse 411, a video I / F 412, and a camera 413. Each component is connected by a bus 400.

ここで、CPU401は、オプティカルフロー算出装置の全体の制御を司る。ROM402は、ブートプログラムなどのプログラムを記憶している。RAM403は、CPU401のワークエリアとして使用される。HDD404は、CPU401の制御にしたがってHD405に対するデータのリード/ライトを制御する。HD405は、HDD404の制御で書き込まれたデータを記憶する。   Here, the CPU 401 controls the entire optical flow calculation apparatus. The ROM 402 stores programs such as a boot program. The RAM 403 is used as a work area for the CPU 401. The HDD 404 controls reading / writing of data with respect to the HD 405 according to the control of the CPU 401. The HD 405 stores data written under the control of the HDD 404.

FDD406は、CPU401の制御にしたがってFD407に対するデータのリード/ライトを制御する。FD407は、FDD406の制御で書き込まれたデータを記憶したり、FD407に記憶されたデータをオプティカルフロー算出装置に読み取らせたりする。   The FDD 406 controls reading / writing of data with respect to the FD 407 according to the control of the CPU 401. The FD 407 stores data written under the control of the FDD 406, or causes the optical flow calculation device to read data stored in the FD 407.

また、着脱可能な記録媒体として、FD407のほか、CD−ROM(CD−R、CD−RW)、MO、DVD(Digital Versatile Disk)、メモリカードなどであってもよい。ディスプレイ408は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する。このディスプレイ408は、たとえば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。   In addition to the FD 407, the removable recording medium may be a CD-ROM (CD-R, CD-RW), MO, DVD (Digital Versatile Disk), memory card, or the like. The display 408 displays data such as a document, an image, and function information as well as a cursor, an icon, or a tool box. As the display 408, for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be adopted.

通信I/F409は、通信回線を通じてインターネットなどのネットワーク414に接続され、このネットワーク414を介して他の装置に接続される。そして、通信I/F409は、ネットワーク414と内部のインターフェースを司り、外部装置からのデータの入出力を制御する。通信I/F409には、たとえばモデムやLANアダプタなどを採用することができる。   The communication I / F 409 is connected to a network 414 such as the Internet through a communication line, and is connected to other devices via the network 414. The communication I / F 409 controls an internal interface with the network 414 and controls input / output of data from an external device. As the communication I / F 409, for example, a modem or a LAN adapter can be employed.

キーボード410は、文字、数字、各種指示などの入力のためのキーを備え、押下されたキーに対応するデータを装置内部へ入力する。また、タッチパネル式の入力パッドやテンキーなどであってもよい。また、マウス411を操作することで、マウス411の本体下部の移動を検出するセンサによる出力および本体上部の各ボタンのON/OFFを随時装置内部へ入力して、カーソルの移動や範囲選択、あるいはウィンドウの移動やサイズの変更などをおこなってもよい。なお、ポインティングデバイスとして同様に機能を備えるものであれば、トラックボールやジョイスティックなどであってもよい。   The keyboard 410 includes keys for inputting characters, numbers, various instructions, and the like, and inputs data corresponding to the pressed key into the apparatus. Moreover, a touch panel type input pad or a numeric keypad may be used. Also, by operating the mouse 411, the output of the sensor for detecting the movement of the lower body of the mouse 411 and the ON / OFF of each button on the upper body are inputted into the apparatus as needed to move the cursor, select a range, or You may move the window or change its size. Note that a trackball or a joystick may be used as long as the pointing device has the same function.

また、映像I/F412は、カメラ413と接続される。映像I/F412は、カメラ413全体の制御をおこなう制御ICと、カメラ413によって撮影されたフレーム画像を一時的に記録するVRAM(Video RAM)などのバッファメモリなどによって構成される。また、バッファメモリは、複数のフレームバッファを有する構成でもよく、たとえば、2つのフレームバッファにより、後述するカメラ413によって撮影されるフレーム画像を交互に格納することとしてもよい。そして、カメラ413によって撮影されたフレーム画像について、オプティカルフロー算出装置の各構成への入出力を制御する構成でもよい。   The video I / F 412 is connected to the camera 413. The video I / F 412 includes a control IC that controls the entire camera 413 and a buffer memory such as a VRAM (Video RAM) that temporarily records a frame image captured by the camera 413. Further, the buffer memory may have a configuration having a plurality of frame buffers. For example, two frame buffers may alternately store frame images taken by a camera 413 described later. And the structure which controls the input / output to each structure of an optical flow calculation apparatus about the frame image image | photographed with the camera 413 may be sufficient.

カメラ413は、被写体を撮影して連続する一連のフレーム画像として取り込む。カメラ413は、モノクロやカラーのどちらでもよく、ビデオカメラなどによって構成され、C−MOS(Complementary Metal Oxide Semiconductor)あるいはCCD(Charge Coupled Device)などの光電変換素子を有している。   The camera 413 captures a subject as a series of continuous frame images. The camera 413 may be either monochrome or color, and is configured by a video camera or the like, and includes a photoelectric conversion element such as a C-MOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device).

また、カメラ413は、USB(Universal Serial Bus)やIEEE1394(Institute of Electrical and Electronic Engineers 1394)などによって映像I/F412と接続されており、撮影したフレーム画像を、映像I/F412を介して逐次オプティカルフロー算出装置へ出力する構成としてもよい。   The camera 413 is connected to the video I / F 412 via USB (Universal Serial Bus) or IEEE 1394 (Institut of Electrical and Electronic Engineers 1394), and the captured frame images are sequentially transmitted via the video I / F 412. It is good also as a structure output to a flow calculation apparatus.

(オプティカルフロー算出装置の機能的構成)
つぎに、図5を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置の機能的構成について説明する。図5は、この発明の実施の形態にかかるオプティカルフロー算出装置の機能的構成を示すブロック図である。図5において、オプティカルフロー算出装置500は、フレーム画像取得部501と、第一フレーム画像保持部502と、テンプレート切り出し部503と、フレーム画像復元部504と、フレーム内動きベクトル算出部505と、フレーム間動きベクトル算出部506と、対応点座標推定部507と、オプティカルフロー決定部508と、第二フレーム画像保持部509と、相関マップ生成部510と、対応点候補抽出部511と、抽出しきい値指定部512と、対応点決定部513と、から構成されている。
(Functional configuration of optical flow calculation device)
Next, the functional configuration of the optical flow calculation apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 5 is a block diagram showing a functional configuration of the optical flow calculation apparatus according to the embodiment of the present invention. In FIG. 5, an optical flow calculation apparatus 500 includes a frame image acquisition unit 501, a first frame image holding unit 502, a template cutout unit 503, a frame image restoration unit 504, an intra-frame motion vector calculation unit 505, a frame Inter-motion vector calculation unit 506, corresponding point coordinate estimation unit 507, optical flow determination unit 508, second frame image holding unit 509, correlation map generation unit 510, corresponding point candidate extraction unit 511, and extraction threshold The value designation unit 512 and the corresponding point determination unit 513 are configured.

図5において、フレーム画像取得部501は、撮像部514と、増幅部515と、A/D(アナログ/デジタル)変換部516と、から構成されている。撮像部514によって撮像された一連のフレーム画像の画像信号は、増幅部515に出力される。増幅部515は、入力されたフレーム画像の画像信号を増幅し、A/D変換部516へ出力する。A/D変換部516は、入力されたフレーム画像の画像信号を変換してデジタル画像信号として第一フレーム画像保持部502や第二フレーム画像保持部509へ出力する。なお、このフレーム画像取得部501における撮像部514、増幅部515、A/D変換部516は、具体的には、たとえば、図4に示した映像I/F412やカメラ413によって、その機能を実現する。   In FIG. 5, the frame image acquisition unit 501 includes an imaging unit 514, an amplification unit 515, and an A / D (analog / digital) conversion unit 516. Image signals of a series of frame images captured by the imaging unit 514 are output to the amplification unit 515. The amplifying unit 515 amplifies the image signal of the input frame image and outputs it to the A / D conversion unit 516. The A / D conversion unit 516 converts the image signal of the input frame image and outputs it as a digital image signal to the first frame image holding unit 502 and the second frame image holding unit 509. Note that the functions of the imaging unit 514, amplification unit 515, and A / D conversion unit 516 in the frame image acquisition unit 501 are specifically realized by, for example, the video I / F 412 and the camera 413 shown in FIG. To do.

第一フレーム画像保持部502や第二フレーム画像保持部509は、フレーム画像取得部501から随時連続して入力される2フレームのフレーム画像が記録される。図5の説明においては、第一フレーム画像保持部502は、第一フレーム画像210を保持し、第二フレーム画像保持部509は、第一フレーム画像210に連続する第二フレーム画像220を保持する構成である。なお、第一フレーム画像保持部502や第二フレーム画像保持部509は、具体的には、たとえば、図4で示した映像I/F412におけるバッファメモリや、HD405や、RAM403や、その他メモリなどによって、その機能を実現する。   The first frame image holding unit 502 and the second frame image holding unit 509 record frame images of two frames that are continuously input from the frame image acquisition unit 501 as needed. In the description of FIG. 5, the first frame image holding unit 502 holds the first frame image 210, and the second frame image holding unit 509 holds the second frame image 220 that is continuous with the first frame image 210. It is a configuration. The first frame image holding unit 502 and the second frame image holding unit 509 are specifically configured by, for example, a buffer memory in the video I / F 412 shown in FIG. 4, HD 405, RAM 403, or other memory. Realize its function.

テンプレート切り出し部503は、第一フレーム画像保持部502によって保持された、第一フレーム画像210における注目点211の座標を中心としたテンプレートを切り出す。テンプレートは、たとえば、注目点211を中心とした、物体の像214を含む矩形の領域などである。なお、図5における説明では、注目点211に関して説明をするが、注目点211に限るものではなく、たとえば、テンプレート切り出し部503は、第一フレーム画像210から任意の点を注目点211として抽出し、テンプレートを切り出してもよい。   The template cutout unit 503 cuts out a template centered on the coordinates of the point of interest 211 in the first frame image 210 held by the first frame image holding unit 502. The template is, for example, a rectangular region including the object image 214 with the attention point 211 as the center. In the description of FIG. 5, the attention point 211 is described. However, the attention point 211 is not limited thereto. For example, the template cutout unit 503 extracts an arbitrary point from the first frame image 210 as the attention point 211. A template may be cut out.

フレーム画像復元部504は、テンプレート切り出し部503によって切り出されたテンプレートに対して、画像復元処理をおこなって、復元画像とフレーム内動きボケ関数に分離する。画像復元処理は、たとえば、前述のAD法による方式でもよく、所定の回数だけ画像復元処理をおこなって、フーリエエラーが最小となる復元画像とフレーム内動きボケ関数に分離する構成でもよい。   The frame image restoration unit 504 performs image restoration processing on the template cut out by the template cutout unit 503, and separates it into a restored image and an intra-frame motion blur function. The image restoration processing may be, for example, a method based on the above-described AD method, and may be configured to perform image restoration processing a predetermined number of times and separate the restored image and the intra-frame motion blur function that minimize the Fourier error.

フレーム内動きベクトル算出部505は、フレーム画像復元部504によって分離されたフレーム内動きボケ関数と、フレーム画像取得部501のボケ関数とに基づいて、第一フレーム画像210内の注目点211のフレーム内動きベクトルを算出する。より具体的には、図1を参照すると、フレーム画像復元部504によって分離されたフレーム内動きボケ関数104は、フレーム画像取得部501のPSF105(Point Spread Function(ボケ関数))とフレーム内動きベクトル106がコンボリューションされたものである。したがって、フレーム内動きベクトル算出部505は、フレーム内動きボケ関数104をフレーム画像取得部501のPSF105を用いてデコンボリューションして、フレーム内動きベクトル106を算出する。   The intra-frame motion vector calculation unit 505 performs the frame of the attention point 211 in the first frame image 210 based on the intra-frame motion blur function separated by the frame image restoration unit 504 and the blur function of the frame image acquisition unit 501. An internal motion vector is calculated. More specifically, referring to FIG. 1, the intra-frame motion blur function 104 separated by the frame image restoration unit 504 includes the PSF 105 (Point Spread Function) of the frame image acquisition unit 501 and the intra-frame motion vector. 106 is a convolution. Therefore, the intra-frame motion vector calculation unit 505 deconvolves the intra-frame motion blur function 104 using the PSF 105 of the frame image acquisition unit 501 to calculate the intra-frame motion vector 106.

フレーム間動きベクトル算出部506は、フレーム内動きベクトル算出部505によって算出されたフレーム内動きベクトルと、積分時間およびフレーム間隔時間とに基づいて、フレーム間動きベクトルを算出する。積分時間は、フレーム画像内の輝度値を積分する所定時間であり、より具体的には、図2−1〜図2−3を参照すると、第一フレーム画像210における各画素の輝度値を積分する時間である。また、フレーム間隔時間は、連続する2フレーム画像間の時間であり、より具体的には、図2−1〜図2−3を参照すると、第一フレーム画像210と第二フレーム画像220との時間間隔である。積分時間およびフレーム間隔時間は、撮像部514の特性などによるもので、フレーム間動きベクトルの算出は、フレーム内動きベクトルを(フレーム間隔時間/積分時間)倍して算出することとしてもよい。   The inter-frame motion vector calculation unit 506 calculates an inter-frame motion vector based on the intra-frame motion vector calculated by the intra-frame motion vector calculation unit 505, the integration time, and the frame interval time. The integration time is a predetermined time for integrating the luminance values in the frame image. More specifically, referring to FIGS. 2-1 to 2-3, the luminance value of each pixel in the first frame image 210 is integrated. It is time to do. The frame interval time is the time between two consecutive frame images. More specifically, referring to FIGS. 2-1 to 2-3, the first frame image 210 and the second frame image 220 It is a time interval. The integration time and the frame interval time depend on the characteristics of the imaging unit 514, and the calculation of the inter-frame motion vector may be performed by multiplying the intra-frame motion vector by (frame interval time / integration time).

対応点座標推定部507は、フレーム間動きベクトル算出部506によって算出されたフレーム間動きベクトルに基づいて、注目点211に対応する対応点となる対応点座標を推定する。より具体的には、たとえば、テンプレート切り出し部503によってテンプレートを切り出す際に用いた注目点211の座標に、フレーム間動きベクトルを加算して対応点座標を推定する。   The corresponding point coordinate estimation unit 507 estimates the corresponding point coordinates that are the corresponding points corresponding to the point of interest 211 based on the interframe motion vector calculated by the interframe motion vector calculation unit 506. More specifically, for example, the inter-frame motion vector is added to the coordinates of the point of interest 211 used when the template cutout unit 503 cuts out the template, and the corresponding point coordinates are estimated.

オプティカルフロー決定部508は、フレーム間動きベクトル算出部406によって算出されたフレーム間動きベクトルを、注目点211のオプティカルフローに決定する。また、オプティカルフロー決定部508は、対応点決定部513によって決定された対応点に基づいて、注目点211のオプティカルフローを決定する構成でもよい。より具体的には、たとえば、注目点211と、対応点から、注目点211のフレーム間動きベクトルを算出して、注目点211のオプティカルフローに決定する。なお、図5の説明では、注目点211に関して説明をおこなったが、第一フレーム画像210の他の座標を注目点としてオプティカルフローを決定することで、第一フレーム画像210内の各画素に対するオプティカルフローを得る構成でもよい。   The optical flow determination unit 508 determines the inter-frame motion vector calculated by the inter-frame motion vector calculation unit 406 as the optical flow of the point of interest 211. Further, the optical flow determination unit 508 may be configured to determine the optical flow of the attention point 211 based on the corresponding points determined by the corresponding point determination unit 513. More specifically, for example, the inter-frame motion vector of the target point 211 is calculated from the target point 211 and the corresponding point, and the optical flow of the target point 211 is determined. In the description of FIG. 5, the attention point 211 has been described. However, by determining the optical flow with the other coordinates of the first frame image 210 as the attention point, the optical for each pixel in the first frame image 210 is determined. The structure which acquires a flow may be sufficient.

相関マップ生成部510は、第二フレーム画像保持部509によって保持された第二フレーム画像220において、テンプレート切り出し部503によって切り出されたテンプレートの注目点211を中心とする検索領域310内の各領域との相関処理をおこなって、相関マップ300を生成する。より具体的には、たとえば、検索領域310内をラスタスキャンしながら、注目点211を含むテンプレートの画素値との相関値を算出して、相関値の分布図を生成する。相関値は、たとえば、テンプレートの画素値と、検索領域310内の各画素値の差のRMS(二乗平均平方根)などを算出して得ることができる。   The correlation map generation unit 510 includes, in the second frame image 220 held by the second frame image holding unit 509, each region in the search region 310 centered on the template attention point 211 cut out by the template cutout unit 503. The correlation map 300 is generated by performing the correlation process. More specifically, for example, while performing a raster scan in the search area 310, a correlation value with a pixel value of a template including the attention point 211 is calculated, and a correlation value distribution map is generated. The correlation value can be obtained, for example, by calculating the RMS (root mean square) of the difference between the pixel value of the template and each pixel value in the search area 310.

対応点候補抽出部511は、後述する抽出しきい値指定部512によって指定されたしきい値を用いて、相関マップ300における相関値から対応点候補221〜223の抽出をおこなう。より具体的には、たとえば、相関マップ300において、しきい値以上となる相関値をもつ相関ピーク301〜303の対応点候補221〜223を抽出する。   The corresponding point candidate extraction unit 511 extracts the corresponding point candidates 221 to 223 from the correlation values in the correlation map 300 using the threshold value specified by the extraction threshold value specifying unit 512 described later. More specifically, for example, in the correlation map 300, corresponding point candidates 221 to 223 of the correlation peaks 301 to 303 having a correlation value equal to or greater than a threshold value are extracted.

抽出しきい値指定部512は、相関マップ300における注目点211に対する対応点候補221〜223を抽出する相関値のしきい値を指定する。しきい値は、たとえば、任意の値でもよく、ユーザにより設定できる構成としてもよい。   The extraction threshold value designation unit 512 designates a correlation value threshold value for extracting corresponding point candidates 221 to 223 for the point of interest 211 in the correlation map 300. The threshold value may be any value, for example, and may be configured to be set by the user.

対応点決定部513は、対応点候補抽出部511によって抽出された対応点候補221〜223の中から、対応点座標推定部507によって推定された対応点座標に最も近い対応点候補221を注目点211に対応する対応点に決定する。   The corresponding point determination unit 513 selects the corresponding point candidate 221 closest to the corresponding point coordinates estimated by the corresponding point coordinate estimation unit 507 from the corresponding point candidates 221 to 223 extracted by the corresponding point candidate extraction unit 511. The corresponding point corresponding to 211 is determined.

なお、図5において上述したテンプレート切り出し部503、フレーム画像復元部504、フレーム内動きベクトル算出部505、フレーム間動きベクトル算出部506、対応点座標推定部507、オプティカルフロー決定部508、相関マップ生成部510、対応点候補抽出部511、抽出しきい値指定部512、対応点決定部513は、具体的には、たとえば、図4に示したROM402、RAM403、HD405などの記録媒体に記録されたプログラムを、CPU401が実行することによって、また通信I/F409やキーボード410やマウス411によって、その機能を実現する。   Note that the template cutout unit 503, the frame image restoration unit 504, the intraframe motion vector calculation unit 505, the interframe motion vector calculation unit 506, the corresponding point coordinate estimation unit 507, the optical flow determination unit 508, and the correlation map generation described above with reference to FIG. Specifically, the unit 510, the corresponding point candidate extracting unit 511, the extraction threshold value specifying unit 512, and the corresponding point determining unit 513 are recorded in a recording medium such as the ROM 402, the RAM 403, and the HD 405 shown in FIG. When the CPU 401 executes the program, the function is realized by the communication I / F 409, the keyboard 410, and the mouse 411.

(オプティカルフロー算出装置500の処理の内容)
つぎに、図6を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置500の処理の内容について説明する。図6は、この発明の実施の形態にかかるオプティカルフロー算出装置の処理の内容を示すフローチャートである。図6のフローチャートにおいて、まず、オプティカルフロー算出装置500は、フレーム画像取得部501によって取得されたフレーム画像の入力を受け付けたか否かを判断する(ステップS601)。
(Contents of processing of optical flow calculation apparatus 500)
Next, the contents of the process of the optical flow calculation apparatus 500 according to the embodiment of the present invention will be described with reference to FIG. FIG. 6 is a flowchart showing the contents of the process of the optical flow calculation apparatus according to the embodiment of the present invention. In the flowchart of FIG. 6, first, the optical flow calculation apparatus 500 determines whether or not an input of a frame image acquired by the frame image acquisition unit 501 has been received (step S601).

ステップS601において、フレーム画像の入力を受け付けるのを待って、受け付けた場合(ステップS601:Yes)は、第一フレーム画像保持部502および第二フレーム画像保持部509に、連続する2フレームのフレーム画像を記録する(ステップS602)。フレーム画像の記録は、たとえば、第一フレーム画像保持部502によって第一フレーム画像210を保持し、第二フレーム画像保持部509によって第二フレーム画像220を保持する。また、フレーム画像の保持は、連続して入力されるフレーム画像を交互に必要な容量分保持するものとして、上書きや消去を繰り返す構成としてもよい。   In step S601, waiting for the input of the frame image, and if received (step S601: Yes), the first frame image holding unit 502 and the second frame image holding unit 509 receive two consecutive frame images. Is recorded (step S602). For recording the frame image, for example, the first frame image holding unit 502 holds the first frame image 210 and the second frame image holding unit 509 holds the second frame image 220. In addition, the frame image may be retained by repeatedly overwriting and erasing the frame image that is successively input for the necessary capacity.

つぎに、オプティカルフロー算出装置500は、ステップS602において記録されたフレーム画像に基づいて、オプティカルフロー算出座標を算出する(ステップS603)。オプティカルフロー算出座標の算出は、第一フレーム画像保持部502に保持された第一フレーム画像210内における任意の点の座標を算出してもよく、具体的に本実施の形態では、注目点211の座標を算出する。   Next, the optical flow calculation device 500 calculates optical flow calculation coordinates based on the frame image recorded in step S602 (step S603). The optical flow calculation coordinates may be calculated by calculating the coordinates of an arbitrary point in the first frame image 210 held in the first frame image holding unit 502. Specifically, in the present embodiment, the attention point 211 is calculated. The coordinates of are calculated.

つづいて、オプティカルフロー算出装置500は、ステップS603において算出されたオプティカルフロー算出座標に対応する対応点座標推定処理を実行する(ステップS604)。対応点座標推定処理は、たとえば、第一フレーム画像保持部502に保持された第一フレーム画像210内の注目点211に関するフレーム間動きベクトルに基づいておこなう構成であり、対応点座標推定処理の詳細は図7に後述する。   Subsequently, the optical flow calculation device 500 executes a corresponding point coordinate estimation process corresponding to the optical flow calculation coordinates calculated in step S603 (step S604). Corresponding point coordinate estimation processing is, for example, a configuration that is performed based on the inter-frame motion vector related to the point of interest 211 in the first frame image 210 held in the first frame image holding unit 502. Details of the corresponding point coordinate estimation processing Will be described later with reference to FIG.

そして、オプティカルフロー算出装置500は、ステップS603において算出されたオプティカルフロー算出座標に対応する対応点候補抽出処理を実行する(ステップS605)。対応点候補抽出処理は、たとえば、第二フレーム画像保持部509に保持された第二フレーム画像220内において、注目点211に関する相関マップ300に基づいておこなう構成でもよく、対応点候補抽出処理の詳細は図8に後述する。   Then, the optical flow calculation apparatus 500 executes a corresponding point candidate extraction process corresponding to the optical flow calculation coordinates calculated in step S603 (step S605). For example, the corresponding point candidate extraction processing may be performed based on the correlation map 300 related to the point of interest 211 in the second frame image 220 held in the second frame image holding unit 509. Details of the corresponding point candidate extraction processing Will be described later with reference to FIG.

なお、図6のフローチャートにおいては、ステップS604において対応点座標推定処理を実行して、ステップS605における対応点候補抽出処理を実行するものとしているが、処理の順序はこれに限るものではなく、たとえば、先に対応点候補抽出処理を実行して、その後対応点座標推定処理を実行したり、対応点座標推定処理と対応点候補抽出処理を同時に実行することとしてもよい。   In the flowchart of FIG. 6, the corresponding point coordinate estimation process is executed in step S604 and the corresponding point candidate extraction process in step S605 is executed. However, the order of the processes is not limited to this, for example, The corresponding point candidate extraction process may be executed first, and then the corresponding point coordinate estimation process may be executed, or the corresponding point coordinate estimation process and the corresponding point candidate extraction process may be executed simultaneously.

つぎに、対応点決定部513により、ステップS604において推定された対応点座標と、ステップS605において抽出された対応点候補とに基づいて、対応点を決定する(ステップS606)。より具体的に対応点の決定は、たとえば、ステップS605において抽出された対応点候補221〜223の中から、ステップS604において推定された対応点座標に最も近い対応点候補221を、注目点211に対応する対応点に決定する。   Next, a corresponding point is determined by the corresponding point determination unit 513 based on the corresponding point coordinates estimated in step S604 and the corresponding point candidate extracted in step S605 (step S606). More specifically, the corresponding point is determined by, for example, selecting the corresponding point candidate 221 closest to the corresponding point coordinates estimated in step S604 from the corresponding point candidates 221 to 223 extracted in step S605 as the attention point 211. The corresponding corresponding point is determined.

つづいて、オプティカルフロー算出装置500は、オプティカルフローを算出する(ステップS607)。オプティカルフローの算出は、たとえば、ステップS606において決定された注目点211に対応する対応点に基づいておこなう。より具体的には、オプティカルフロー決定部508により、注目点211と、ステップS606において決定された対応点から、注目点211のフレーム間動きベクトルを算出して、注目点211のオプティカルフローに決定する。   Subsequently, the optical flow calculation device 500 calculates an optical flow (step S607). The optical flow is calculated based on the corresponding points corresponding to the attention point 211 determined in step S606, for example. More specifically, the optical flow determination unit 508 calculates the inter-frame motion vector of the attention point 211 from the attention point 211 and the corresponding point determined in step S606, and determines the optical flow of the attention point 211. .

なお、図6のフローチャートにおいては、ステップS607において、注目点211と、ステップS606において決定された対応点から、注目点211のフレーム間動きベクトルを算出して、注目点211のオプティカルフローに決定する構成としたが、図7に後述するステップS604の対応点座標推定処理において算出されるフレーム間動きベクトルに基づいて、オプティカルフローを決定する構成としてもよい。その場合、ステップS605における第二フレーム画像を用いた対応点候補抽出処理を実行することなく、第一フレーム画像のみで、オプティカルフローが決定できる。   In the flowchart of FIG. 6, in step S607, the inter-frame motion vector of the target point 211 is calculated from the target point 211 and the corresponding point determined in step S606, and the optical flow of the target point 211 is determined. However, the optical flow may be determined based on the inter-frame motion vector calculated in the corresponding point coordinate estimation process in step S604 described later in FIG. In that case, the optical flow can be determined only by the first frame image without executing the corresponding point candidate extraction process using the second frame image in step S605.

そして、オプティカルフロー算出装置500は、すべてのオプティカルフローの算出が終了したか否かを判断する(ステップS608)。より具体的には、たとえば、オプティカルフロー決定部508により、第一フレーム画像210における注目点211の他の座標を注目点として、第一フレーム画像210内の各画素に対するオプティカルフローの決定が終了したか否かを判断する。   Then, the optical flow calculation apparatus 500 determines whether or not calculation of all optical flows has been completed (step S608). More specifically, for example, the optical flow determination unit 508 ends the determination of the optical flow for each pixel in the first frame image 210 with the other coordinates of the attention point 211 in the first frame image 210 as the attention point. Determine whether or not.

ステップS608において、すべてのオプティカルフローの算出が終了していない場合(ステップS608:No)は、ステップS603に戻って処理を繰り返す。また、ステップS608において、すべてのオプティカルフローの算出が終了した場合(ステップS608:Yes)は、そのまま一連の処理を終了する。   In step S608, when calculation of all the optical flows has not been completed (step S608: No), the process returns to step S603 and is repeated. In step S608, when calculation of all optical flows has been completed (step S608: Yes), the series of processing ends.

つづいて、図7を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置500における対応点座標推定処理(図6のステップS604)の内容について説明する。図7は、この発明の実施の形態にかかる対応点座標推定処理(図6のステップS604)の内容を示すフローチャートである。   Next, the contents of the corresponding point coordinate estimation process (step S604 in FIG. 6) in the optical flow calculation apparatus 500 according to the embodiment of the present invention will be described with reference to FIG. FIG. 7 is a flowchart showing the contents of the corresponding point coordinate estimation process (step S604 in FIG. 6) according to the embodiment of the present invention.

図7のフローチャートにおいて、まず、テンプレート切り出し部503により、図6におけるステップS603において算出されたオプティカルフロー算出座標に基づいて、テンプレートを切り出す(ステップS701)。テンプレートの切り出しは、たとえば、前述したように、ステップS603において算出された注目点211の座標を中心とした所定領域のテンプレートを切り出すこととしてもよい。   In the flowchart of FIG. 7, first, the template cutout unit 503 cuts out a template based on the optical flow calculation coordinates calculated in step S603 in FIG. 6 (step S701). For example, as described above, the template may be cut out as a template in a predetermined area centered on the coordinates of the attention point 211 calculated in step S603.

つぎに、フレーム画像復元部504により、ステップS701において切り出されたテンプレートに対して、画像復元処理をおこなう(ステップS702)。画像復元処理は、たとえば、前述のAD法による方式でもよく、所定の回数だけ画像復元処理をおこなって、フーリエエラーが最小となる復元画像とフレーム内動きボケ関数に分離する構成でもよい。   Next, the frame image restoration unit 504 performs image restoration processing on the template cut out in step S701 (step S702). The image restoration processing may be, for example, a method based on the above-described AD method, and may be configured to perform image restoration processing a predetermined number of times and separate the restored image and the intra-frame motion blur function that minimize the Fourier error.

つづいて、フレーム内動きベクトル算出部505により、ステップS702において分離されたフレーム内動きボケ関数と、フレーム画像取得部501のボケ関数とに基づいて、フレーム内動きベクトルを算出する(ステップS703)。より具体的には、たとえば、フレーム内動きボケ関数をフレーム画像取得部501のボケ関数によりデコンボリューションして、第一フレーム画像210内の注目点211のフレーム内動きベクトルを算出する。   Subsequently, the intra-frame motion vector calculation unit 505 calculates an intra-frame motion vector based on the intra-frame motion blur function separated in step S702 and the blur function of the frame image acquisition unit 501 (step S703). More specifically, for example, the intra-frame motion blur function is deconvoluted by the blur function of the frame image acquisition unit 501 to calculate the intra-frame motion vector of the point of interest 211 in the first frame image 210.

そして、フレーム間動きベクトル算出部506により、ステップS703において算出されたフレーム内動きベクトルと、積分時間およびフレーム間隔時間とに基づいて、フレーム間動きベクトルを算出する(ステップS704)。フレーム間動きベクトルの算出は、より具体的には、フレーム内動きベクトルを(フレーム間隔時間/積分時間)倍して算出することとしてもよい。   Then, the inter-frame motion vector calculation unit 506 calculates an inter-frame motion vector based on the intra-frame motion vector calculated in step S703, the integration time, and the frame interval time (step S704). More specifically, the inter-frame motion vector may be calculated by multiplying the intra-frame motion vector by (frame interval time / integration time).

つぎに、対応点座標推定部507により、ステップS704において算出されたフレーム間動きベクトルに基づいて、注目点211に対応する対応点となる対応点座標を推定する(ステップS705)。具体的には、たとえば、前述したように、ステップS701においてテンプレートを切り出した注目点211の座標に、フレーム間動きベクトルを加算して対応点座標を推定する。そして、図6におけるステップS604の対応点座標推定処理を終了して、ステップS605へ移行する。   Next, the corresponding point coordinate estimation unit 507 estimates the corresponding point coordinates as the corresponding point corresponding to the point of interest 211 based on the inter-frame motion vector calculated in step S704 (step S705). Specifically, for example, as described above, the corresponding point coordinates are estimated by adding the inter-frame motion vector to the coordinates of the point of interest 211 cut out of the template in step S701. And the corresponding point coordinate estimation process of step S604 in FIG. 6 is complete | finished, and it transfers to step S605.

さらに、図8を用いて、この発明の実施の形態にかかるオプティカルフロー算出装置500における対応点候補抽出処理(図6のステップS605)の内容について説明する。図8は、この発明の実施の形態にかかる対応点候補抽出処理(図6のステップS605)の内容を示すフローチャートである。   Furthermore, the contents of the corresponding point candidate extraction process (step S605 in FIG. 6) in the optical flow calculation apparatus 500 according to the embodiment of the present invention will be described with reference to FIG. FIG. 8 is a flowchart showing the contents of the corresponding point candidate extraction process (step S605 in FIG. 6) according to the embodiment of the present invention.

図8のフローチャートにおいて、まず、相関マップ生成部510により、相関処理座標を算出する(ステップS801)。相関処理座標の算出は、たとえば、前述したように、第二フレーム画像220において、注目点211と相関処理をおこなう座標を算出する構成でもよく、注目点211の座標を中心とする検索領域310内の任意の座標としてもよい。   In the flowchart of FIG. 8, first, correlation processing coordinates are calculated by the correlation map generation unit 510 (step S801). For example, as described above, the correlation processing coordinates may be calculated by calculating the coordinates for performing the correlation processing with the attention point 211 in the second frame image 220, and within the search region 310 centered on the coordinates of the attention point 211. It is good also as arbitrary coordinates.

つづいて、相関マップ生成部510により、ステップS801において算出された相関処理座標に基づいて、相関領域を切り出す(ステップS802)とともに、相関領域における相関値を算出する(ステップS803)。相関領域の切り出しは、たとえば、前述したように、相関処理座標を中心とした微小領域を切り出す構成でもよく、注目点211におけるテンプレートの画素値と、相関領域内の画素値の差のRMS(二乗平均平方根)などを相関値として算出してもよい。   Subsequently, the correlation map generation unit 510 extracts a correlation region based on the correlation processing coordinates calculated in step S801 (step S802) and calculates a correlation value in the correlation region (step S803). For example, as described above, the correlation region may be cut out by cutting out a minute region centered on the correlation processing coordinates. The RMS (square) of the difference between the pixel value of the template at the target point 211 and the pixel value in the correlation region may be used. Average square root) may be calculated as the correlation value.

そして、相関マップ生成部510により、相関マップ300の生成が終了したか否かを判断する(ステップS804)。より具体的には、たとえば、検索領域310内をラスタスキャンしながら、相関値の算出が終了したか否かを判断する。ここで、相関マップ300の生成が終了していない場合(ステップS804:No)は、ステップS801に戻って処理を繰り返す。また、相関マップ300の生成が終了した場合(ステップS804:Yes)は、対応点候補抽出部511により、相関マップ300に対して、抽出しきい値指定部512によって指定された抽出しきい値を読み込む(ステップS805)。   Then, the correlation map generation unit 510 determines whether or not the generation of the correlation map 300 has been completed (step S804). More specifically, for example, it is determined whether or not the calculation of the correlation value is completed while performing a raster scan in the search area 310. Here, when the generation of the correlation map 300 is not completed (step S804: No), the process returns to step S801 and the process is repeated. When the generation of the correlation map 300 is completed (step S804: Yes), the corresponding threshold value candidate extraction unit 511 sets the extraction threshold value specified by the extraction threshold value specification unit 512 for the correlation map 300. Read (step S805).

つぎに、対応点候補抽出部511により、ステップS805において読み込まれた抽出しきい値を用いて、相関マップ300における相関値から対応点候補221〜223を抽出する(ステップS806)。より具体的には、たとえば、相関マップ300において、しきい値以上となる相関値をもつ相関ピーク301〜303の対応点候補221〜223を抽出する。そして、図6におけるステップS605の対応点候補抽出処理を終了して、ステップS606へ移行する。   Next, the corresponding point candidate extraction unit 511 extracts the corresponding point candidates 221 to 223 from the correlation values in the correlation map 300 using the extraction threshold value read in step S805 (step S806). More specifically, for example, in the correlation map 300, corresponding point candidates 221 to 223 of the correlation peaks 301 to 303 having a correlation value equal to or greater than a threshold value are extracted. Then, the corresponding point candidate extraction process in step S605 in FIG. 6 is terminated, and the process proceeds to step S606.

このように、この発明の実施の形態によれば、注目点のフレーム間動きベクトルを算出し、算出されたフレーム間動きベクトルに基づいてオプティカルフローを決定することができる。したがって、単一のフレーム画像を用いるだけで、オプティカルフローを得ることができ、高速に移動する物体であっても、次フレーム画像に依存することなくオプティカルフローを算出し、物体の3次元構造推定の高品質化を図ることができる。   As described above, according to the embodiment of the present invention, the inter-frame motion vector of the target point can be calculated, and the optical flow can be determined based on the calculated inter-frame motion vector. Therefore, an optical flow can be obtained simply by using a single frame image, and even if the object moves at high speed, the optical flow is calculated without depending on the next frame image, and the three-dimensional structure of the object is estimated. The quality can be improved.

また、対応点座標推定処理によって対応点座標を推定する。そして、対応点候補抽出処理によって抽出された対応点候補の中から、推定された対応点座標に近いものを対応点に決定してオプティカルフローを算出することができる。したがって、検索領域内に類似した輝度分布をもつ領域が複数あっても、正確な対応点を決定して、簡単かつ高精度にオプティカルフローを算出し、物体の3次元構造推定の高品質化を図ることができる。   Corresponding point coordinates are estimated by corresponding point coordinate estimation processing. Then, from the corresponding point candidates extracted by the corresponding point candidate extraction process, the one close to the estimated corresponding point coordinates is determined as the corresponding point, and the optical flow can be calculated. Therefore, even if there are multiple regions with similar luminance distributions in the search region, the exact corresponding points are determined, the optical flow is calculated easily and with high accuracy, and the quality of the three-dimensional structure estimation of the object is improved. Can be planned.

以上説明したように、この発明によれば、フレーム間動きベクトルによって注目点のオプティカルフローを決定できるため、簡単かつ高精度にオプティカルフローを算出して、物体の3次元構造推定の高品質化を図ることができる。   As described above, according to the present invention, since the optical flow at the point of interest can be determined by the inter-frame motion vector, the optical flow can be calculated easily and with high accuracy to improve the quality of the three-dimensional structure estimation of the object. Can be planned.

なお、本実施の形態で説明したオプティカルフロー算出方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。   The optical flow calculation method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The program may be a transmission medium that can be distributed via a network such as the Internet.

(付記1)カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出する注目点抽出手段と、
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出手段によって抽出された注目点に関する動きボケ関数を算出する動きボケ関数算出手段と、
前記動きボケ関数算出手段によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出するフレーム内動きベクトル算出手段と、
前記フレーム内動きベクトル算出手段によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出するフレーム間動きベクトル算出手段と、
前記フレーム間動きベクトル算出手段によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定するオプティカルフロー決定手段と、
を備えることを特徴とするオプティカルフロー算出装置。
(Supplementary note 1) Attention point extraction means for extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating unit that calculates a motion blur function related to the target point extracted by the target point extracting unit by the image restoration processing related to the first frame image;
Intraframe motion vector calculation means for calculating an intraframe motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation means and the blur function of the camera. When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculating means, and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculating means for calculating an inter-frame motion vector of the point of interest between the frame image of
Optical flow determination means for determining the inter-frame motion vector calculated by the inter-frame motion vector calculation means as the optical flow of the target point;
An optical flow calculation device comprising:

(付記2)前記第2のフレーム画像から前記注目点に対応する対応点候補を抽出する対応点候補抽出手段と、
前記フレーム間動きベクトル算出手段によって算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定する対応点座標推定手段と、
前記対応点候補抽出手段によって抽出された対応点候補と、前記対応点座標推定手段によって推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定する対応点決定手段と、を備え、
前記オプティカルフロー決定手段は、
前記対応点決定手段によって決定された対応点に基づいて、前記注目点のオプティカルフローを決定することを特徴とする付記1に記載のオプティカルフロー算出装置。
(Supplementary Note 2) Corresponding point candidate extracting means for extracting a corresponding point candidate corresponding to the attention point from the second frame image;
Corresponding point coordinate estimating means for estimating corresponding point coordinates that become corresponding points corresponding to the point of interest based on the inter-frame motion vector calculated by the inter-frame motion vector calculating means;
A corresponding point determining unit that determines a corresponding point corresponding to the point of interest based on the corresponding point candidate extracted by the corresponding point candidate extracting unit and the corresponding point coordinate estimated by the corresponding point coordinate estimating unit; With
The optical flow determining means includes
The optical flow calculation apparatus according to appendix 1, wherein the optical flow of the attention point is determined based on the corresponding points determined by the corresponding point determination means.

(付記3)カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出する注目点抽出工程と、
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出工程によって抽出された注目点に関する動きボケ関数を算出する動きボケ関数算出工程と、
前記動きボケ関数算出工程によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出するフレーム内動きベクトル算出工程と、
前記フレーム内動きベクトル算出工程によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出するフレーム間動きベクトル算出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定するオプティカルフロー決定工程と、
を含むことを特徴とするオプティカルフロー算出方法。
(Supplementary Note 3) An attention point extraction step of extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating step of calculating a motion blur function related to the attention point extracted by the attention point extraction step by the image restoration processing related to the first frame image;
An intra-frame motion vector calculation step of calculating an intra-frame motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation step and the blur function of the camera When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculation step and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculation step of calculating an inter-frame motion vector of the point of interest between the frame image of
An optical flow determination step of determining an inter-frame motion vector calculated by the inter-frame motion vector calculation step as an optical flow of the attention point;
An optical flow calculation method comprising:

(付記4)前記第2のフレーム画像から前記注目点に対応する対応点候補を抽出する対応点候補抽出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定する対応点座標推定工程と、
前記対応点候補抽出工程によって抽出された対応点候補と、前記対応点座標推定工程によって推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定する対応点決定工程と、を含み、
前記オプティカルフロー決定工程は、
前記対応点決定工程によって決定された対応点に基づいて、前記注目点のオプティカルフローを決定することを特徴とする付記3に記載のオプティカルフロー算出方法。
(Supplementary Note 4) A corresponding point candidate extracting step of extracting a corresponding point candidate corresponding to the target point from the second frame image;
A corresponding point coordinate estimating step for estimating a corresponding point coordinate to be a corresponding point corresponding to the target point based on the inter-frame motion vector calculated by the inter-frame motion vector calculating step;
A corresponding point determining step for determining a corresponding point corresponding to the point of interest based on the corresponding point candidate extracted by the corresponding point candidate extracting step and the corresponding point coordinate estimated by the corresponding point coordinate estimating step; Including
The optical flow determination step includes
4. The optical flow calculation method according to appendix 3, wherein the optical flow of the attention point is determined based on the corresponding points determined in the corresponding point determination step.

(付記5)カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出させる注目点抽出工程と、
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出工程によって抽出された注目点に関する動きボケ関数を算出させる動きボケ関数算出工程と、
前記動きボケ関数算出工程によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出させるフレーム内動きベクトル算出工程と、
前記フレーム内動きベクトル算出工程によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出させるフレーム間動きベクトル算出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定させるオプティカルフロー決定工程と、
をコンピュータに実行させることを特徴とするオプティカルフロー算出プログラム。
(Supplementary Note 5) An attention point extraction step of extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating step of calculating a motion blur function related to the attention point extracted by the attention point extraction step by the image restoration processing related to the first frame image;
An intra-frame motion vector calculation step of calculating an intra-frame motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation step and the blur function of the camera When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculation step and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculation step of calculating an inter-frame motion vector of the point of interest between the frame image of
An optical flow determination step of determining the inter-frame motion vector calculated by the inter-frame motion vector calculation step as the optical flow of the attention point;
An optical flow calculation program for causing a computer to execute.

(付記6)前記第2のフレーム画像から前記注目点に対応する対応点候補を抽出させる対応点候補抽出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定させる対応点座標推定工程と、
前記対応点候補抽出工程によって抽出された対応点候補と、前記対応点座標推定工程によって推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定させる対応点決定工程と、をコンピュータに実行させ、
前記オプティカルフロー決定工程は、
さらに、前記対応点決定工程によって決定された対応点に基づいて、前記注目点のオプティカルフローを決定させることを特徴とする付記5に記載のオプティカルフロー算出プログラム。
(Supplementary Note 6) A corresponding point candidate extracting step of extracting a corresponding point candidate corresponding to the target point from the second frame image;
A corresponding point coordinate estimating step for estimating a corresponding point coordinate to be a corresponding point corresponding to the target point based on the inter-frame motion vector calculated by the inter-frame motion vector calculating step;
A corresponding point determining step for determining a corresponding point corresponding to the point of interest based on the corresponding point candidate extracted by the corresponding point candidate extracting step and the corresponding point coordinate estimated by the corresponding point coordinate estimating step; To the computer,
The optical flow determination step includes
Furthermore, the optical flow calculation program according to appendix 5, wherein the optical flow of the attention point is determined based on the corresponding points determined in the corresponding point determination step.

(付記7)付記4〜6のいずれか一つに記載のオプティカルフロー算出プログラムを記録したコンピュータに読み取り可能な記録媒体。 (Supplementary note 7) A computer-readable recording medium in which the optical flow calculation program according to any one of supplementary notes 4 to 6 is recorded.

以上のように、本発明にかかるオプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体は、2次元に投影された画像から、画像中の物体の3次元構造の推定などに用いるオプティカルフローの算出に有用であり、特に、車両や航空機など、高速に移動する物体の動画像に関するオプティカルフローを算出する場合や、航空機など高速に移動するプラットフォームに設置された撮像部によって撮像された動画像に関するオプティカルフローを算出する場合に適している。   As described above, the optical flow calculation device, the optical flow calculation method, the optical flow calculation program, and the recording medium according to the present invention are used for estimating a three-dimensional structure of an object in an image from a two-dimensionally projected image. It is useful for calculating optical flow, especially when calculating optical flow related to moving images of fast moving objects such as vehicles and airplanes, and for images taken by imaging units installed on high-speed moving platforms such as aircraft. This is suitable for calculating an optical flow related to a moving image.

この発明の実施の形態にかかるフレーム内動きベクトルの概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the motion vector in a frame concerning embodiment of this invention. この発明の実施の形態にかかる第一フレーム画像を示す説明図である。It is explanatory drawing which shows the 1st frame image concerning embodiment of this invention. この発明の実施の形態にかかる第二フレーム画像を示す説明図である。It is explanatory drawing which shows the 2nd frame image concerning embodiment of this invention. この発明の実施の形態にかかるフレーム間動きベクトルを示す説明図である。It is explanatory drawing which shows the inter-frame motion vector concerning embodiment of this invention. この発明の実施の形態にかかる対応点候補の抽出について示す説明図である。It is explanatory drawing shown about extraction of the corresponding point candidate concerning embodiment of this invention. この発明の実施の形態にかかる対応点の決定について示す説明図である。It is explanatory drawing shown about the determination of the corresponding point concerning embodiment of this invention. この発明の実施の形態にかかるオプティカルフロー算出装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the optical flow calculation apparatus concerning embodiment of this invention. この発明の実施の形態にかかるオプティカルフロー算出装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the optical flow calculation apparatus concerning embodiment of this invention. この発明の実施の形態にかかるオプティカルフロー算出装置の処理の内容を示すフローチャートである。It is a flowchart which shows the content of the process of the optical flow calculation apparatus concerning embodiment of this invention. この発明の実施の形態にかかる対応点座標推定処理(図6のステップS604)の内容を示すフローチャートである。It is a flowchart which shows the content of the corresponding point coordinate estimation process (step S604 of FIG. 6) concerning embodiment of this invention. この発明の実施の形態にかかる対応点候補抽出処理(図6のステップS605)の内容を示すフローチャートである。It is a flowchart which shows the content of the corresponding point candidate extraction process (step S605 of FIG. 6) concerning embodiment of this invention. 従来のオプティカルフロー算出方式を示す第一フレーム画像に関する説明図である。It is explanatory drawing regarding the 1st frame image which shows the conventional optical flow calculation system. 従来のオプティカルフロー算出方式を示す第二フレーム画像に関する説明図である。It is explanatory drawing regarding the 2nd frame image which shows the conventional optical flow calculation system.

符号の説明Explanation of symbols

400 バス
401 CPU
402 ROM
403 RAM
404 HDD
405 HD
406 FDD
407 FD
408 ディスプレイ
409 通信I/F
410 キーボード
411 マウス
412 映像I/F
413 カメラ
500 オプティカルフロー算出装置
501 フレーム画像取得部
502 第一フレーム画像保持部
503 テンプレート切り出し部
504 フレーム画像復元部
505 フレーム内動きベクトル算出部
506 フレーム間動きベクトル算出部
507 対応点座標推定部
508 オプティカルフロー決定部
509 第二フレーム画像保持部
510 相関マップ生成部
511 対応点候補抽出部
512 抽出しきい値指定部
513 対応点決定部
514 撮像部
515 増幅部
516 A/D変換部

400 bus 401 CPU
402 ROM
403 RAM
404 HDD
405 HD
406 FDD
407 FD
408 Display 409 Communication I / F
410 Keyboard 411 Mouse 412 Video I / F
413 Camera 500 Optical flow calculation device 501 Frame image acquisition unit 502 First frame image holding unit 503 Template cutout unit 504 Frame image restoration unit 505 Intraframe motion vector calculation unit 506 Interframe motion vector calculation unit 507 Corresponding point coordinate estimation unit 508 Optical Flow determining unit 509 Second frame image holding unit 510 Correlation map generating unit 511 Corresponding point candidate extracting unit 512 Extracting threshold value specifying unit 513 Corresponding point determining unit 514 Imaging unit 515 Amplifying unit 516 A / D converting unit

Claims (5)

カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出する注目点抽出手段と、
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出手段によって抽出された注目点に関する動きボケ関数を算出する動きボケ関数算出手段と、
前記動きボケ関数算出手段によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出するフレーム内動きベクトル算出手段と、
前記フレーム内動きベクトル算出手段によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出するフレーム間動きベクトル算出手段と、
前記フレーム間動きベクトル算出手段によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定するオプティカルフロー決定手段と、
を備えることを特徴とするオプティカルフロー算出装置。
Attention point extracting means for extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating unit that calculates a motion blur function related to the target point extracted by the target point extracting unit by the image restoration processing related to the first frame image;
Intraframe motion vector calculation means for calculating an intraframe motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation means and the blur function of the camera. When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculating means, and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculating means for calculating an inter-frame motion vector of the point of interest between the frame image of
Optical flow determination means for determining the inter-frame motion vector calculated by the inter-frame motion vector calculation means as the optical flow of the target point;
An optical flow calculation device comprising:
前記第2のフレーム画像から前記注目点に対応する対応点候補を抽出する対応点候補抽出手段と、
前記フレーム間動きベクトル算出手段によって算出されたフレーム間動きベクトルに基づいて、前記注目点に対応する対応点となる対応点座標を推定する対応点座標推定手段と、
前記対応点候補抽出手段によって抽出された対応点候補と、前記対応点座標推定手段によって推定された対応点座標とに基づいて、前記注目点に対応する対応点を決定する対応点決定手段と、を備え、
前記オプティカルフロー決定手段は、
前記対応点決定手段によって決定された対応点に基づいて、前記注目点のオプティカルフローを決定することを特徴とする請求項1に記載のオプティカルフロー算出装置。
Corresponding point candidate extracting means for extracting corresponding point candidates corresponding to the point of interest from the second frame image;
Corresponding point coordinate estimating means for estimating corresponding point coordinates that become corresponding points corresponding to the point of interest based on the inter-frame motion vector calculated by the inter-frame motion vector calculating means;
A corresponding point determining unit that determines a corresponding point corresponding to the point of interest based on the corresponding point candidate extracted by the corresponding point candidate extracting unit and the corresponding point coordinate estimated by the corresponding point coordinate estimating unit; With
The optical flow determining means includes
The optical flow calculation apparatus according to claim 1, wherein the optical flow of the attention point is determined based on the corresponding point determined by the corresponding point determination unit.
カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出する注目点抽出工程と、
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出工程によって抽出された注目点に関する動きボケ関数を算出する動きボケ関数算出工程と、
前記動きボケ関数算出工程によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出するフレーム内動きベクトル算出工程と、
前記フレーム内動きベクトル算出工程によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出するフレーム間動きベクトル算出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定するオプティカルフロー決定工程と、
を含むことを特徴とするオプティカルフロー算出方法。
An attention point extraction step of extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating step of calculating a motion blur function related to the attention point extracted by the attention point extraction step by the image restoration processing related to the first frame image;
An intra-frame motion vector calculation step of calculating an intra-frame motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation step and the blur function of the camera When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculation step and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculation step of calculating an inter-frame motion vector of the point of interest between the frame image of
An optical flow determination step of determining an inter-frame motion vector calculated by the inter-frame motion vector calculation step as an optical flow of the attention point;
An optical flow calculation method comprising:
カメラから入力されてくる一連のフレーム画像内の任意の第1のフレーム画像から任意の注目点を抽出させる注目点抽出工程と、
前記第1のフレーム画像に関する画像復元処理により、前記注目点抽出工程によって抽出された注目点に関する動きボケ関数を算出させる動きボケ関数算出工程と、
前記動きボケ関数算出工程によって算出された動きボケ関数と、前記カメラのボケ関数とに基づいて、前記第1のフレーム画像内における前記注目点のフレーム内動きベクトルを算出させるフレーム内動きベクトル算出工程と、
前記フレーム内動きベクトル算出工程によって算出されたフレーム内動きベクトルと、前記カメラの積分時間およびフレーム間隔時間とに基づいて、前記第1のフレーム画像と、当該第1のフレーム画像の次の第2のフレーム画像との間における前記注目点のフレーム間動きベクトルを算出させるフレーム間動きベクトル算出工程と、
前記フレーム間動きベクトル算出工程によって算出されたフレーム間動きベクトルを前記注目点のオプティカルフローに決定させるオプティカルフロー決定工程と、
をコンピュータに実行させることを特徴とするオプティカルフロー算出プログラム。
An attention point extraction step of extracting an arbitrary attention point from an arbitrary first frame image in a series of frame images input from the camera;
A motion blur function calculating step of calculating a motion blur function related to the attention point extracted by the attention point extraction step by the image restoration processing related to the first frame image;
An intra-frame motion vector calculation step of calculating an intra-frame motion vector of the point of interest in the first frame image based on the motion blur function calculated by the motion blur function calculation step and the blur function of the camera When,
Based on the intra-frame motion vector calculated by the intra-frame motion vector calculation step and the integration time and frame interval time of the camera, the first frame image and the second second after the first frame image. An inter-frame motion vector calculation step of calculating an inter-frame motion vector of the point of interest between the frame image of
An optical flow determination step of determining the inter-frame motion vector calculated by the inter-frame motion vector calculation step as the optical flow of the attention point;
An optical flow calculation program for causing a computer to execute.
請求項4に記載のオプティカルフロー算出プログラムを記録したコンピュータに読み取り可能な記録媒体。

A computer-readable recording medium on which the optical flow calculation program according to claim 4 is recorded.

JP2005377691A 2005-12-28 2005-12-28 Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium Withdrawn JP2007179354A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005377691A JP2007179354A (en) 2005-12-28 2005-12-28 Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005377691A JP2007179354A (en) 2005-12-28 2005-12-28 Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium

Publications (1)

Publication Number Publication Date
JP2007179354A true JP2007179354A (en) 2007-07-12

Family

ID=38304467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005377691A Withdrawn JP2007179354A (en) 2005-12-28 2005-12-28 Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium

Country Status (1)

Country Link
JP (1) JP2007179354A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101968881A (en) * 2010-10-27 2011-02-09 东南大学 Motion blurring and defocusing composite blurring image restoration method
WO2013001710A1 (en) * 2011-06-29 2013-01-03 コニカミノルタホールディングス株式会社 Corresponding-point search apparatus
CN105957036A (en) * 2016-05-06 2016-09-21 电子科技大学 Video motion blur removing method strengthening character prior
CN110036638A (en) * 2017-01-04 2019-07-19 高通股份有限公司 Motion vector for bi-directional optical stream (BIO) is rebuild

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101968881A (en) * 2010-10-27 2011-02-09 东南大学 Motion blurring and defocusing composite blurring image restoration method
WO2013001710A1 (en) * 2011-06-29 2013-01-03 コニカミノルタホールディングス株式会社 Corresponding-point search apparatus
JPWO2013001710A1 (en) * 2011-06-29 2015-02-23 コニカミノルタ株式会社 Corresponding point search device
US9117135B2 (en) 2011-06-29 2015-08-25 Konica Minolta, Inc. Corresponding point searching apparatus
CN105957036A (en) * 2016-05-06 2016-09-21 电子科技大学 Video motion blur removing method strengthening character prior
CN105957036B (en) * 2016-05-06 2018-07-10 电子科技大学 A kind of video for strengthening character priori goes motion blur method
CN110036638A (en) * 2017-01-04 2019-07-19 高通股份有限公司 Motion vector for bi-directional optical stream (BIO) is rebuild
CN110036638B (en) * 2017-01-04 2023-06-27 高通股份有限公司 Method, device, equipment and storage medium for decoding video data

Similar Documents

Publication Publication Date Title
JP3944647B2 (en) Object measuring apparatus, object measuring method, and program
US9767611B2 (en) Information processing apparatus and method for estimating depth values using an approximate plane
JP3837575B2 (en) Speeding up of super-resolution processing
JP6478654B2 (en) Imaging apparatus and control method thereof
JP3109469B2 (en) Image input device
JP6326847B2 (en) Image processing apparatus, image processing method, and image processing program
JP5965293B2 (en) Camera pose estimation device and camera pose estimation program
JP5238220B2 (en) Resolution conversion apparatus, method and program
JP5335574B2 (en) Image processing apparatus and control method thereof
US20230394833A1 (en) Method, system and computer readable media for object detection coverage estimation
JP5251410B2 (en) Camera work calculation program, imaging apparatus, and camera work calculation method
JP5173549B2 (en) Image processing apparatus and imaging apparatus
JP2007179354A (en) Optical flow calculation device, optical flow calculation method, optical flow calculation program and recording medium
TWI361093B (en) Measuring object contour method and measuring object contour apparatus
JP5748355B2 (en) Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and program
JP2006245677A (en) Image processor, image processing method, and image processing program
JP2008217330A (en) Speed estimation method and speed estimation program
JP7232663B2 (en) Image processing device and image processing method
JP2000011134A (en) Device and method for detecting moving amount
US8179967B2 (en) Method and device for detecting movement of an entity provided with an image sensor
JP2008524696A (en) Method and system for calculating motion using correlation of difference images
JP7393179B2 (en) Photography equipment
US10410054B2 (en) Image processing device, method and program to align two images
JP2019070822A (en) Imaging apparatus and control method of the same
JP2007292657A (en) Camera motion information acquiring apparatus, camera motion information acquiring method, and recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090303