[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6099447B2 - Stereo pair determination device and stereo pair determination program - Google Patents

Stereo pair determination device and stereo pair determination program Download PDF

Info

Publication number
JP6099447B2
JP6099447B2 JP2013060178A JP2013060178A JP6099447B2 JP 6099447 B2 JP6099447 B2 JP 6099447B2 JP 2013060178 A JP2013060178 A JP 2013060178A JP 2013060178 A JP2013060178 A JP 2013060178A JP 6099447 B2 JP6099447 B2 JP 6099447B2
Authority
JP
Japan
Prior art keywords
stereo pair
scene data
stereo
shooting
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013060178A
Other languages
Japanese (ja)
Other versions
JP2014186476A (en
Inventor
要介 石渡
要介 石渡
秀明 前原
秀明 前原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013060178A priority Critical patent/JP6099447B2/en
Publication of JP2014186476A publication Critical patent/JP2014186476A/en
Application granted granted Critical
Publication of JP6099447B2 publication Critical patent/JP6099447B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

この発明は、数値標高モデルであるDEM(Digital Elevation Model)の算出に用いるシーンデータ(画像の撮影データ、画像の撮影位置、画像の撮影方向、画像の撮影時刻及び画像上の各ピクセルに対応する視線ベクトルから構成されているデータ)の組を決定するステレオペア決定装置及びステレオペア決定プログラムに関するものである。   The present invention corresponds to scene data (image shooting data, image shooting position, image shooting direction, image shooting time, and each pixel on the image used for calculating a digital elevation model (DEM) which is a digital elevation model. The present invention relates to a stereo pair determination device and a stereo pair determination program for determining a set of data composed of line-of-sight vectors.

近年、画像取得用のセンサの発達により、高解像度な画像を撮影することが可能になってきている。
画像取得用のセンサとしては、撮像素子が2次元に配列されているセンサであって、2次元の画像を一度に取得するエリアセンサと、撮像素子が1次元に配列されているセンサであって、そのセンサを動かしながら1次元の画像を取得し、複数の1次元の画像から2次元の画像を構築するラインセンサとがある。
一般的に、エリアセンサよりラインセンサの方が高解像度の画像を取得することができる。
In recent years, it has become possible to take high-resolution images due to the development of sensors for image acquisition.
As an image acquisition sensor, an image sensor is arranged in a two-dimensional manner, an area sensor that obtains a two-dimensional image at a time, and a sensor in which the image sensor is arranged in a one-dimensional manner. There is a line sensor that acquires a one-dimensional image while moving the sensor and constructs a two-dimensional image from a plurality of one-dimensional images.
Generally, a line sensor can acquire a higher resolution image than an area sensor.

画像取得用のセンサにより取得された画像や、画像撮影時のパラメータ(撮影位置や撮影方向)を利用して、新たな情報を生成する処理がある。
例えば、図8に示すように、2枚の画像のマッチングを実施することで、2枚の画像上で対応している点(以下、「対応点」と称する)を求め、その対応点の座標での視線ベクトルv,vと、2枚の画像の撮影位置x,xとから交点pを求めることで、交点pの3次元座標を計算する処理がある。
交点pの高度hは、直線x+t・vと、直線x+s・vとの交点として求めることができる。ただし、t,sは変数である。ただし、3次元上では、誤差により直線の交点が求まらないこともあり、その場合は両直線の最近傍点(交会点)をpとみなす。
なお、3次元座標のうち、高度の値をまとめたものがDEMであり、DEMは地表面や建物などを表現したものになる(例えば、非特許文献1を参照)。
There is a process for generating new information by using an image acquired by an image acquisition sensor and parameters (shooting position and shooting direction) at the time of image shooting.
For example, as shown in FIG. 8, by matching two images, a corresponding point (hereinafter referred to as “corresponding point”) on the two images is obtained, and the coordinates of the corresponding point are obtained. There is a process of calculating the three-dimensional coordinates of the intersection point p by obtaining the intersection point p from the line-of-sight vectors v 1 and v 2 and the shooting positions x 1 and x 2 of the two images.
Advanced h p of intersection p can be obtained as the intersection of the straight line x 1 + t · v 1, the straight line x 2 + s · v 2. However, t and s are variables. However, in three dimensions, an intersection of straight lines may not be obtained due to an error, and in this case, the nearest point (intersection point) of both straight lines is regarded as p.
Of the three-dimensional coordinates, a group of altitude values is a DEM, and the DEM represents a ground surface, a building, or the like (for example, see Non-Patent Document 1).

以下の非特許文献2に開示されている航空レーザーの測量手順によれば、DEMは、最低2枚の画像(ステレオペア)があれば算出可能であるが、同じ場所を撮影している画像が多数ある場合、複数のステレオペアを生成して、複数のステレオペアからDEMをそれぞれ計算するようにすれば、DEMの計算精度を高めることができる。そのため、DEMを高精度に計算するには、多くの画像を使用することが重要である。
しかし、1回のDEMを計算するために、同じ場所の撮影を新たに何度も繰り返すことはコスト高になる。
したがって、出来る限りに、同じ場所を新たに撮影せずに、過去に撮影された画像を用いてDEMを計算する必要がある。
According to the survey procedure of aviation laser disclosed in Non-Patent Document 2 below, DEM can be calculated if there are at least two images (stereo pairs). When there are a large number, a plurality of stereo pairs are generated, and the DEM is calculated from each of the plurality of stereo pairs, so that the calculation accuracy of the DEM can be improved. Therefore, it is important to use many images in order to calculate the DEM with high accuracy.
However, in order to calculate one DEM, it is costly to repeat the imaging at the same place many times.
Therefore, as much as possible, it is necessary to calculate the DEM using images taken in the past without newly photographing the same place.

DEMを計算する場合、上述したように、2枚の画像上での対応点を見つける必要がある。
一般的には、画像処理によって画像間の一致度(対応点を含む周辺の画像が、どのくらい一致するかを示す指標)を計算し、その一致度に基づいて対応点を求めるようにしている。
また、DEMの計算では、上述したように、視線ベクトルの交点pを計算するが(図8を参照)、2本の視線ベクトルv,vがなす角度(撮影視差に相当する)が小さい場合、2枚の画像上での対応点の小さなずれが大きな高度差になって現れる。一般的には、対応点はずれ易いため、視差が小さい視線ベクトルv,vを用いる場合、DEMの計算誤差が大きくなる傾向がある。
When calculating the DEM, as described above, it is necessary to find corresponding points on the two images.
Generally, the degree of coincidence between images (an index indicating how much the surrounding images including corresponding points match) is calculated by image processing, and the corresponding points are obtained based on the degree of coincidence.
Further, in the DEM calculation, as described above, the intersection point p of the line-of-sight vectors is calculated (see FIG. 8), but the angle formed by the two line-of-sight vectors v 1 and v 2 (corresponding to the shooting parallax) is small. In this case, a small shift of corresponding points on the two images appears as a large difference in altitude. In general, since the corresponding points are easily displaced, when the line-of-sight vectors v 1 and v 2 with small parallax are used, the calculation error of the DEM tends to increase.

一方、視差が大きい場合は、画像の撮影方向が大きく異なるので、同じ場所を撮影していても、見え方が大きく異なることがある。このような場合には、画像処理(マッチング処理)が難しくなり、その結果として、対応点を間違えてしまう可能性が高くなる。
したがって、DEMの計算では、視差が大きすぎても、小さすぎてもよくないので、適正な視差の画像を用いることが望ましい。
On the other hand, when the parallax is large, the shooting direction of the image is greatly different, so even if the same place is shot, the appearance may be greatly different. In such a case, image processing (matching processing) becomes difficult, and as a result, there is a high possibility that the corresponding points will be mistaken.
Therefore, in the DEM calculation, it is not necessary that the parallax is too large or too small, so it is desirable to use an image with an appropriate parallax.

視差以外にも、DEMの計算を行う範囲が変動しているか、変動していないかを考慮する必要がある。
即ち、各々の画像が撮影された時間において、「DEM計算対象の場所の高度が本当に一致しているか」どうかを考慮する必要がある。
例えば、2つの画像が撮影された時間の間隔が数秒程度であれば、その間に生じる地形の変動や、新たな建物の建築などを考える必要はないが、その時間間隔が数ヶ月などであれば、地形の変動や、新たな建物の建築などが行われている可能性は十分にある。
周囲も含めて大幅に景観が変わっていれば、マッチング処理で一致しなくなる可能性が高い(対応点が見つけられない可能性が高い)ため、DEMを計算することができなくなる。仮にマッチング処理で対応点が見つけられても、そのような対応点から求める交点の位置誤差が大きくなるため、2枚の画像の撮影時間の時差は短い方が望ましい。
なお、DEMの計算では、通常、「現状(最も新しい状況)の高度を計算する」ことを想定するため、新しいデータを使う方が、計算結果と現状との一致度合いは高いと考えられる。
In addition to the parallax, it is necessary to consider whether or not the range in which the DEM calculation is performed varies.
That is, it is necessary to consider whether or not “the altitudes of the locations to be subjected to DEM calculation are really coincided” at the time when each image is taken.
For example, if the interval between the time when two images were taken is about several seconds, there is no need to consider the terrain change or the construction of a new building, but if the interval is several months, etc. There is a good possibility that topographic changes and construction of new buildings are underway.
If the scenery including the surroundings has changed significantly, there is a high possibility that the matching process will not match (there is a high possibility that no corresponding point will be found), and it will not be possible to calculate the DEM. Even if the corresponding point is found by the matching process, the position error of the intersection obtained from such a corresponding point becomes large, so it is desirable that the time difference between the photographing times of the two images is short.
Note that in the DEM calculation, since it is usually assumed that “the altitude of the current state (newest state) is calculated”, it is considered that the degree of coincidence between the calculation result and the current state is higher when new data is used.

DEMを計算する際に行うマッチング処理では、一般的に、一方の画像内の一部分の領域である部分画像を他方の画像と重ね合わせ、その重ね合わせ位置での一致度を算出する(例えば、一致度を表す正規化相関値などを算出する)。
重ね合わせ位置を変えながら一致度を算出し、最も一致度が高くなる重ね合わせ位置が対応点であるとする。
ただし、どのような位置に重ねても、一致度が大きくならない場合には、対応点が存在しないと判断して、これらの画像をステレオペアとして扱わないようにすることが望ましい。
In the matching process performed when calculating the DEM, in general, a partial image that is a partial region in one image is superimposed on the other image, and the degree of coincidence is calculated at the overlapping position (for example, matching) Calculate a normalized correlation value that represents degrees).
The degree of coincidence is calculated while changing the overlapping position, and the overlapping position with the highest degree of coincidence is assumed to be a corresponding point.
However, if the degree of coincidence does not increase at any position, it is desirable that no corresponding point exists and these images are not handled as a stereo pair.

「数値標高モデル」http://www.nnk.co.jp/research/product/dem.html`` Digital elevation model '' http://www.nnk.co.jp/research/product/dem.html 「航空レーザー測量」http://www1.gsi.go.jp/geowww/Laser_HP/senmon.html"Aerial Laser Survey" http://www1.gsi.go.jp/geowww/Laser_HP/senmon.html

従来のステレオペア決定装置は以上のように構成されているので、同じ場所を撮影している多くの画像の中から、複数のステレオペアを生成することができるが、2枚の画像間の撮影視差が適正であるか否かを確認してステレオペアを生成するものではない。このため、撮影視差が不適正な2枚の画像がステレオペアとして生成されてしまって、DEMの計算精度が劣化してしまうことがある課題があった。
また、一致度が高くない2枚の画像についてはステレオペアとして扱わないようにすることが望ましいが、2枚の画像の一致度が高いか否かを確認してステレオペアを生成するものではない。このため、一致度が高くない2枚の画像がステレオペアとして生成されてしまって、DEMの計算精度が劣化してしまうことがある課題があった。
Since the conventional stereo pair determination device is configured as described above, a plurality of stereo pairs can be generated from many images taken at the same place. The stereo pair is not generated by confirming whether or not the parallax is appropriate. For this reason, there has been a problem that two images with an inappropriate photographing parallax are generated as a stereo pair and the calculation accuracy of the DEM may deteriorate.
In addition, it is desirable not to treat two images that do not have a high degree of coincidence as a stereo pair. However, it is not intended to generate a stereo pair by checking whether or not the degree of coincidence between the two images is high. . For this reason, there is a problem that two images that do not have a high degree of coincidence are generated as a stereo pair and the calculation accuracy of the DEM may deteriorate.

この発明は上記のような課題を解決するためになされたもので、DEMの計算精度を高めることが可能なステレオペアを選別することができるステレオペア決定装置及びステレオペア決定プログラムを得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a stereo pair determination device and a stereo pair determination program capable of selecting a stereo pair capable of increasing the DEM calculation accuracy. And

この発明に係るステレオペア決定装置は、画像の撮影データ、画像の撮影位置、画像の撮影方向、画像の撮影時刻及び画像上の各ピクセルに対応する視線ベクトルからなるシーンデータを複数格納するシーンデータ格納手段と、シーンデータ格納手段により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索手段と、ステレオペア検索手段により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、その一致度が所定値以上のステレオペアだけを残すステレオペア選別手段と、ステレオペア選別手段により残されたステレオペアの一致度を基準にして、ステレオペアをグループ分けするグルーピング手段と、1以上のステレオペアが属しているグループ毎に、当該グループに属しているシーンデータに含まれている画像の撮影時刻を比較して、最も新しい撮影時刻を特定するとともに、各グループにおける最も新しい撮影時刻を比較して、撮影時刻が新しい順に各グループを並べて、各グループの並び順を出力するグループソート手段と、グループソート手段から出力された並び順が先のグループから順番に、当該グループに属しているステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の時差を算出し、時差が小さい順に各ステレオペアを並べて、各ステレオペアの並び順を出力するステレオペアソート手段とを備えるようにしたものである。 The stereo pair determining device according to the present invention stores scene data including a plurality of scene data including image capturing data, image capturing position, image capturing direction, image capturing time, and line-of-sight vector corresponding to each pixel on the image. Using the shooting direction included in the plurality of scene data stored by the storage means and the scene data storage means, the shooting parallax between the images related to each scene data is calculated, and from among the plurality of scene data , a set of scene data captured parallax between images is within a predetermined range and a stereo pair retrieving means for retrieving as a stereo pair, the stereo each pair retrieved by scan Tereopea search means, constitute the stereo pair The degree of coincidence between the images indicated by the shooting data included in the two scene data is calculated, and the degree of coincidence is less than a predetermined value. Excludes au pair, grouping the matching degree that based on the stereo pair selection means to leave only a stereo pair of predetermined value or more, the degree of matching of a stereo pair left by stereo pair selection means, grouping stereopair For each group to which the means and one or more stereo pairs belong, the shooting time of the image included in the scene data belonging to the group is compared to identify the latest shooting time, and in each group Compare the most recent shooting time, arrange each group in the order of shooting time, and output the sorting order of each group, and the sorting order output from the group sorting means in order from the previous group For each stereo pair belonging to the group, included in the two scene data that make up the stereo pair By calculating the time difference of the photographing time of the image it is, by arranging each stereo pair time difference ascending order is obtained by so and a stereo pair sorting means for outputting the order of the stereo pair.

この発明によれば、シーンデータ格納手段により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索手段を設け、ステレオペア選別手段が、ステレオペア検索手段により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、その一致度が所定値未満のステレオペアを除外して、その一致度が所定値以上のステレオペアだけを残すように構成したので、DEMの計算精度を高めることが可能なステレオペアを選別することができる効果がある。   According to the present invention, the shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the scene data storage means, and the plurality of scene data Stereo pair search means for searching as a stereo pair a set of scene data whose shooting parallax between images is included within a predetermined range is provided, and the stereo pair selection means is searched for by the stereo pair search means. Each time, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the stereo pair whose degree of coincidence is less than a predetermined value is excluded, and the coincidence is calculated. Since the configuration is such that only stereo pairs having a degree equal to or higher than a predetermined value are left, it is possible to select stereo pairs that can improve the calculation accuracy of the DEM. There is.

この発明の実施の形態1によるステレオペア決定装置を示す構成図である。It is a block diagram which shows the stereo pair determination apparatus by Embodiment 1 of this invention. 撮影データR(n)が示す画像をX,Y方向に±eピクセル動かして、正規化相関値cor(a(b,l))が最も大きくなる位置を探索している様子を示す説明図である。FIG. 5 is an explanatory diagram showing a state in which an image indicated by shooting data R (n) is moved by ± e pixels in the X and Y directions to search for a position where the normalized correlation value cor (a (b, l)) is maximum. is there. この発明の実施の形態2によるステレオペア決定装置を示す構成図である。It is a block diagram which shows the stereo pair determination apparatus by Embodiment 2 of this invention. この発明の実施の形態3によるステレオペア決定装置を示す構成図である。It is a block diagram which shows the stereo pair determination apparatus by Embodiment 3 of this invention. この発明の実施の形態4によるステレオペア決定装置を示す構成図である。It is a block diagram which shows the stereo pair determination apparatus by Embodiment 4 of this invention. この発明の実施の形態5によるステレオペア決定装置を示す構成図である。It is a block diagram which shows the stereo pair determination apparatus by Embodiment 5 of this invention. この発明の実施の形態5によるステレオペア決定装置を示す構成図である。It is a block diagram which shows the stereo pair determination apparatus by Embodiment 5 of this invention. 3次元座標の計算処理を示す説明図である。It is explanatory drawing which shows the calculation process of a three-dimensional coordinate.

実施の形態1.
図1はこの発明の実施の形態1によるステレオペア決定装置を示す構成図である。
図1において、シーンデータ格納部1は例えばRAMやハードディスクなどの記憶装置から構成されており、複数のシーンデータS(i)を格納している。
シーンデータは、画像の撮影データG(i)(例えば、JPEGやTIFF形式などの画像データ)、画像の撮影位置l(i)、画像の撮影方向d(i)、画像の撮影時刻t(i)及び画像上の各ピクセルに対応する視線ベクトルvx,y(i)から構成されているデータである。ただし、iはシーンデータを識別する変数であり、i=1,2,・・・,Iである。また、Iはシーンデータ格納部1により格納されているシーンデータの個数である。
なお、シーンデータ格納部1はシーンデータ格納手段を構成している。
Embodiment 1 FIG.
1 is a block diagram showing a stereo pair determining apparatus according to Embodiment 1 of the present invention.
In FIG. 1, a scene data storage unit 1 is composed of a storage device such as a RAM or a hard disk, and stores a plurality of scene data S (i).
The scene data includes image shooting data G (i) (for example, image data in JPEG or TIFF format), image shooting position l (i), image shooting direction d (i), and image shooting time t (i ) And the line-of-sight vector v x, y (i) corresponding to each pixel on the image. Here, i is a variable for identifying scene data, i = 1, 2,... I is the number of scene data stored in the scene data storage unit 1.
The scene data storage unit 1 constitutes scene data storage means.

情報入力部2はシーンデータ格納部1により格納されている複数のシーンデータS(i)や、計算対象範囲(指定領域)を示す計算対象範囲情報を入力する処理を実施する。
視差計算部3は情報入力部2により入力された複数のシーンデータS(i)に含まれている画像の撮影方向d(i)を用いて、各々のシーンデータS(i)に係る画像間の撮影視差Pを算出し、複数のシーンデータS(i)の中から、画像間の撮影視差Pが所定範囲内に含まれているシーンデータS(i)の組をステレオペアSP(a)として検索する処理を実施する。ただし、aはステレオペアを識別する変数であり、a=1,2,・・・,Aである。Aは視差計算部3により検索されたステレオペアの個数である。
なお、視差計算部3はステレオペア検索手段を構成している。
The information input unit 2 performs a process of inputting a plurality of scene data S (i) stored in the scene data storage unit 1 and calculation target range information indicating a calculation target range (designated region).
The parallax calculation unit 3 uses the imaging direction d (i) of the images included in the plurality of scene data S (i) input by the information input unit 2, and uses the image capturing direction d (i) between the images related to each scene data S (i). And a pair of scene data S (i) in which the shooting parallax P between images is included in a predetermined range from a plurality of scene data S (i). As a result, search processing is performed. Here, a is a variable for identifying a stereo pair, and a = 1, 2,. A is the number of stereo pairs searched by the parallax calculation unit 3.
Note that the parallax calculator 3 constitutes a stereo pair search means.

画像探索部4は視差計算部3により検索されたステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成している2つのシーンデータS(i)に含まれている撮影データG(i)の中から、情報入力部2により入力された計算対象範囲情報が示す計算対象範囲を撮影している部分の撮影データR(i)を取り出す処理を実施する。
また、画像探索部4は視差計算部3により検索されたステレオペアSP(a)毎に、2つの撮影データG(i)が示す画像間の正規化相関値cor(a)(画像間の一致度を示す指標)を算出し、その正規化相関値cor(a)が所定の閾値β未満のステレオペアSP(a)を除外して、その正規化相関値cor(a)が閾値β以上のステレオペアSP(a)だけを残す処理を実施する。なお、画像探索部4はステレオペア選別手段を構成している。
For each stereo pair SP (a) searched by the parallax calculation unit 3, the image search unit 4 captures shooting data G included in the two scene data S (i) constituting the stereo pair SP (a). From (i), a process of taking out the shooting data R (i) of the portion shooting the calculation target range indicated by the calculation target range information input by the information input unit 2 is performed.
In addition, the image search unit 4 uses, for each stereo pair SP (a) searched by the parallax calculation unit 3, a normalized correlation value cor (a) between images indicated by the two shooting data G (i) (match between images). Index) indicating that the normalized correlation value cor (a) is less than the predetermined threshold value β and the stereo pair SP (a) is excluded, and the normalized correlation value cor (a) is equal to or greater than the threshold value β. A process of leaving only the stereo pair SP (a) is performed. The image search unit 4 constitutes a stereo pair selection unit.

グルーピング部5は画像探索部4により残されたステレオペアSP(a)の正規化相関値cor(a)を基準にして、ステレオペアSP(a)をグループ分けする処理を実施する。なお、グルーピング部5はグルーピング手段を構成している。
時刻比較部6はグループ毎に、当該グループに属している1以上のステレオペアSP(a)を構成している2つのシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しい撮影時刻tnewを特定する処理を実施する。
また、時刻比較部6は各グループにおける最も新しい撮影時刻tnewを比較して、その撮影時刻tnewが新しい順に各グループを並べて、各グループの並び順を出力する処理を実施する。なお、時刻比較部6はグループソート手段を構成している。
The grouping unit 5 performs a process of grouping the stereo pairs SP (a) on the basis of the normalized correlation value cor (a) of the stereo pairs SP (a) left by the image search unit 4. The grouping unit 5 constitutes grouping means.
For each group, the time comparison unit 6 captures images t (i) of images included in the two scene data S (i) constituting one or more stereo pairs SP (a) belonging to the group. by comparing, to implement a process to identify the most new shooting time t new.
In addition, the time comparison unit 6 compares the latest shooting time t new in each group, arranges the groups in the order of the shooting time t new , and outputs the arrangement order of the groups. The time comparison unit 6 constitutes a group sorting unit.

時差計算部7は時刻比較部6から出力された並び順が先のグループから順番に、当該グループに属しているステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成している2つのシーンデータS(i)であるシーンデータS(m),S(n)に係る画像の撮影時刻t(m),t(n)の時差Δtを算出し、その時差Δtが小さい順に各ステレオペアSP(a)を並べて、各ステレオペアSP(a)の並び順を出力する処理を実施する。なお、時差計算部7はステレオペアソート手段を構成している。   The time difference calculation unit 7 configures the stereo pair SP (a) for each stereo pair SP (a) belonging to the group in order from the previous group in the arrangement order output from the time comparison unit 6. A time difference Δt between the shooting times t (m) and t (n) of the images related to the scene data S (m) and S (n), which are two scene data S (i), is calculated, and each time difference Δt is increased in order. A process of arranging the stereo pairs SP (a) and outputting the arrangement order of the stereo pairs SP (a) is performed. The time difference calculator 7 constitutes a stereo pair sorter.

図1の例では、ステレオペア決定装置の構成要素であるシーンデータ格納部1、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6及び時差計算部7のそれぞれが専用のハードウェアで構成されている(シーンデータ格納部1以外の各構成要素は、例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている)ものを想定しているが、ステレオペア決定装置がコンピュータで構成されていてもよい。
ステレオペア決定装置がコンピュータで構成されている場合、シーンデータ格納部1をコンピュータのメモリ上に構成するとともに、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6及び時差計算部7の処理内容を記述しているステレオペア決定プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているステレオペア決定プログラムを実行するようにすればよい。
In the example of FIG. 1, the scene data storage unit 1, the information input unit 2, the parallax calculation unit 3, the image search unit 4, the grouping unit 5, the time comparison unit 6, and the time difference calculation unit 7 that are components of the stereo pair determination device. Each component is composed of dedicated hardware (each component other than the scene data storage unit 1 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer) Assuming, the stereo pair determining device may be configured by a computer.
When the stereo pair determination device is configured by a computer, the scene data storage unit 1 is configured on the memory of the computer, and the information input unit 2, the parallax calculation unit 3, the image search unit 4, the grouping unit 5, and the time comparison unit 6 and the time difference calculation unit 7 may be stored in a computer memory so that the CPU of the computer executes the stereo pair determination program stored in the memory. .

次に動作について説明する。
まず、情報入力部2は、シーンデータ格納部1により格納されている複数のシーンデータS(i)を入力して、複数のシーンデータS(i)を視差計算部3に出力する。
また、情報入力部2は、外部で設定された計算対象範囲(指定領域)を示す計算対象範囲情報を入力して、その計算対象範囲情報(四隅座標・DEM解像度等)を画像探索部4に出力する。
Next, the operation will be described.
First, the information input unit 2 inputs a plurality of scene data S (i) stored in the scene data storage unit 1 and outputs the plurality of scene data S (i) to the parallax calculation unit 3.
Further, the information input unit 2 inputs calculation target range information indicating a calculation target range (designated region) set externally, and inputs the calculation target range information (four corner coordinates, DEM resolution, etc.) to the image search unit 4. Output.

視差計算部3は、情報入力部2から複数のシーンデータS(i)を受けると、複数のシーンデータS(i)の中から、任意の2つのシーンデータS(i)を選択する。
ここでは、説明の便宜上、シーンデータS(1)とシーンデータS(2)を選択しているものとして説明する。
視差計算部3は、シーンデータS(1)とシーンデータS(2)を選択すると、シーンデータS(1)に含まれている画像の撮影方向d(1)と、シーンデータS(2)に含まれている画像の撮影方向d(2)とのなす角(0以上180度以下の角度)を、シーンデータS(1),S(2)に係る画像間の撮影視差P(1,2)として算出する。
Upon receiving a plurality of scene data S (i) from the information input unit 2, the parallax calculation unit 3 selects any two scene data S (i) from the plurality of scene data S (i).
Here, for convenience of explanation, it is assumed that scene data S (1) and scene data S (2) are selected.
When the parallax calculation unit 3 selects the scene data S (1) and the scene data S (2), the shooting direction d (1) of the image included in the scene data S (1) and the scene data S (2) The angle (0 to 180 degrees) formed with the shooting direction d (2) of the image included in the image is the shooting parallax P (1,1) between the images related to the scene data S (1) and S (2). 2) is calculated.

即ち、視差計算部3は、画像の撮影方向d(1)がd(1)=(dx(1),dy(1),dz(1))、画像の撮影方向d(2)がd(2)=(dx(2),dy(2),dz(2))で表されるとすると、画像間の撮影視差P(1,2)を下記の式(1)のように算出する。

Figure 0006099447
式(1)において、d(1)・d(2)は、d(1)とd(2)の内積を表している。 That is, the parallax calculation unit 3 sets the image capturing direction d (1) to d (1) = (dx (1), dy (1), dz (1)) and the image capturing direction d (2) to d (1). 2) = (dx (2), dy (2), dz (2)) Assuming that the shooting parallax P (1,2) between images is calculated as the following equation (1).
Figure 0006099447
In equation (1), d (1) · d (2) represents the inner product of d (1) and d (2).

視差計算部3は、画像間の撮影視差P(1,2)を算出すると、その撮影視差P(1,2)が所定範囲内に含まれているか否かを判定する。
即ち、視差計算部3は、下記の式(2)が成立するか否かを判定し、式(2)が成立すれば、撮影視差P(1,2)が所定範囲内に含まれていると判断する。
α1≦P(1,2)≦α2 (2)
式(2)において、α1,α2は予め設定されている角度閾値であり、α1≦α2である。
When the parallax calculation unit 3 calculates the shooting parallax P (1,2) between the images, the parallax calculation unit 3 determines whether or not the shooting parallax P (1,2) is included in the predetermined range.
That is, the parallax calculation unit 3 determines whether or not the following formula (2) is satisfied, and if the formula (2) is satisfied, the shooting parallax P (1,2) is included in the predetermined range. Judge.
α1 ≦ P (1,2) ≦ α2 (2)
In equation (2), α1 and α2 are preset angle thresholds, and α1 ≦ α2.

視差計算部3は、撮影視差P(1,2)が所定範囲内に含まれていると判断すれば、シーンデータS(1)とシーンデータS(2)の組をステレオペアSP(1)={S(1),S(2)}として画像探索部4に出力する。
ここでは、視差計算部3が複数のシーンデータS(i)の中から、シーンデータS(1)とシーンデータS(2)を選択しているが、シーンデータS(1)とシーンデータS(2)以外の全ての組み合わせについても順次選択して、上記と同様の処理を実施する。
即ち、複数のシーンデータS(i)の中から選択した2つのシーンデータがS(m),S(n)であるとすると、2つのシーンデータS(m),S(n)に係る画像間の撮影視差P(m,n)が式(2)を満足すれば、そのシーンデータS(m)とシーンデータS(n)の組をステレオペアSP(a)={S(m),S(n)}として画像探索部4に出力する。
したがって、画像間の撮影視差P(m,n)が所定範囲内に含まれておらず、画像間の撮影視差P(m,n)が式(2)を満足しない2つのシーンデータの組はステレオペアSP(a)として画像探索部4に出力さない。
これにより、撮影視差P(m,n)が適正なステレオペアSP(a)に絞り込まれることになる。
なお、式(2)を満足しているシーンデータS(m)とシーンデータS(n)の組が、例えば、A個であれば、a=1,2,・・・,Aとなる。
If the parallax calculation unit 3 determines that the shooting parallax P (1,2) is included within the predetermined range, the pair of the scene data S (1) and the scene data S (2) is converted into the stereo pair SP (1). = {S (1), S (2)} is output to the image search unit 4.
Here, the parallax calculation unit 3 selects the scene data S (1) and the scene data S (2) from the plurality of scene data S (i), but the scene data S (1) and the scene data S are selected. All combinations other than (2) are also sequentially selected and the same processing as described above is performed.
That is, if the two scene data selected from the plurality of scene data S (i) are S (m) and S (n), the images related to the two scene data S (m) and S (n). If the shooting parallax P (m, n) satisfies the expression (2), the pair of the scene data S (m) and the scene data S (n) is represented as a stereo pair SP (a) = {S (m), S (n)} is output to the image search unit 4.
Therefore, a set of two scene data in which the shooting parallax P (m, n) between images is not included in the predetermined range and the shooting parallax P (m, n) between images does not satisfy the equation (2) is The stereo pair SP (a) is not output to the image search unit 4.
As a result, the shooting parallax P (m, n) is narrowed down to an appropriate stereo pair SP (a).
For example, if the number of sets of scene data S (m) and scene data S (n) satisfying Expression (2) is A, a = 1, 2,...

画像探索部4は、視差計算部3から1以上のステレオペアSP(a)を受けると、各々のステレオペアSP(a)におけるシーンデータS(m)とシーンデータS(n)に係る画像の撮影範囲が完全に同じであるとは限らないので、シーンデータS(m)に含まれている撮影データG(m)の中から、情報入力部2から出力された計算対象範囲情報が示す計算対象範囲を撮影している部分の撮影データR(m)を取り出すとともに、シーンデータS(n)に含まれている撮影データG(n)の中から、情報入力部2から出力された計算対象範囲情報が示す計算対象範囲を撮影している部分の撮影データR(n)を取り出す処理を行う。
画像探索部4により取り出された撮影データR(m)と撮影データR(n)は、撮影範囲が同じ画像のデータである。
When the image search unit 4 receives one or more stereo pairs SP (a) from the parallax calculation unit 3, the image search unit 4 stores the scene data S (m) and the scene data S (n) in each stereo pair SP (a). Since the shooting ranges are not necessarily the same, the calculation indicated by the calculation target range information output from the information input unit 2 from the shooting data G (m) included in the scene data S (m). While taking out the shooting data R (m) of the part shooting the target range, the calculation target output from the information input unit 2 from the shooting data G (n) included in the scene data S (n) Processing is performed to extract the shooting data R (n) of the portion shooting the calculation target range indicated by the range information.
The shooting data R (m) and the shooting data R (n) extracted by the image search unit 4 are data of the same shooting range.

画像探索部4は、ステレオペアSP(a)毎に、撮影データR(m)と撮影データR(n)を取り出すと、計算対象範囲の各点(四隅座標及びDEM解像度で決定する座標(b,l))とその周囲での、撮影データR(m)が示す画像と撮影データR(n)が示す画像間の一致度を示す正規化相関値cor(a(b,l))をそれぞれ算出する。正規化相関値cor(a(b,l))は、0〜1の範囲の値である。
正規化相関値cor(a(b,l))の算出処理自体は、公知の技術であるため詳細な説明を省略するが、撮影データR(m)が示す画像と、撮影データR(n)が示す画像との正規化相関値cor(a(b,l))だけでなく、撮影データR(m)が示す画像と、撮影データR(n)が示す画像をX,Y方向(上下左右方向)に±eピクセル(例えば、e=2)動かした画像との正規化相関値cor(a(b,l))を算出する。
そして、それらの正規化相関値cor(a(b,l))の中で、最も大きな正規化相関値cor(a(b,l))を、その撮影データR(m)が示す画像と撮影データR(n)が示す画像との正規化相関値cor(a(b,l))とする。
図2は撮影データR(n)が示す画像をX,Y方向に±eピクセル動かして、正規化相関値cor(a(b,l))が最も大きくなる位置を探索している様子を示す説明図である。
When the image search unit 4 extracts the shooting data R (m) and the shooting data R (n) for each stereo pair SP (a), each point (four corner coordinates and coordinates determined by the DEM resolution (b , L)) and the normalized correlation value cor (a (b, l)) indicating the degree of coincidence between the image indicated by the photographic data R (m) and the image indicated by the photographic data R (n), respectively. calculate. The normalized correlation value cor (a (b, l)) is a value in the range of 0-1.
Since the calculation process itself of the normalized correlation value cor (a (b, l)) is a known technique, a detailed description thereof is omitted, but the image indicated by the shooting data R (m) and the shooting data R (n) are omitted. In addition to the normalized correlation value cor (a (b, l)) with the image indicated by, the image indicated by the shooting data R (m) and the image indicated by the shooting data R (n) The normalized correlation value cor (a (b, l)) with the image moved by ± e pixels (for example, e = 2) in the direction) is calculated.
Then, among the normalized correlation values cor (a (b, l)), the image with the largest normalized correlation value cor (a (b, l)) indicated by the imaging data R (m) is captured. The normalized correlation value cor (a (b, l)) with the image indicated by the data R (n) is assumed.
FIG. 2 shows a state where the image indicated by the photographic data R (n) is moved ± e pixels in the X and Y directions to search for a position where the normalized correlation value cor (a (b, l)) is the largest. It is explanatory drawing.

画像探索部4は、ステレオペアSP(a)毎および計算対象範囲の各点(b,l)毎に正規化相関値cor(a(b,l))を算出すると、その正規化相関値cor(a(b,l))を所定の閾値βと比較し、その正規化相関値cor(a(b,l))が閾値β未満のステレオペアSP(a)を除外して、その正規化相関値cor(a(b,l))が閾値β以上のステレオペアSP(a)だけを残し、残したステレオペアSP(a)をグルーピング部5に出力する。また、残したステレオペアSP(a)に係る最も大きな正規化相関値cor(a(b,l))をグルーピング部5に出力する。
これにより、計算対象範囲の各点(b,l)につき画像の一致度が高いステレオペアSP(a)に絞り込まれることになる。
なお、画像探索部4は、正規化相関値cor(a(b,l))が閾値β以上のステレオペアSP(a)を出力する際、図示せぬDEM計算処理部が、一致度が高い画像を用いて、DEMの計算を行えるようにするため、正規化相関値cor(a(b,l))が最も大きくなる撮影データR(n)の位置を示す情報を図示せぬDEM計算処理部に出力するようにしてもよい。
When the image search unit 4 calculates the normalized correlation value cor (a (b, l)) for each stereo pair SP (a) and each point (b, l) of the calculation target range, the normalized correlation value cor (A (b, l)) is compared with a predetermined threshold value β, and the normalization correlation value cor (a (b, l)) is excluded from the stereo pair SP (a) whose threshold value β is less than the normal value β. Only the stereo pair SP (a) whose correlation value cor (a (b, l)) is equal to or greater than the threshold value β is left, and the left stereo pair SP (a) is output to the grouping unit 5. Further, the largest normalized correlation value cor (a (b, l)) relating to the remaining stereo pair SP (a) is output to the grouping unit 5.
This narrows down the stereo pair SP (a) having a high degree of coincidence of images for each point (b, l) in the calculation target range.
When the image search unit 4 outputs a stereo pair SP (a) whose normalized correlation value cor (a (b, l)) is greater than or equal to the threshold value β, a DEM calculation processing unit (not shown) has a high degree of coincidence. In order to enable calculation of DEM using an image, information indicating the position of the imaged data R (n) at which the normalized correlation value cor (a (b, l)) is largest is not shown. You may make it output to a part.

グルーピング部5は、画像探索部4から1以上のステレオペアSP(a)(正規化相関値cor(a(b,l))が閾値β以上のステレオペアSP(a))と、それらのステレオペアSP(a)の正規化相関値cor(a(b,l))とを受けると、その正規化相関値cor(a(b,l))を基準にして、それらのステレオペアSP(a)をグループ分けする。
例えば、正規化相関値を0.05刻みにして、正規化相関値が0.95以上のグループ、正規化相関値が0.9以上0.95未満のグループ、正規化相関値が0.9未満のグループなどに、各ステレオペアSP(a)を分類する。
The grouping unit 5 sends one or more stereo pairs SP (a) from the image search unit 4 (stereo pairs SP (a) whose normalized correlation value cor (a (b, l)) is greater than or equal to the threshold value β) and their stereos. When the normalized correlation value cor (a (b, l)) of the pair SP (a) is received, the stereo pair SP (a) is referred to based on the normalized correlation value cor (a (b, l)). ).
For example, when the normalized correlation value is 0.05, the normalized correlation value is 0.95 or more, the normalized correlation value is 0.9 or more and less than 0.95, and the normalized correlation value is 0.9. Each stereo pair SP (a) is classified into a group of less than.

時刻比較部6は、グルーピング部5が各ステレオペアSP(a)をグループ分けすると、グループ毎に、当該グループに属している1以上のステレオペアSP(a)を構成している2つのシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しい撮影時刻tnewを特定する。
時刻比較部6は、各グループにおいて、最も新しい撮影時刻tnewを特定すると、各グループにおける最も新しい撮影時刻tnewを比較して、その撮影時刻tnewが新しい順に各グループを並べて、各グループの並び順を出力する。
When the grouping unit 5 divides each stereo pair SP (a) into groups, the time comparison unit 6 sets two scene data constituting one or more stereo pairs SP (a) belonging to the group. By comparing the shooting times t (i) of the images included in S (i), the newest shooting time t new is specified.
Time comparison section 6 in each group and to identify the newest shooting time t new new, by comparing the most recent photographing time t new new in each group, the photographing time t new new side by side each group in reverse chronological order, each group Output the sort order.

ただし、複数のグループにおいて、最も新しい撮影時刻tnewが同じである場合、属しているステレオペアSP(a)の個数が多い方のグループを優先して、そのグループの並び順を先にする。
なお、属しているステレオペアSP(a)の個数も同じであれば、グルーピング部5から出力された時点の並び順を保持するものとする。
時刻比較部6は、各グループの並び順を示すグループリストGLを時差計算部7に出力する。
However, in more than one group, when most new shooting time t new is the same, in favor of the group of people is large number of stereo pairs SP (a) that belong to the order of the group ahead.
If the number of stereo pairs SP (a) to which they belong is the same, the arrangement order at the time of output from the grouping unit 5 is retained.
The time comparison unit 6 outputs a group list GL indicating the arrangement order of the groups to the time difference calculation unit 7.

時差計算部7は、時刻比較部6からグループリストGLを受けると、そのグループリストGLを参照して、並び順が最も先のグループ(並び順が1番目のグループ)を認識し、そのグループに属しているステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成しているシーンデータS(m),S(n)に含まれている画像の撮影時刻t(m),t(n)の時差Δtを算出する。
Δt=|t(m)−t(n)| (3)
時差計算部7は、並び順が1番目のグループに属しているステレオペアSP(a)毎に撮影時刻t(m),t(n)の時差Δtを算出すると、その時差Δtが小さい順に各ステレオペアSP(a)を並べて、各ステレオペアSP(a)の並び順を示すステレオペアリストSPLを生成する。
When the time difference calculation unit 7 receives the group list GL from the time comparison unit 6, the time difference calculation unit 7 refers to the group list GL and recognizes the first group in the arrangement order (the first group in the arrangement order). For each stereo pair SP (a) to which it belongs, the shooting times t (m) and t of images included in the scene data S (m) and S (n) constituting the stereo pair SP (a) The time difference Δt of (n) is calculated.
Δt = | t (m) −t (n) | (3)
The time difference calculation unit 7 calculates the time difference Δt between the shooting times t (m) and t (n) for each stereo pair SP (a) belonging to the first group in the arrangement order. Stereo pairs SP (a) are arranged, and a stereo pair list SPL indicating the arrangement order of the stereo pairs SP (a) is generated.

次に、時差計算部7は、グループリストGLを参照して、並び順が2番目のグループを認識し、2番目のグループについても、1番目のグループの場合と同様に、2番目のグループに属している各ステレオペアSP(a)を時差Δtが小さい順に並べ、先に生成しているステレオペアリストSPLが示すステレオペアSP(a)の並び順の一番後ろに、2番目のグループに属している各ステレオペアSP(a)の並び順を追加する。
グループリストGLが示す3番目以降のグループについても、並び順が先のグループから順番に、上記と同様の処理を実施することで、3番目以降のグループに属している各ステレオペアSP(a)の並び順を先に生成しているステレオペアリストSPLの後ろに追加する。
Next, the time difference calculation unit 7 refers to the group list GL, recognizes the second group in the order of arrangement, and also sets the second group to the second group as in the case of the first group. The stereo pairs SP (a) to which they belong are arranged in ascending order of the time difference Δt, and the stereo group SP (a) generated by the previously generated stereo pair list SPL is arranged in the second group at the back of the arrangement order. The arrangement order of each stereo pair SP (a) to which it belongs is added.
For the third and subsequent groups indicated by the group list GL, the stereo pair SP (a) belonging to the third and subsequent groups is performed by performing the same processing as described above in order from the previous group. Are added after the stereo pair list SPL generated earlier.

これにより、並び順が先のグループ(画像の一致度が高いステレオペアSP(a)が属しているグループ)に属しているステレオペアSP(a)の並び順が先になり、また、同じグループに属しているステレオペアSP(a)については、撮影時刻t(m),t(n)の時差Δtが小さいステレオペアSP(a)ほど並び順が先になることを示すステレオペアリストSPLが最終的に生成されて、そのステレオペアリストSPLが時差計算部7から図示せぬDEM計算処理部に出力される。
DEM計算処理部は、ステレオペアリストSPLが示す並び順が先のステレオペアSP(a)を優先的に使用して、DEMを計算することで、DEMの計算精度を高めることができる。
As a result, the arrangement order of the stereo pair SP (a) belonging to the first group (the group to which the stereo pair SP (a) having a high degree of coincidence of images belongs) comes first, and the same group For the stereo pair SP (a) belonging to the stereo pair SP (a), there is a stereo pair list SPL indicating that the stereo pair SP (a) having the smaller time difference Δt between the photographing times t (m) and t (n) is arranged first. Finally generated, the stereo pair list SPL is output from the time difference calculator 7 to a DEM calculation processor (not shown).
The DEM calculation processing unit can increase the calculation accuracy of the DEM by calculating the DEM by preferentially using the stereo pair SP (a) whose arrangement order indicated by the stereo pair list SPL is first.

以上で明らかなように、この実施の形態1によれば、シーンデータ格納部1により格納されている複数のシーンデータS(i)に含まれている撮影方向d(i)を用いて、各々のシーンデータS(i)に係る画像間の撮影視差P(m,n)を算出し、複数のシーンデータS(i)の中から、画像間の撮影視差P(m,n)が所定範囲内に含まれているシーンデータS(m),S(n)の組をステレオペアSP(a)として検索する視差計算部3を設け、画像探索部4が、視差計算部3により検索されたステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成しているシーンデータS(m),S(n)に含まれている撮影データG(m),G(n)が示す画像間の正規化相関値cor(a(b,l))をDEM計算対象範囲内の各点(b,l)毎に算出し、その正規化相関値cor(a(b,l))が閾値β未満のステレオペアSP(a)を除外して、その正規化相関値cor(a(b,l))が閾値β以上のステレオペアSP(a)だけを残すように構成したので、DEMの計算精度を高めることが可能なステレオペアを選別することができる効果を奏する。
即ち、2枚の画像間の撮影視差が適正であって、2枚の画像間の一致度が高いステレオペアを計算対象範囲の各点毎に選別することができる効果を奏する。
As apparent from the above, according to the first embodiment, each of the shooting directions d (i) included in the plurality of scene data S (i) stored in the scene data storage unit 1 is used. The shooting parallax P (m, n) between the images related to the scene data S (i) is calculated, and the shooting parallax P (m, n) between the images of the plurality of scene data S (i) is within a predetermined range. A parallax calculation unit 3 for searching for a pair of scene data S (m) and S (n) included therein as a stereo pair SP (a), and the image search unit 4 is searched by the parallax calculation unit 3 For each stereo pair SP (a), shooting data G (m) and G (n) included in the scene data S (m) and S (n) constituting the stereo pair SP (a) are shown. The normalized correlation value cor (a (b, l)) between images is determined for each point within the DEM calculation target range. b, l), and the stereo correlation SP cor (a (b, l)) whose normalized correlation value cor (a (b, l)) is less than the threshold β is excluded. Since l)) is configured to leave only the stereo pair SP (a) having a threshold value β or more, there is an effect that it is possible to select a stereo pair capable of improving the DEM calculation accuracy.
That is, there is an effect that it is possible to select a stereo pair having an appropriate shooting parallax between two images and having a high degree of coincidence between the two images for each point in the calculation target range.

また、この実施の形態1によれば、画像探索部4により残されたステレオペアSP(a)の正規化相関値cor(a(b,l))を基準にして、ステレオペアSP(a)をグループ分けするグルーピング部5と、グループ毎に、当該グループに属している1以上のステレオペアSP(a)を構成している2つのシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しい撮影時刻tnewを特定するとともに、各グループにおける最も新しい撮影時刻tnewを比較して、その撮影時刻tnewが新しい順に各グループを並べて、各グループの並び順を出力する時刻比較部6とを設け、時差計算部7が、時刻比較部6から出力された並び順が先のグループから順番に、当該グループに属しているステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成しているシーンデータS(m),S(n)に含まれている画像の撮影時刻t(m),t(n)の時差Δtを算出し、その時差Δtが小さい順に各ステレオペアSP(a)を並べて、各ステレオペアSP(a)の並び順を出力するように構成したので、2枚の画像の撮影時間の時差が短いステレオペアを選別することができる効果を奏する。 Further, according to the first embodiment, the stereo pair SP (a) is based on the normalized correlation value cor (a (b, l)) of the stereo pair SP (a) left by the image search unit 4. Grouping unit 5 for grouping images, and for each group, the shooting times of images included in two scene data S (i) constituting one or more stereo pairs SP (a) belonging to the group by comparing the t (i), as well as identify the most new shooting time t new, as compared to the most recent shooting time t new in each group, the imaging time t new side by side with each group to the new order, of each group A time comparison unit 6 that outputs an arrangement order, and the time difference calculation unit 7 outputs a stereo pair SP belonging to the group in the order in which the arrangement order output from the time comparison unit 6 is from the previous group. For each a), the time difference Δt between the photographing times t (m) and t (n) of the images included in the scene data S (m) and S (n) constituting the stereo pair SP (a) is obtained. Since the stereo pairs SP (a) are arranged in order of increasing time difference Δt and the arrangement order of the stereo pairs SP (a) is output, the stereo with a short time difference between the shooting times of the two images is calculated. The effect which can select a pair is produced.

実施の形態2.
図3はこの発明の実施の形態2によるステレオペア決定装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
領域分割部11は計算対象範囲(指定領域)を示す計算対象範囲情報を入力すると、その計算対象範囲情報が示す計算対象範囲を分割して、分割後の計算対象範囲を示す計算対象範囲情報を情報入力部2に与える処理を実施する。なお、領域分割部11は指定領域分割手段を構成している。
Embodiment 2. FIG.
3 is a block diagram showing a stereo pair determining apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
When the region dividing unit 11 inputs the calculation target range information indicating the calculation target range (designated region), the region dividing unit 11 divides the calculation target range indicated by the calculation target range information, and calculates the calculation target range information indicating the calculation target range after division. The process given to the information input unit 2 is performed. The area dividing unit 11 constitutes a designated area dividing means.

図3の例では、ステレオペア決定装置の構成要素であるシーンデータ格納部1、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6、時差計算部7及び領域分割部11のそれぞれが専用のハードウェアで構成されている(シーンデータ格納部1以外の各構成要素は、例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている)ものを想定しているが、ステレオペア決定装置がコンピュータで構成されていてもよい。
ステレオペア決定装置がコンピュータで構成されている場合、シーンデータ格納部1をコンピュータのメモリ上に構成するとともに、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6、時差計算部7及び領域分割部11の処理内容を記述しているステレオペア決定プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているステレオペア決定プログラムを実行するようにすればよい。
In the example of FIG. 3, the scene data storage unit 1, the information input unit 2, the parallax calculation unit 3, the image search unit 4, the grouping unit 5, the time comparison unit 6, the time difference calculation unit 7, Each of the region dividing units 11 is configured by dedicated hardware (each component other than the scene data storage unit 1 is configured by, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like. However, the stereo pair determination device may be configured by a computer.
When the stereo pair determination device is configured by a computer, the scene data storage unit 1 is configured on the memory of the computer, and the information input unit 2, the parallax calculation unit 3, the image search unit 4, the grouping unit 5, and the time comparison unit 6. A stereo pair determination program describing the processing contents of the time difference calculation unit 7 and the area division unit 11 is stored in the memory of the computer, and the CPU of the computer executes the stereo pair determination program stored in the memory What should I do?

上記実施の形態1では、画像探索部4が、シーンデータS(m),S(n)に含まれている撮影データG(m),G(n)の中から、情報入力部2により入力された計算対象範囲情報が示す計算対象範囲を撮影している部分の撮影データR(m),R(n)を取り出すようにしている例を示したが、その計算対象範囲情報が示す計算対象範囲が広すぎる場合、撮影データR(m)が示す画像と、撮影データR(n)が示す画像とのマッチング精度が悪くなるため、正規化相関値cor(a(b,l))が小さくなり、適正なステレオペアSP(a)を選別できなくなる可能性がある。   In the first embodiment, the image search unit 4 is input by the information input unit 2 from the shooting data G (m) and G (n) included in the scene data S (m) and S (n). In the above example, the shooting data R (m) and R (n) of the part shooting the calculation target range indicated by the calculated calculation target range information is shown. When the range is too wide, since the matching accuracy between the image indicated by the photographic data R (m) and the image indicated by the photographic data R (n) is deteriorated, the normalized correlation value cor (a (b, l)) is small. Therefore, there is a possibility that an appropriate stereo pair SP (a) cannot be selected.

そこで、この実施の形態2では、領域分割部11が、外部から入力された計算対象範囲情報が示す計算対象範囲が予め設定された範囲より広い場合、その計算対象範囲が予め設定された範囲より小さくなるように、その計算対象範囲を分割し、分割後の計算対象範囲を示す計算対象範囲情報を情報入力部2に与える。
情報入力部2から時差計算部7に至る処理内容は上記実施の形態1と同様であり、領域分割部11は、時差計算部7から分割後の計算対象範囲に係るステレオペアリストSPLが出力されると、そのステレオペアリストSPLを図示せぬDEM計算処理部に出力する。
なお、領域分割部11は、時差計算部7から分割後の計算対象範囲に係るステレオペアリストSPLを受ける毎に、そのステレオペアリストSPLを図示せぬDEM計算処理部に出力するようにしてよいが、全計算対象範囲情報分のステレオペアリストSPLが集まってから、分割後の計算対象範囲に係るステレオペアリストSPLをパラレルで図示せぬDEM計算処理部に出力するようにしてもよい。
Therefore, in the second embodiment, when the region dividing unit 11 has a calculation target range indicated by the calculation target range information input from the outside wider than the preset range, the calculation target range is larger than the preset range. The calculation target range is divided so as to be smaller, and calculation target range information indicating the calculation target range after division is given to the information input unit 2.
The processing contents from the information input unit 2 to the time difference calculation unit 7 are the same as those in the first embodiment, and the region division unit 11 outputs the stereo pair list SPL related to the calculation target range after the division from the time difference calculation unit 7. Then, the stereo pair list SPL is output to a DEM calculation processing unit (not shown).
The area dividing unit 11 may output the stereo pair list SPL to a DEM calculation processing unit (not shown) every time the stereo pair list SPL related to the calculation target range after the division is received from the time difference calculating unit 7. However, after the stereo pair lists SPL for all the calculation target range information are gathered, the stereo pair list SPL related to the divided calculation target ranges may be output in parallel to a DEM calculation processing unit (not shown).

以上で明らかなように、この実施の形態2によれば、領域分割部11が、外部から入力された計算対象範囲情報が示す計算対象範囲を分割して、分割後の計算対象範囲を示す計算対象範囲情報を情報入力部2に与えるように構成したので、外部から入力された計算対象範囲情報が示す計算対象範囲が広すぎる場合でも、適正なステレオペアSP(a)を選別することができる効果を奏する。   As apparent from the above, according to the second embodiment, the region dividing unit 11 divides the calculation target range indicated by the calculation target range information input from the outside, and shows the calculation target range after the division. Since the target range information is provided to the information input unit 2, an appropriate stereo pair SP (a) can be selected even when the calculation target range indicated by the calculation target range information input from the outside is too wide. There is an effect.

実施の形態3.
図4はこの発明の実施の形態3によるステレオペア決定装置を示す構成図であり、図において、図1及び図3と同一符号は同一または相当部分を示すので説明を省略する。
計算対象範囲設定部12はシーンデータ格納部1により格納されている複数のシーンデータS(i)の中で、最も新しく撮影された撮影データGnew(i)を含んでいるシーンデータSnew(i)を特定して、そのシーンデータSnew(i)に含まれている撮影データGnew(i)が示す画像の範囲を計算対象範囲(指定領域)に設定し、その計算対象範囲を示す計算対象範囲情報を情報入力部2に与える処理を実施する。なお、計算対象範囲設定部12は指定領域設定手段を構成している。
Embodiment 3 FIG.
FIG. 4 is a block diagram showing a stereo pair determining apparatus according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIGS.
The calculation target range setting unit 12 includes scene data S new (including the latest photographed data G new (i) among the plurality of scene data S (i) stored in the scene data storage unit 1. i) is specified, the range of the image indicated by the shooting data G new (i) included in the scene data S new (i) is set as the calculation target range (designated region), and the calculation target range is indicated. The process which gives calculation target range information to the information input part 2 is implemented. The calculation target range setting unit 12 constitutes a designated area setting unit.

図4の例では、ステレオペア決定装置の構成要素であるシーンデータ格納部1、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6、時差計算部7及び計算対象範囲設定部12のそれぞれが専用のハードウェアで構成されている(シーンデータ格納部1以外の各構成要素は、例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている)ものを想定しているが、ステレオペア決定装置がコンピュータで構成されていてもよい。
ステレオペア決定装置がコンピュータで構成されている場合、シーンデータ格納部1をコンピュータのメモリ上に構成するとともに、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6、時差計算部7及び計算対象範囲設定部12の処理内容を記述しているステレオペア決定プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているステレオペア決定プログラムを実行するようにすればよい。
In the example of FIG. 4, the scene data storage unit 1, the information input unit 2, the parallax calculation unit 3, the image search unit 4, the grouping unit 5, the time comparison unit 6, the time difference calculation unit 7, Each calculation target range setting unit 12 is configured by dedicated hardware (each component other than the scene data storage unit 1 is, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, etc. However, the stereo pair determination device may be configured by a computer.
When the stereo pair determination device is configured by a computer, the scene data storage unit 1 is configured on the memory of the computer, and the information input unit 2, the parallax calculation unit 3, the image search unit 4, the grouping unit 5, and the time comparison unit 6. A stereo pair determination program that describes the processing contents of the time difference calculation unit 7 and the calculation target range setting unit 12 is stored in the memory of a computer, and the CPU of the computer stores the stereo pair determination program stored in the memory. It should be executed.

上記実施の形態2では、領域分割部11が、計算対象範囲を示す計算対象範囲情報を入力すると、その計算対象範囲情報が示す計算対象範囲を分割して、分割後の計算対象範囲を示す計算対象範囲情報を情報入力部2に与えるものを示したが、外部から計算対象範囲情報を入力せずに、計算対象範囲設定部12が自動的に計算対象範囲を設定するようにしてもよい。   In the second embodiment, when the region dividing unit 11 inputs the calculation target range information indicating the calculation target range, the calculation target range indicated by the calculation target range information is divided, and the calculation target range after the division is calculated. Although the target range information is given to the information input unit 2, the calculation target range setting unit 12 may automatically set the calculation target range without inputting the calculation target range information from the outside.

即ち、計算対象範囲設定部12は、シーンデータ格納部1により格納されている複数のシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しく撮影された撮影データGnew(i)を含んでいるシーンデータSnew(i)を特定する。
計算対象範囲設定部12は、シーンデータSnew(i)を特定すると、そのシーンデータSnew(i)に含まれている撮影データGnew(i)が示す画像の範囲を計算対象範囲に設定し、その計算対象範囲を示す計算対象範囲情報を情報入力部2に与える。
計算対象範囲設定部12以外の処理内容は、上記実施の形態2と同様である。
これにより、自動的に計算対象範囲を適正な範囲に設定して、適正なステレオペアSP(a)を選別することができる。
That is, the calculation target range setting unit 12 compares the shooting times t (i) of the images included in the plurality of scene data S (i) stored by the scene data storage unit 1, and the latest shooting is performed. The scene data S new (i) including the captured data G new (i) is specified.
When the calculation target range setting unit 12 specifies the scene data S new (i), the calculation target range setting unit 12 sets the range of the image indicated by the shooting data G new (i) included in the scene data S new (i) as the calculation target range. Then, the calculation target range information indicating the calculation target range is given to the information input unit 2.
Processing contents other than the calculation target range setting unit 12 are the same as those in the second embodiment.
Thereby, the calculation target range can be automatically set to an appropriate range, and the appropriate stereo pair SP (a) can be selected.

実施の形態4.
図5はこの発明の実施の形態4によるステレオペア決定装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
画像探索部20は図1の画像探索部4と同様の処理を実施するが、正規化相関値cor(a(b,l))と閾値βを比較して、正規化相関値cor(a(b,l))が閾値β未満のステレオペアSP(a)を除外する際に、ステレオペアSP(a)を構成している2つのシーンデータS(m),S(n)に含まれている画像の撮影時刻t(m),t(n)の中で古い方の撮影時刻toldと、シーンデータ格納部1により格納されている複数のシーンデータ(i)に含まれている画像の撮影時刻t(i)の中で最も新しい撮影時刻tnewとの時刻差Δtが大きい程、大きな閾値βを設定する処理を実施する。なお、画像探索部20はステレオペア選別手段を構成している。
Embodiment 4 FIG.
5 is a block diagram showing a stereo pair determining apparatus according to Embodiment 4 of the present invention. In the figure, the same reference numerals as those in FIG.
The image search unit 20 performs the same processing as the image search unit 4 of FIG. 1, but compares the normalized correlation value cor (a (b, l)) with the threshold value β, and normalizes the correlation value cor (a (a ( b, l)) is included in the two scene data S (m) and S (n) constituting the stereo pair SP (a) when the stereo pair SP (a) having a threshold β is excluded. Of the images included in the plurality of scene data (i) stored in the scene data storage unit 1 and the older one of the shooting times t old of the shooting times t (m) and t (n). As the time difference Δt from the latest shooting time t new among the shooting times t (i) is larger, the larger threshold value β is set. The image search unit 20 constitutes a stereo pair selection unit.

図5の例では、ステレオペア決定装置の構成要素であるシーンデータ格納部1、情報入力部2、視差計算部3、画像探索部20、グルーピング部5、時刻比較部6及び時差計算部7のそれぞれが専用のハードウェアで構成されている(シーンデータ格納部1以外の各構成要素は、例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている)ものを想定しているが、ステレオペア決定装置がコンピュータで構成されていてもよい。
ステレオペア決定装置がコンピュータで構成されている場合、シーンデータ格納部1をコンピュータのメモリ上に構成するとともに、情報入力部2、視差計算部3、画像探索部20、グルーピング部5、時刻比較部6及び時差計算部7の処理内容を記述しているステレオペア決定プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているステレオペア決定プログラムを実行するようにすればよい。
In the example of FIG. 5, the scene data storage unit 1, the information input unit 2, the parallax calculation unit 3, the image search unit 20, the grouping unit 5, the time comparison unit 6, and the time difference calculation unit 7 that are components of the stereo pair determination device. Each component is composed of dedicated hardware (each component other than the scene data storage unit 1 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer) Assuming, the stereo pair determining device may be configured by a computer.
When the stereo pair determination device is configured by a computer, the scene data storage unit 1 is configured on the memory of the computer, and the information input unit 2, the parallax calculation unit 3, the image search unit 20, the grouping unit 5, the time comparison unit 6 and the time difference calculation unit 7 may be stored in a computer memory so that the CPU of the computer executes the stereo pair determination program stored in the memory. .

上記実施の形態1〜3では、画像探索部4が、予め設定されている閾値βと正規化相関値cor(a(b,l))を比較するものを示したが、画像探索部20が、その閾値βを下記に示すように設定して、正規化相関値cor(a(b,l))と比較するようにしてもよい。   In the first to third embodiments, the image search unit 4 compares the preset threshold value β with the normalized correlation value cor (a (b, l)), but the image search unit 20 The threshold value β may be set as shown below and compared with the normalized correlation value cor (a (b, l)).

画像探索部20は、ステレオペアSP(a)を構成している一方のシーンデータS(m)に含まれている画像の撮影時刻t(m)と、他方のシーンデータS(n)に含まれている画像の撮影時刻t(n)とを比較して、古い方の撮影時刻toldを特定する。
また、画像探索部20は、シーンデータ格納部1により格納されている複数のシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しい撮影時刻tnewを特定する。
The image search unit 20 includes an image capturing time t (m) included in one scene data S (m) constituting the stereo pair SP (a) and the other scene data S (n). The image capturing time t old of the older image is specified by comparing the image capturing time t (n) of the captured image.
Further, the image searching unit 20 compares the capture time of image included in the plurality of stored by the scene data storing unit 1 scene data S (i) t (i) , the newest shooting time t new new Is identified.

画像探索部20は、古い方の撮影時刻toldと最も新しい撮影時刻tnewを特定すると、下記の式(4)に示すように、それらの時刻の時刻差Δtを算出する。
Δt=tnew−told (4)
画像探索部20は、時刻差Δtを算出すると、時刻差Δtに対して単調に増加する閾値関数β(Δt)を用いて、その時刻差Δtが大きい程、大きな閾値βを設定する。
When specifying the oldest shooting time t old and the latest shooting time t new , the image search unit 20 calculates a time difference Δt between these times as shown in the following equation (4).
Δt = t new −t old (4)
When the time difference Δt is calculated, the image search unit 20 uses the threshold function β (Δt) that monotonously increases with respect to the time difference Δt, and sets a larger threshold β as the time difference Δt increases.

正規化相関値cor(a(b,l))と閾値βの比較処理は、図1の画像探索部4と同様であるが、古い方の撮影時刻toldと最も新しい撮影時刻tnewとの時刻差Δtが大きい程、大きな閾値βが設定されるため、正規化相関値cor(a(b,l))が閾値β未満であるとして、ステレオペアSP(a)から除外される確率が高まり、より適正である可能性が高いステレオペアSP(a)だけが残るようになる。 The comparison processing of the normalized correlation value cor (a (b, l)) and the threshold value β is the same as that of the image search unit 4 in FIG. 1, but the oldest shooting time t old and the latest shooting time t new are the same. The larger the time difference Δt is, the larger the threshold value β is set. Therefore, the probability that the normalized correlation value cor (a (b, l)) is excluded from the stereo pair SP (a) is assumed to be less than the threshold value β. Only the stereo pair SP (a) that is likely to be more appropriate remains.

実施の形態5.
上記実施の形態1〜4では、視差計算部3の後ろに画像探索部4(または、画像探索部20)が設置されているものを示したが、図6に示すように、画像探索部4(または、画像探索部20)が視差計算部3の前に設置されていてもよく、上記実施の形態1〜4と同様の効果を奏することができる。
Embodiment 5. FIG.
In the first to fourth embodiments, the image search unit 4 (or the image search unit 20) is installed behind the parallax calculation unit 3, but as shown in FIG. (Or the image search part 20) may be installed before the parallax calculation part 3, and there can exist an effect similar to the said Embodiment 1-4.

また、上記実施の形態1〜4では、時刻比較部6の後ろに時差計算部7が設置されているものを示したが、図7に示すように、時差計算部7が時刻比較部6の前に設置されていてもよく、上記実施の形態1〜4と同様の効果を奏することができる。   In the first to fourth embodiments, the time difference calculation unit 7 is installed behind the time comparison unit 6. However, as shown in FIG. 7, the time difference calculation unit 7 includes the time comparison unit 6. It may be installed before and can produce the same effects as those of the first to fourth embodiments.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 シーンデータ格納部(シーンデータ格納手段)、2 情報入力部、3 視差計算部(ステレオペア検索手段)、4,20 画像探索部(ステレオペア選別手段)、5 グルーピング部(グルーピング手段)、6 時刻比較部(グループソート手段)、7 時差計算部(ステレオペアソート手段)、11 領域分割部(指定領域分割手段)、12 計算対象範囲設定部(指定領域設定手段)。   DESCRIPTION OF SYMBOLS 1 Scene data storage part (scene data storage means), 2 Information input part, 3 Parallax calculation part (stereo pair search means), 4,20 Image search part (stereo pair selection means), 5 Grouping part (grouping means), 6 Time comparison unit (group sorting unit), 7 time difference calculation unit (stereo pair sorting unit), 11 area dividing unit (designated area dividing unit), 12 calculation target range setting unit (designated area setting unit).

Claims (8)

画像の撮影データ、上記画像の撮影位置、上記画像の撮影方向、上記画像の撮影時刻及び上記画像上の各ピクセルに対応する視線ベクトルからなるシーンデータを複数格納するシーンデータ格納手段と、
上記シーンデータ格納手段により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索手段と、
上記ステレオペア検索手段により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すステレオペア選別手段と
上記ステレオペア選別手段により残されたステレオペアの一致度を基準にして、上記ステレオペアをグループ分けするグルーピング手段と、
1以上のステレオペアが属しているグループ毎に、当該グループに属しているシーンデータに含まれている画像の撮影時刻を比較して、最も新しい撮影時刻を特定するとともに、各グループにおける最も新しい撮影時刻を比較して、上記撮影時刻が新しい順に各グループを並べて、各グループの並び順を出力するグループソート手段と、
上記グループソート手段から出力された並び順が先のグループから順番に、当該グループに属しているステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の時差を算出し、上記時差が小さい順に各ステレオペアを並べて、各ステレオペアの並び順を出力するステレオペアソート手段と
を備えたステレオペア決定装置。
Scene data storage means for storing a plurality of scene data composed of image data, image capturing position, image capturing direction, image capturing time, and line-of-sight vector corresponding to each pixel on the image;
The shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the scene data storage means, and between the images is calculated from the plurality of scene data. Stereo pair search means for searching as a stereo pair a set of scene data whose shooting parallax is included in a predetermined range;
For each stereo pair searched by the stereo pair searching means, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the degree of coincidence is a predetermined value. Stereo pair selection means that excludes less than stereo pairs and leaves only stereo pairs with a matching value equal to or higher than a predetermined value ;
Grouping means for grouping the stereo pairs on the basis of the matching degree of the stereo pairs left by the stereo pair selection means;
For each group to which one or more stereo pairs belong, the shooting time of the image included in the scene data belonging to the group is compared to identify the latest shooting time, and the newest shooting in each group A group sorting means for comparing the times, arranging the groups in the order from the latest shooting time, and outputting the order of the groups;
Shooting times of images included in the two scene data constituting the stereo pair for each stereo pair belonging to the group in the order in which the arrangement order output from the group sorting unit is from the previous group A stereo pair determining device comprising: stereo pair sorting means for calculating a time difference of the stereo pairs, arranging the stereo pairs in order of increasing time difference, and outputting the arrangement order of the stereo pairs .
画像の撮影データ、上記画像の撮影位置、上記画像の撮影方向、上記画像の撮影時刻及び上記画像上の各ピクセルに対応する視線ベクトルからなるシーンデータを複数格納するシーンデータ格納手段と、Scene data storage means for storing a plurality of scene data composed of image data, image capturing position, image capturing direction, image capturing time, and line-of-sight vector corresponding to each pixel on the image;
上記シーンデータ格納手段により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索手段と、The shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the scene data storage means, and between the images is calculated from the plurality of scene data. Stereo pair search means for searching as a stereo pair a set of scene data whose shooting parallax is included in a predetermined range;
上記ステレオペア検索手段により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出するとともに、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の中で古い方の撮影時刻と、上記シーンデータ格納手段により格納されている複数のシーンデータに含まれている画像の撮影時刻の中で最も新しい撮影時刻との時刻差が大きい程、大きな所定値を設定し、上記一致度が上記所定値未満のステレオペアを除外して、上記一致度が上記所定値以上のステレオペアだけを残すステレオペア選別手段とFor each stereo pair searched by the stereo pair search means, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated and the stereo pair is configured. Of the images included in the two scene data, and the shooting time of the image included in the plurality of scene data stored by the scene data storage means. The larger the time difference from the latest shooting time, the larger the predetermined value is set, excluding stereo pairs whose coincidence is less than the predetermined value, and only stereo pairs whose coincidence is greater than or equal to the predetermined value. Stereo pair selection means to leave
を備えたステレオペア決定装置。Stereo pair determination device equipped with.
上記ステレオペア選別手段により残されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の時差を算出し、上記時差が小さい順に各ステレオペアを並べて、各ステレオペアの並び順を出力するステレオペアソート手段
を備えたことを特徴とする請求項1または請求項2記載のステレオペア決定装置。
For each stereo pair left by the stereo pair selection means, the time difference between the photographing times of the images included in the two scene data constituting the stereo pair is calculated, and each stereo pair is selected in ascending order of the time difference. The stereo pair determination device according to claim 1 or 2, further comprising stereo pair sorting means for arranging and outputting the arrangement order of each stereo pair.
上記ステレオペア選別手段は、上記ステレオペア検索手段により検索されたステレオペアを構成している2つのシーンデータに含まれている撮影データの中から、設定された指定領域を撮影している部分の撮影データをそれぞれ取り出して、その取り出した撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すことを特徴とする請求項1から請求項3のうちのいずれか1項記載のステレオペア決定装置。 The stereo pair selecting means is a part of photographing a set designated area from among photographing data included in two scene data constituting the stereo pair searched by the stereo pair searching means. Taking out each photographic data, calculating the degree of coincidence between images indicated by the taken photographic data, excluding stereo pairs with the degree of coincidence being less than a predetermined value, and removing only stereo pairs with the degree of coincidence being a predetermined value or more. The stereo pair determination device according to any one of claims 1 to 3, wherein the stereo pair determination device is left. 設定された指定領域を分割する指定領域分割手段を備え、
上記ステレオペア選別手段は、上記ステレオペア検索手段により検索されたステレオペアを構成している2つのシーンデータに含まれている撮影データの中から、上記指定領域分割手段により分割された指定領域を撮影している部分の撮影データをそれぞれ取り出して、その取り出した撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すことを特徴とする請求項1から請求項3のうちのいずれか1項記載のステレオペア決定装置。
A designated area dividing means for dividing the set designated area;
The stereo pair selection means includes the designated area divided by the designated area dividing means from the photographing data included in the two scene data constituting the stereo pair searched by the stereo pair search means. Each piece of shooting data of the portion being shot is taken out, the degree of coincidence between images indicated by the taken shot data is calculated, stereo pairs with the degree of coincidence being less than a predetermined value are excluded, and the degree of coincidence is a predetermined value The stereo pair determination device according to any one of claims 1 to 3, wherein only the above stereo pair is left.
最も新しく撮影された撮影データが示す画像の範囲を指定領域に設定する指定領域設定手段を備え、
上記ステレオペア選別手段は、上記ステレオペア検索手段により検索されたステレオペアを構成している2つのシーンデータに含まれている撮影データの中から、上記指定領域設定手段により設定された指定領域を撮影している部分の撮影データをそれぞれ取り出して、その取り出した撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すことを特徴とする請求項1から請求項3のうちのいずれか1項記載のステレオペア決定装置。
Comprising designated area setting means for setting the designated area as the range of the image indicated by the latest photographed image data;
The stereo pair selecting means selects the designated area set by the designated area setting means from the shooting data included in the two scene data constituting the stereo pair searched by the stereo pair searching means. Each piece of shooting data of the portion being shot is taken out, the degree of coincidence between images indicated by the taken shot data is calculated, stereo pairs with the degree of coincidence being less than a predetermined value are excluded, and the degree of coincidence is a predetermined value The stereo pair determination device according to any one of claims 1 to 3, wherein only the above stereo pair is left.
画像の撮影データ、上記画像の撮影位置、上記画像の撮影方向、上記画像の撮影時刻及び上記画像上の各ピクセルに対応する視線ベクトルからなるシーンデータを複数格納するシーンデータ格納処理手順と、
上記シーンデータ格納処理手順により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索処理手順と、
上記ステレオペア検索処理手順により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すステレオペア選別処理手順と、
上記ステレオペア選別処理手順により残されたステレオペアの一致度を基準にして、上記ステレオペアをグループ分けするグルーピング処理手順と、
1以上のステレオペアが属しているグループ毎に、当該グループに属しているシーンデータに含まれている画像の撮影時刻を比較して、最も新しい撮影時刻を特定するとともに、各グループにおける最も新しい撮影時刻を比較して、上記撮影時刻が新しい順に各グループを並べて、各グループの並び順を出力するグループソート処理手順と、
上記グループソート処理手順から出力された並び順が先のグループから順番に、当該グループに属しているステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の時差を算出し、上記時差が小さい順に各ステレオペアを並べて、各ステレオペアの並び順を出力するステレオペアソート処理手順と
をコンピュータに実行させるステレオペア決定プログラム。
A scene data storage processing procedure for storing a plurality of scene data composed of image data, image capturing position, image capturing direction, image capturing time, and line-of-sight vector corresponding to each pixel on the image;
The shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the above-described scene data storage processing procedure, and images are selected from the plurality of scene data. Stereo pair search processing procedure for searching for a pair of scene data whose shooting parallax is within a predetermined range as a stereo pair;
For each stereo pair searched by the stereo pair search processing procedure, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the degree of coincidence is predetermined. Stereo pair selection processing procedure that excludes stereo pairs that are less than the value and leaves only stereo pairs with the matching degree equal to or higher than a predetermined value,
A grouping process procedure for grouping the stereo pairs based on the degree of matching of the stereo pairs left by the stereo pair selection process procedure;
For each group to which one or more stereo pairs belong, the shooting time of the image included in the scene data belonging to the group is compared to identify the latest shooting time, and the newest shooting in each group A group sort processing procedure for comparing the times, arranging the groups in the order from the latest shooting time, and outputting the order of each group;
Photographing images included in the two scene data constituting the stereo pair for each stereo pair belonging to the group in the order from the previous group in the order of output output from the group sort processing procedure. A stereo pair determination program that calculates a time difference of time, arranges each stereo pair in ascending order of time difference, and outputs a stereo pair sorting process procedure for outputting the arrangement order of each stereo pair .
画像の撮影データ、上記画像の撮影位置、上記画像の撮影方向、上記画像の撮影時刻及び上記画像上の各ピクセルに対応する視線ベクトルからなるシーンデータを複数格納するシーンデータ格納処理手順と、
上記シーンデータ格納処理手順により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索処理手順と、
上記ステレオペア検索処理手順により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すステレオペア選別処理手順と
上記ステレオペア検索処理手順により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出するとともに、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の中で古い方の撮影時刻と、上記シーンデータ格納処理手順により格納されている複数のシーンデータに含まれている画像の撮影時刻の中で最も新しい撮影時刻との時刻差が大きい程、大きな所定値を設定し、上記一致度が上記所定値未満のステレオペアを除外して、上記一致度が上記所定値以上のステレオペアだけを残すステレオペア選別処理手順と
をコンピュータに実行させるステレオペア決定プログラム。
A scene data storage processing procedure for storing a plurality of scene data composed of image data, image capturing position, image capturing direction, image capturing time, and line-of-sight vector corresponding to each pixel on the image;
The shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the above-described scene data storage processing procedure, and images are selected from the plurality of scene data. Stereo pair search processing procedure for searching for a pair of scene data whose shooting parallax is within a predetermined range as a stereo pair;
For each stereo pair searched by the stereo pair search processing procedure, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the degree of coincidence is predetermined. Stereo pair selection processing procedure that excludes stereo pairs that are less than the value and leaves only stereo pairs with the matching degree equal to or higher than a predetermined value ,
For each stereo pair searched by the stereo pair search processing procedure, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the stereo pair is Shooting of an image included in a plurality of scene data stored by the above-described scene data storage processing procedure and the shooting time of the older one among the shooting times of images included in the two configured scene data A larger predetermined value is set as the time difference with the latest shooting time is larger, and stereo pairs with the matching degree less than the predetermined value are excluded, and the stereo pair with the matching degree equal to or higher than the predetermined value is excluded. A stereo pair determination program that causes a computer to execute a stereo pair selection process procedure that only leaves .
JP2013060178A 2013-03-22 2013-03-22 Stereo pair determination device and stereo pair determination program Expired - Fee Related JP6099447B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013060178A JP6099447B2 (en) 2013-03-22 2013-03-22 Stereo pair determination device and stereo pair determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013060178A JP6099447B2 (en) 2013-03-22 2013-03-22 Stereo pair determination device and stereo pair determination program

Publications (2)

Publication Number Publication Date
JP2014186476A JP2014186476A (en) 2014-10-02
JP6099447B2 true JP6099447B2 (en) 2017-03-22

Family

ID=51834008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013060178A Expired - Fee Related JP6099447B2 (en) 2013-03-22 2013-03-22 Stereo pair determination device and stereo pair determination program

Country Status (1)

Country Link
JP (1) JP6099447B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4181800B2 (en) * 2002-06-20 2008-11-19 Nec東芝スペースシステム株式会社 Topographic measurement system, storage medium, and program using stereo image
JP5362189B2 (en) * 2006-05-10 2013-12-11 株式会社トプコン Image processing apparatus and processing method thereof
JP2010256252A (en) * 2009-04-27 2010-11-11 Topcon Corp Three-dimensional measurement image capturing apparatus and method
JP5567522B2 (en) * 2011-05-02 2014-08-06 株式会社日立ソリューションズ Stereo pair search device and stereo pair search method from single image

Also Published As

Publication number Publication date
JP2014186476A (en) 2014-10-02

Similar Documents

Publication Publication Date Title
CN109829398B (en) A method for object detection in video based on 3D convolutional network
CN110084260B (en) Semi-supervision method for training multi-pattern recognition and registration tool model
CN107341442B (en) Motion control method, motion control device, computer equipment and service robot
JP2011134114A (en) Pattern recognition method and pattern recognition apparatus
JP2019057836A (en) Video processing device, video processing method, computer program, and storage medium
JP2012181142A (en) Stereo image processing device and stereo image processing method
JP5541426B1 (en) Image processing apparatus, image processing method, and image processing program
US20210142064A1 (en) Image processing apparatus, method of processing image, and storage medium
JP2014102810A (en) Subject recognition device, subject recognition method, and subject recognition program
JP2017010549A (en) Method and apparatus for data retrieval in a light field database
JP6042146B2 (en) Object detection apparatus and object detection method
JP6068895B2 (en) Image processing apparatus and program
JP6494402B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6598480B2 (en) Image processing apparatus, image processing method, and program
JP2020052977A (en) Information processing device, information processing method, and program
JP6099447B2 (en) Stereo pair determination device and stereo pair determination program
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP2015228188A (en) Image processor, image processing method and program
KR101178015B1 (en) Generating method for disparity map
KR101505360B1 (en) A disparity search range estimation apparatus and method
JP2006031392A (en) Template matching device and method
JP2018092507A (en) Image processing apparatus, image processing method, and program
JP6278757B2 (en) Feature value generation device, feature value generation method, and program
KR101305732B1 (en) Method of block producing for video search and method of query processing based on block produced thereby
KR101220003B1 (en) Generating method for disparity map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170221

R150 Certificate of patent or registration of utility model

Ref document number: 6099447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees