JP6099447B2 - Stereo pair determination device and stereo pair determination program - Google Patents
Stereo pair determination device and stereo pair determination program Download PDFInfo
- Publication number
- JP6099447B2 JP6099447B2 JP2013060178A JP2013060178A JP6099447B2 JP 6099447 B2 JP6099447 B2 JP 6099447B2 JP 2013060178 A JP2013060178 A JP 2013060178A JP 2013060178 A JP2013060178 A JP 2013060178A JP 6099447 B2 JP6099447 B2 JP 6099447B2
- Authority
- JP
- Japan
- Prior art keywords
- stereo pair
- scene data
- stereo
- shooting
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 39
- 238000013500 data storage Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 32
- 239000013598 vector Substances 0.000 claims description 11
- 230000001174 ascending effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 132
- 238000010586 diagram Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000010276 construction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Description
この発明は、数値標高モデルであるDEM(Digital Elevation Model)の算出に用いるシーンデータ(画像の撮影データ、画像の撮影位置、画像の撮影方向、画像の撮影時刻及び画像上の各ピクセルに対応する視線ベクトルから構成されているデータ)の組を決定するステレオペア決定装置及びステレオペア決定プログラムに関するものである。 The present invention corresponds to scene data (image shooting data, image shooting position, image shooting direction, image shooting time, and each pixel on the image used for calculating a digital elevation model (DEM) which is a digital elevation model. The present invention relates to a stereo pair determination device and a stereo pair determination program for determining a set of data composed of line-of-sight vectors.
近年、画像取得用のセンサの発達により、高解像度な画像を撮影することが可能になってきている。
画像取得用のセンサとしては、撮像素子が2次元に配列されているセンサであって、2次元の画像を一度に取得するエリアセンサと、撮像素子が1次元に配列されているセンサであって、そのセンサを動かしながら1次元の画像を取得し、複数の1次元の画像から2次元の画像を構築するラインセンサとがある。
一般的に、エリアセンサよりラインセンサの方が高解像度の画像を取得することができる。
In recent years, it has become possible to take high-resolution images due to the development of sensors for image acquisition.
As an image acquisition sensor, an image sensor is arranged in a two-dimensional manner, an area sensor that obtains a two-dimensional image at a time, and a sensor in which the image sensor is arranged in a one-dimensional manner. There is a line sensor that acquires a one-dimensional image while moving the sensor and constructs a two-dimensional image from a plurality of one-dimensional images.
Generally, a line sensor can acquire a higher resolution image than an area sensor.
画像取得用のセンサにより取得された画像や、画像撮影時のパラメータ(撮影位置や撮影方向)を利用して、新たな情報を生成する処理がある。
例えば、図8に示すように、2枚の画像のマッチングを実施することで、2枚の画像上で対応している点(以下、「対応点」と称する)を求め、その対応点の座標での視線ベクトルv1,v2と、2枚の画像の撮影位置x1,x2とから交点pを求めることで、交点pの3次元座標を計算する処理がある。
交点pの高度hpは、直線x1+t・v1と、直線x2+s・v2との交点として求めることができる。ただし、t,sは変数である。ただし、3次元上では、誤差により直線の交点が求まらないこともあり、その場合は両直線の最近傍点(交会点)をpとみなす。
なお、3次元座標のうち、高度の値をまとめたものがDEMであり、DEMは地表面や建物などを表現したものになる(例えば、非特許文献1を参照)。
There is a process for generating new information by using an image acquired by an image acquisition sensor and parameters (shooting position and shooting direction) at the time of image shooting.
For example, as shown in FIG. 8, by matching two images, a corresponding point (hereinafter referred to as “corresponding point”) on the two images is obtained, and the coordinates of the corresponding point are obtained. There is a process of calculating the three-dimensional coordinates of the intersection point p by obtaining the intersection point p from the line-of-sight vectors v 1 and v 2 and the shooting positions x 1 and x 2 of the two images.
Advanced h p of intersection p can be obtained as the intersection of the straight line x 1 + t · v 1, the straight line x 2 + s · v 2. However, t and s are variables. However, in three dimensions, an intersection of straight lines may not be obtained due to an error, and in this case, the nearest point (intersection point) of both straight lines is regarded as p.
Of the three-dimensional coordinates, a group of altitude values is a DEM, and the DEM represents a ground surface, a building, or the like (for example, see Non-Patent Document 1).
以下の非特許文献2に開示されている航空レーザーの測量手順によれば、DEMは、最低2枚の画像(ステレオペア)があれば算出可能であるが、同じ場所を撮影している画像が多数ある場合、複数のステレオペアを生成して、複数のステレオペアからDEMをそれぞれ計算するようにすれば、DEMの計算精度を高めることができる。そのため、DEMを高精度に計算するには、多くの画像を使用することが重要である。
しかし、1回のDEMを計算するために、同じ場所の撮影を新たに何度も繰り返すことはコスト高になる。
したがって、出来る限りに、同じ場所を新たに撮影せずに、過去に撮影された画像を用いてDEMを計算する必要がある。
According to the survey procedure of aviation laser disclosed in Non-Patent
However, in order to calculate one DEM, it is costly to repeat the imaging at the same place many times.
Therefore, as much as possible, it is necessary to calculate the DEM using images taken in the past without newly photographing the same place.
DEMを計算する場合、上述したように、2枚の画像上での対応点を見つける必要がある。
一般的には、画像処理によって画像間の一致度(対応点を含む周辺の画像が、どのくらい一致するかを示す指標)を計算し、その一致度に基づいて対応点を求めるようにしている。
また、DEMの計算では、上述したように、視線ベクトルの交点pを計算するが(図8を参照)、2本の視線ベクトルv1,v2がなす角度(撮影視差に相当する)が小さい場合、2枚の画像上での対応点の小さなずれが大きな高度差になって現れる。一般的には、対応点はずれ易いため、視差が小さい視線ベクトルv1,v2を用いる場合、DEMの計算誤差が大きくなる傾向がある。
When calculating the DEM, as described above, it is necessary to find corresponding points on the two images.
Generally, the degree of coincidence between images (an index indicating how much the surrounding images including corresponding points match) is calculated by image processing, and the corresponding points are obtained based on the degree of coincidence.
Further, in the DEM calculation, as described above, the intersection point p of the line-of-sight vectors is calculated (see FIG. 8), but the angle formed by the two line-of-sight vectors v 1 and v 2 (corresponding to the shooting parallax) is small. In this case, a small shift of corresponding points on the two images appears as a large difference in altitude. In general, since the corresponding points are easily displaced, when the line-of-sight vectors v 1 and v 2 with small parallax are used, the calculation error of the DEM tends to increase.
一方、視差が大きい場合は、画像の撮影方向が大きく異なるので、同じ場所を撮影していても、見え方が大きく異なることがある。このような場合には、画像処理(マッチング処理)が難しくなり、その結果として、対応点を間違えてしまう可能性が高くなる。
したがって、DEMの計算では、視差が大きすぎても、小さすぎてもよくないので、適正な視差の画像を用いることが望ましい。
On the other hand, when the parallax is large, the shooting direction of the image is greatly different, so even if the same place is shot, the appearance may be greatly different. In such a case, image processing (matching processing) becomes difficult, and as a result, there is a high possibility that the corresponding points will be mistaken.
Therefore, in the DEM calculation, it is not necessary that the parallax is too large or too small, so it is desirable to use an image with an appropriate parallax.
視差以外にも、DEMの計算を行う範囲が変動しているか、変動していないかを考慮する必要がある。
即ち、各々の画像が撮影された時間において、「DEM計算対象の場所の高度が本当に一致しているか」どうかを考慮する必要がある。
例えば、2つの画像が撮影された時間の間隔が数秒程度であれば、その間に生じる地形の変動や、新たな建物の建築などを考える必要はないが、その時間間隔が数ヶ月などであれば、地形の変動や、新たな建物の建築などが行われている可能性は十分にある。
周囲も含めて大幅に景観が変わっていれば、マッチング処理で一致しなくなる可能性が高い(対応点が見つけられない可能性が高い)ため、DEMを計算することができなくなる。仮にマッチング処理で対応点が見つけられても、そのような対応点から求める交点の位置誤差が大きくなるため、2枚の画像の撮影時間の時差は短い方が望ましい。
なお、DEMの計算では、通常、「現状(最も新しい状況)の高度を計算する」ことを想定するため、新しいデータを使う方が、計算結果と現状との一致度合いは高いと考えられる。
In addition to the parallax, it is necessary to consider whether or not the range in which the DEM calculation is performed varies.
That is, it is necessary to consider whether or not “the altitudes of the locations to be subjected to DEM calculation are really coincided” at the time when each image is taken.
For example, if the interval between the time when two images were taken is about several seconds, there is no need to consider the terrain change or the construction of a new building, but if the interval is several months, etc. There is a good possibility that topographic changes and construction of new buildings are underway.
If the scenery including the surroundings has changed significantly, there is a high possibility that the matching process will not match (there is a high possibility that no corresponding point will be found), and it will not be possible to calculate the DEM. Even if the corresponding point is found by the matching process, the position error of the intersection obtained from such a corresponding point becomes large, so it is desirable that the time difference between the photographing times of the two images is short.
Note that in the DEM calculation, since it is usually assumed that “the altitude of the current state (newest state) is calculated”, it is considered that the degree of coincidence between the calculation result and the current state is higher when new data is used.
DEMを計算する際に行うマッチング処理では、一般的に、一方の画像内の一部分の領域である部分画像を他方の画像と重ね合わせ、その重ね合わせ位置での一致度を算出する(例えば、一致度を表す正規化相関値などを算出する)。
重ね合わせ位置を変えながら一致度を算出し、最も一致度が高くなる重ね合わせ位置が対応点であるとする。
ただし、どのような位置に重ねても、一致度が大きくならない場合には、対応点が存在しないと判断して、これらの画像をステレオペアとして扱わないようにすることが望ましい。
In the matching process performed when calculating the DEM, in general, a partial image that is a partial region in one image is superimposed on the other image, and the degree of coincidence is calculated at the overlapping position (for example, matching) Calculate a normalized correlation value that represents degrees).
The degree of coincidence is calculated while changing the overlapping position, and the overlapping position with the highest degree of coincidence is assumed to be a corresponding point.
However, if the degree of coincidence does not increase at any position, it is desirable that no corresponding point exists and these images are not handled as a stereo pair.
従来のステレオペア決定装置は以上のように構成されているので、同じ場所を撮影している多くの画像の中から、複数のステレオペアを生成することができるが、2枚の画像間の撮影視差が適正であるか否かを確認してステレオペアを生成するものではない。このため、撮影視差が不適正な2枚の画像がステレオペアとして生成されてしまって、DEMの計算精度が劣化してしまうことがある課題があった。
また、一致度が高くない2枚の画像についてはステレオペアとして扱わないようにすることが望ましいが、2枚の画像の一致度が高いか否かを確認してステレオペアを生成するものではない。このため、一致度が高くない2枚の画像がステレオペアとして生成されてしまって、DEMの計算精度が劣化してしまうことがある課題があった。
Since the conventional stereo pair determination device is configured as described above, a plurality of stereo pairs can be generated from many images taken at the same place. The stereo pair is not generated by confirming whether or not the parallax is appropriate. For this reason, there has been a problem that two images with an inappropriate photographing parallax are generated as a stereo pair and the calculation accuracy of the DEM may deteriorate.
In addition, it is desirable not to treat two images that do not have a high degree of coincidence as a stereo pair. However, it is not intended to generate a stereo pair by checking whether or not the degree of coincidence between the two images is high. . For this reason, there is a problem that two images that do not have a high degree of coincidence are generated as a stereo pair and the calculation accuracy of the DEM may deteriorate.
この発明は上記のような課題を解決するためになされたもので、DEMの計算精度を高めることが可能なステレオペアを選別することができるステレオペア決定装置及びステレオペア決定プログラムを得ることを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a stereo pair determination device and a stereo pair determination program capable of selecting a stereo pair capable of increasing the DEM calculation accuracy. And
この発明に係るステレオペア決定装置は、画像の撮影データ、画像の撮影位置、画像の撮影方向、画像の撮影時刻及び画像上の各ピクセルに対応する視線ベクトルからなるシーンデータを複数格納するシーンデータ格納手段と、シーンデータ格納手段により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索手段と、ステレオペア検索手段により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、その一致度が所定値以上のステレオペアだけを残すステレオペア選別手段と、ステレオペア選別手段により残されたステレオペアの一致度を基準にして、ステレオペアをグループ分けするグルーピング手段と、1以上のステレオペアが属しているグループ毎に、当該グループに属しているシーンデータに含まれている画像の撮影時刻を比較して、最も新しい撮影時刻を特定するとともに、各グループにおける最も新しい撮影時刻を比較して、撮影時刻が新しい順に各グループを並べて、各グループの並び順を出力するグループソート手段と、グループソート手段から出力された並び順が先のグループから順番に、当該グループに属しているステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の時差を算出し、時差が小さい順に各ステレオペアを並べて、各ステレオペアの並び順を出力するステレオペアソート手段とを備えるようにしたものである。 The stereo pair determining device according to the present invention stores scene data including a plurality of scene data including image capturing data, image capturing position, image capturing direction, image capturing time, and line-of-sight vector corresponding to each pixel on the image. Using the shooting direction included in the plurality of scene data stored by the storage means and the scene data storage means, the shooting parallax between the images related to each scene data is calculated, and from among the plurality of scene data , a set of scene data captured parallax between images is within a predetermined range and a stereo pair retrieving means for retrieving as a stereo pair, the stereo each pair retrieved by scan Tereopea search means, constitute the stereo pair The degree of coincidence between the images indicated by the shooting data included in the two scene data is calculated, and the degree of coincidence is less than a predetermined value. Excludes au pair, grouping the matching degree that based on the stereo pair selection means to leave only a stereo pair of predetermined value or more, the degree of matching of a stereo pair left by stereo pair selection means, grouping stereopair For each group to which the means and one or more stereo pairs belong, the shooting time of the image included in the scene data belonging to the group is compared to identify the latest shooting time, and in each group Compare the most recent shooting time, arrange each group in the order of shooting time, and output the sorting order of each group, and the sorting order output from the group sorting means in order from the previous group For each stereo pair belonging to the group, included in the two scene data that make up the stereo pair By calculating the time difference of the photographing time of the image it is, by arranging each stereo pair time difference ascending order is obtained by so and a stereo pair sorting means for outputting the order of the stereo pair.
この発明によれば、シーンデータ格納手段により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索手段を設け、ステレオペア選別手段が、ステレオペア検索手段により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、その一致度が所定値未満のステレオペアを除外して、その一致度が所定値以上のステレオペアだけを残すように構成したので、DEMの計算精度を高めることが可能なステレオペアを選別することができる効果がある。 According to the present invention, the shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the scene data storage means, and the plurality of scene data Stereo pair search means for searching as a stereo pair a set of scene data whose shooting parallax between images is included within a predetermined range is provided, and the stereo pair selection means is searched for by the stereo pair search means. Each time, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the stereo pair whose degree of coincidence is less than a predetermined value is excluded, and the coincidence is calculated. Since the configuration is such that only stereo pairs having a degree equal to or higher than a predetermined value are left, it is possible to select stereo pairs that can improve the calculation accuracy of the DEM. There is.
実施の形態1.
図1はこの発明の実施の形態1によるステレオペア決定装置を示す構成図である。
図1において、シーンデータ格納部1は例えばRAMやハードディスクなどの記憶装置から構成されており、複数のシーンデータS(i)を格納している。
シーンデータは、画像の撮影データG(i)(例えば、JPEGやTIFF形式などの画像データ)、画像の撮影位置l(i)、画像の撮影方向d(i)、画像の撮影時刻t(i)及び画像上の各ピクセルに対応する視線ベクトルvx,y(i)から構成されているデータである。ただし、iはシーンデータを識別する変数であり、i=1,2,・・・,Iである。また、Iはシーンデータ格納部1により格納されているシーンデータの個数である。
なお、シーンデータ格納部1はシーンデータ格納手段を構成している。
1 is a block diagram showing a stereo pair determining apparatus according to
In FIG. 1, a scene
The scene data includes image shooting data G (i) (for example, image data in JPEG or TIFF format), image shooting position l (i), image shooting direction d (i), and image shooting time t (i ) And the line-of-sight vector v x, y (i) corresponding to each pixel on the image. Here, i is a variable for identifying scene data, i = 1, 2,... I is the number of scene data stored in the scene
The scene
情報入力部2はシーンデータ格納部1により格納されている複数のシーンデータS(i)や、計算対象範囲(指定領域)を示す計算対象範囲情報を入力する処理を実施する。
視差計算部3は情報入力部2により入力された複数のシーンデータS(i)に含まれている画像の撮影方向d(i)を用いて、各々のシーンデータS(i)に係る画像間の撮影視差Pを算出し、複数のシーンデータS(i)の中から、画像間の撮影視差Pが所定範囲内に含まれているシーンデータS(i)の組をステレオペアSP(a)として検索する処理を実施する。ただし、aはステレオペアを識別する変数であり、a=1,2,・・・,Aである。Aは視差計算部3により検索されたステレオペアの個数である。
なお、視差計算部3はステレオペア検索手段を構成している。
The
The
Note that the
画像探索部4は視差計算部3により検索されたステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成している2つのシーンデータS(i)に含まれている撮影データG(i)の中から、情報入力部2により入力された計算対象範囲情報が示す計算対象範囲を撮影している部分の撮影データR(i)を取り出す処理を実施する。
また、画像探索部4は視差計算部3により検索されたステレオペアSP(a)毎に、2つの撮影データG(i)が示す画像間の正規化相関値cor(a)(画像間の一致度を示す指標)を算出し、その正規化相関値cor(a)が所定の閾値β未満のステレオペアSP(a)を除外して、その正規化相関値cor(a)が閾値β以上のステレオペアSP(a)だけを残す処理を実施する。なお、画像探索部4はステレオペア選別手段を構成している。
For each stereo pair SP (a) searched by the
In addition, the
グルーピング部5は画像探索部4により残されたステレオペアSP(a)の正規化相関値cor(a)を基準にして、ステレオペアSP(a)をグループ分けする処理を実施する。なお、グルーピング部5はグルーピング手段を構成している。
時刻比較部6はグループ毎に、当該グループに属している1以上のステレオペアSP(a)を構成している2つのシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しい撮影時刻tnewを特定する処理を実施する。
また、時刻比較部6は各グループにおける最も新しい撮影時刻tnewを比較して、その撮影時刻tnewが新しい順に各グループを並べて、各グループの並び順を出力する処理を実施する。なお、時刻比較部6はグループソート手段を構成している。
The
For each group, the
In addition, the
時差計算部7は時刻比較部6から出力された並び順が先のグループから順番に、当該グループに属しているステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成している2つのシーンデータS(i)であるシーンデータS(m),S(n)に係る画像の撮影時刻t(m),t(n)の時差Δtを算出し、その時差Δtが小さい順に各ステレオペアSP(a)を並べて、各ステレオペアSP(a)の並び順を出力する処理を実施する。なお、時差計算部7はステレオペアソート手段を構成している。
The time
図1の例では、ステレオペア決定装置の構成要素であるシーンデータ格納部1、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6及び時差計算部7のそれぞれが専用のハードウェアで構成されている(シーンデータ格納部1以外の各構成要素は、例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている)ものを想定しているが、ステレオペア決定装置がコンピュータで構成されていてもよい。
ステレオペア決定装置がコンピュータで構成されている場合、シーンデータ格納部1をコンピュータのメモリ上に構成するとともに、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6及び時差計算部7の処理内容を記述しているステレオペア決定プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているステレオペア決定プログラムを実行するようにすればよい。
In the example of FIG. 1, the scene
When the stereo pair determination device is configured by a computer, the scene
次に動作について説明する。
まず、情報入力部2は、シーンデータ格納部1により格納されている複数のシーンデータS(i)を入力して、複数のシーンデータS(i)を視差計算部3に出力する。
また、情報入力部2は、外部で設定された計算対象範囲(指定領域)を示す計算対象範囲情報を入力して、その計算対象範囲情報(四隅座標・DEM解像度等)を画像探索部4に出力する。
Next, the operation will be described.
First, the
Further, the
視差計算部3は、情報入力部2から複数のシーンデータS(i)を受けると、複数のシーンデータS(i)の中から、任意の2つのシーンデータS(i)を選択する。
ここでは、説明の便宜上、シーンデータS(1)とシーンデータS(2)を選択しているものとして説明する。
視差計算部3は、シーンデータS(1)とシーンデータS(2)を選択すると、シーンデータS(1)に含まれている画像の撮影方向d(1)と、シーンデータS(2)に含まれている画像の撮影方向d(2)とのなす角(0以上180度以下の角度)を、シーンデータS(1),S(2)に係る画像間の撮影視差P(1,2)として算出する。
Upon receiving a plurality of scene data S (i) from the
Here, for convenience of explanation, it is assumed that scene data S (1) and scene data S (2) are selected.
When the
即ち、視差計算部3は、画像の撮影方向d(1)がd(1)=(dx(1),dy(1),dz(1))、画像の撮影方向d(2)がd(2)=(dx(2),dy(2),dz(2))で表されるとすると、画像間の撮影視差P(1,2)を下記の式(1)のように算出する。
式(1)において、d(1)・d(2)は、d(1)とd(2)の内積を表している。
That is, the
In equation (1), d (1) · d (2) represents the inner product of d (1) and d (2).
視差計算部3は、画像間の撮影視差P(1,2)を算出すると、その撮影視差P(1,2)が所定範囲内に含まれているか否かを判定する。
即ち、視差計算部3は、下記の式(2)が成立するか否かを判定し、式(2)が成立すれば、撮影視差P(1,2)が所定範囲内に含まれていると判断する。
α1≦P(1,2)≦α2 (2)
式(2)において、α1,α2は予め設定されている角度閾値であり、α1≦α2である。
When the
That is, the
α1 ≦ P (1,2) ≦ α2 (2)
In equation (2), α1 and α2 are preset angle thresholds, and α1 ≦ α2.
視差計算部3は、撮影視差P(1,2)が所定範囲内に含まれていると判断すれば、シーンデータS(1)とシーンデータS(2)の組をステレオペアSP(1)={S(1),S(2)}として画像探索部4に出力する。
ここでは、視差計算部3が複数のシーンデータS(i)の中から、シーンデータS(1)とシーンデータS(2)を選択しているが、シーンデータS(1)とシーンデータS(2)以外の全ての組み合わせについても順次選択して、上記と同様の処理を実施する。
即ち、複数のシーンデータS(i)の中から選択した2つのシーンデータがS(m),S(n)であるとすると、2つのシーンデータS(m),S(n)に係る画像間の撮影視差P(m,n)が式(2)を満足すれば、そのシーンデータS(m)とシーンデータS(n)の組をステレオペアSP(a)={S(m),S(n)}として画像探索部4に出力する。
したがって、画像間の撮影視差P(m,n)が所定範囲内に含まれておらず、画像間の撮影視差P(m,n)が式(2)を満足しない2つのシーンデータの組はステレオペアSP(a)として画像探索部4に出力さない。
これにより、撮影視差P(m,n)が適正なステレオペアSP(a)に絞り込まれることになる。
なお、式(2)を満足しているシーンデータS(m)とシーンデータS(n)の組が、例えば、A個であれば、a=1,2,・・・,Aとなる。
If the
Here, the
That is, if the two scene data selected from the plurality of scene data S (i) are S (m) and S (n), the images related to the two scene data S (m) and S (n). If the shooting parallax P (m, n) satisfies the expression (2), the pair of the scene data S (m) and the scene data S (n) is represented as a stereo pair SP (a) = {S (m), S (n)} is output to the
Therefore, a set of two scene data in which the shooting parallax P (m, n) between images is not included in the predetermined range and the shooting parallax P (m, n) between images does not satisfy the equation (2) is The stereo pair SP (a) is not output to the
As a result, the shooting parallax P (m, n) is narrowed down to an appropriate stereo pair SP (a).
For example, if the number of sets of scene data S (m) and scene data S (n) satisfying Expression (2) is A, a = 1, 2,...
画像探索部4は、視差計算部3から1以上のステレオペアSP(a)を受けると、各々のステレオペアSP(a)におけるシーンデータS(m)とシーンデータS(n)に係る画像の撮影範囲が完全に同じであるとは限らないので、シーンデータS(m)に含まれている撮影データG(m)の中から、情報入力部2から出力された計算対象範囲情報が示す計算対象範囲を撮影している部分の撮影データR(m)を取り出すとともに、シーンデータS(n)に含まれている撮影データG(n)の中から、情報入力部2から出力された計算対象範囲情報が示す計算対象範囲を撮影している部分の撮影データR(n)を取り出す処理を行う。
画像探索部4により取り出された撮影データR(m)と撮影データR(n)は、撮影範囲が同じ画像のデータである。
When the
The shooting data R (m) and the shooting data R (n) extracted by the
画像探索部4は、ステレオペアSP(a)毎に、撮影データR(m)と撮影データR(n)を取り出すと、計算対象範囲の各点(四隅座標及びDEM解像度で決定する座標(b,l))とその周囲での、撮影データR(m)が示す画像と撮影データR(n)が示す画像間の一致度を示す正規化相関値cor(a(b,l))をそれぞれ算出する。正規化相関値cor(a(b,l))は、0〜1の範囲の値である。
正規化相関値cor(a(b,l))の算出処理自体は、公知の技術であるため詳細な説明を省略するが、撮影データR(m)が示す画像と、撮影データR(n)が示す画像との正規化相関値cor(a(b,l))だけでなく、撮影データR(m)が示す画像と、撮影データR(n)が示す画像をX,Y方向(上下左右方向)に±eピクセル(例えば、e=2)動かした画像との正規化相関値cor(a(b,l))を算出する。
そして、それらの正規化相関値cor(a(b,l))の中で、最も大きな正規化相関値cor(a(b,l))を、その撮影データR(m)が示す画像と撮影データR(n)が示す画像との正規化相関値cor(a(b,l))とする。
図2は撮影データR(n)が示す画像をX,Y方向に±eピクセル動かして、正規化相関値cor(a(b,l))が最も大きくなる位置を探索している様子を示す説明図である。
When the
Since the calculation process itself of the normalized correlation value cor (a (b, l)) is a known technique, a detailed description thereof is omitted, but the image indicated by the shooting data R (m) and the shooting data R (n) are omitted. In addition to the normalized correlation value cor (a (b, l)) with the image indicated by, the image indicated by the shooting data R (m) and the image indicated by the shooting data R (n) The normalized correlation value cor (a (b, l)) with the image moved by ± e pixels (for example, e = 2) in the direction) is calculated.
Then, among the normalized correlation values cor (a (b, l)), the image with the largest normalized correlation value cor (a (b, l)) indicated by the imaging data R (m) is captured. The normalized correlation value cor (a (b, l)) with the image indicated by the data R (n) is assumed.
FIG. 2 shows a state where the image indicated by the photographic data R (n) is moved ± e pixels in the X and Y directions to search for a position where the normalized correlation value cor (a (b, l)) is the largest. It is explanatory drawing.
画像探索部4は、ステレオペアSP(a)毎および計算対象範囲の各点(b,l)毎に正規化相関値cor(a(b,l))を算出すると、その正規化相関値cor(a(b,l))を所定の閾値βと比較し、その正規化相関値cor(a(b,l))が閾値β未満のステレオペアSP(a)を除外して、その正規化相関値cor(a(b,l))が閾値β以上のステレオペアSP(a)だけを残し、残したステレオペアSP(a)をグルーピング部5に出力する。また、残したステレオペアSP(a)に係る最も大きな正規化相関値cor(a(b,l))をグルーピング部5に出力する。
これにより、計算対象範囲の各点(b,l)につき画像の一致度が高いステレオペアSP(a)に絞り込まれることになる。
なお、画像探索部4は、正規化相関値cor(a(b,l))が閾値β以上のステレオペアSP(a)を出力する際、図示せぬDEM計算処理部が、一致度が高い画像を用いて、DEMの計算を行えるようにするため、正規化相関値cor(a(b,l))が最も大きくなる撮影データR(n)の位置を示す情報を図示せぬDEM計算処理部に出力するようにしてもよい。
When the
This narrows down the stereo pair SP (a) having a high degree of coincidence of images for each point (b, l) in the calculation target range.
When the
グルーピング部5は、画像探索部4から1以上のステレオペアSP(a)(正規化相関値cor(a(b,l))が閾値β以上のステレオペアSP(a))と、それらのステレオペアSP(a)の正規化相関値cor(a(b,l))とを受けると、その正規化相関値cor(a(b,l))を基準にして、それらのステレオペアSP(a)をグループ分けする。
例えば、正規化相関値を0.05刻みにして、正規化相関値が0.95以上のグループ、正規化相関値が0.9以上0.95未満のグループ、正規化相関値が0.9未満のグループなどに、各ステレオペアSP(a)を分類する。
The
For example, when the normalized correlation value is 0.05, the normalized correlation value is 0.95 or more, the normalized correlation value is 0.9 or more and less than 0.95, and the normalized correlation value is 0.9. Each stereo pair SP (a) is classified into a group of less than.
時刻比較部6は、グルーピング部5が各ステレオペアSP(a)をグループ分けすると、グループ毎に、当該グループに属している1以上のステレオペアSP(a)を構成している2つのシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しい撮影時刻tnewを特定する。
時刻比較部6は、各グループにおいて、最も新しい撮影時刻tnewを特定すると、各グループにおける最も新しい撮影時刻tnewを比較して、その撮影時刻tnewが新しい順に各グループを並べて、各グループの並び順を出力する。
When the
ただし、複数のグループにおいて、最も新しい撮影時刻tnewが同じである場合、属しているステレオペアSP(a)の個数が多い方のグループを優先して、そのグループの並び順を先にする。
なお、属しているステレオペアSP(a)の個数も同じであれば、グルーピング部5から出力された時点の並び順を保持するものとする。
時刻比較部6は、各グループの並び順を示すグループリストGLを時差計算部7に出力する。
However, in more than one group, when most new shooting time t new is the same, in favor of the group of people is large number of stereo pairs SP (a) that belong to the order of the group ahead.
If the number of stereo pairs SP (a) to which they belong is the same, the arrangement order at the time of output from the
The
時差計算部7は、時刻比較部6からグループリストGLを受けると、そのグループリストGLを参照して、並び順が最も先のグループ(並び順が1番目のグループ)を認識し、そのグループに属しているステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成しているシーンデータS(m),S(n)に含まれている画像の撮影時刻t(m),t(n)の時差Δtを算出する。
Δt=|t(m)−t(n)| (3)
時差計算部7は、並び順が1番目のグループに属しているステレオペアSP(a)毎に撮影時刻t(m),t(n)の時差Δtを算出すると、その時差Δtが小さい順に各ステレオペアSP(a)を並べて、各ステレオペアSP(a)の並び順を示すステレオペアリストSPLを生成する。
When the time
Δt = | t (m) −t (n) | (3)
The time
次に、時差計算部7は、グループリストGLを参照して、並び順が2番目のグループを認識し、2番目のグループについても、1番目のグループの場合と同様に、2番目のグループに属している各ステレオペアSP(a)を時差Δtが小さい順に並べ、先に生成しているステレオペアリストSPLが示すステレオペアSP(a)の並び順の一番後ろに、2番目のグループに属している各ステレオペアSP(a)の並び順を追加する。
グループリストGLが示す3番目以降のグループについても、並び順が先のグループから順番に、上記と同様の処理を実施することで、3番目以降のグループに属している各ステレオペアSP(a)の並び順を先に生成しているステレオペアリストSPLの後ろに追加する。
Next, the time
For the third and subsequent groups indicated by the group list GL, the stereo pair SP (a) belonging to the third and subsequent groups is performed by performing the same processing as described above in order from the previous group. Are added after the stereo pair list SPL generated earlier.
これにより、並び順が先のグループ(画像の一致度が高いステレオペアSP(a)が属しているグループ)に属しているステレオペアSP(a)の並び順が先になり、また、同じグループに属しているステレオペアSP(a)については、撮影時刻t(m),t(n)の時差Δtが小さいステレオペアSP(a)ほど並び順が先になることを示すステレオペアリストSPLが最終的に生成されて、そのステレオペアリストSPLが時差計算部7から図示せぬDEM計算処理部に出力される。
DEM計算処理部は、ステレオペアリストSPLが示す並び順が先のステレオペアSP(a)を優先的に使用して、DEMを計算することで、DEMの計算精度を高めることができる。
As a result, the arrangement order of the stereo pair SP (a) belonging to the first group (the group to which the stereo pair SP (a) having a high degree of coincidence of images belongs) comes first, and the same group For the stereo pair SP (a) belonging to the stereo pair SP (a), there is a stereo pair list SPL indicating that the stereo pair SP (a) having the smaller time difference Δt between the photographing times t (m) and t (n) is arranged first. Finally generated, the stereo pair list SPL is output from the
The DEM calculation processing unit can increase the calculation accuracy of the DEM by calculating the DEM by preferentially using the stereo pair SP (a) whose arrangement order indicated by the stereo pair list SPL is first.
以上で明らかなように、この実施の形態1によれば、シーンデータ格納部1により格納されている複数のシーンデータS(i)に含まれている撮影方向d(i)を用いて、各々のシーンデータS(i)に係る画像間の撮影視差P(m,n)を算出し、複数のシーンデータS(i)の中から、画像間の撮影視差P(m,n)が所定範囲内に含まれているシーンデータS(m),S(n)の組をステレオペアSP(a)として検索する視差計算部3を設け、画像探索部4が、視差計算部3により検索されたステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成しているシーンデータS(m),S(n)に含まれている撮影データG(m),G(n)が示す画像間の正規化相関値cor(a(b,l))をDEM計算対象範囲内の各点(b,l)毎に算出し、その正規化相関値cor(a(b,l))が閾値β未満のステレオペアSP(a)を除外して、その正規化相関値cor(a(b,l))が閾値β以上のステレオペアSP(a)だけを残すように構成したので、DEMの計算精度を高めることが可能なステレオペアを選別することができる効果を奏する。
即ち、2枚の画像間の撮影視差が適正であって、2枚の画像間の一致度が高いステレオペアを計算対象範囲の各点毎に選別することができる効果を奏する。
As apparent from the above, according to the first embodiment, each of the shooting directions d (i) included in the plurality of scene data S (i) stored in the scene
That is, there is an effect that it is possible to select a stereo pair having an appropriate shooting parallax between two images and having a high degree of coincidence between the two images for each point in the calculation target range.
また、この実施の形態1によれば、画像探索部4により残されたステレオペアSP(a)の正規化相関値cor(a(b,l))を基準にして、ステレオペアSP(a)をグループ分けするグルーピング部5と、グループ毎に、当該グループに属している1以上のステレオペアSP(a)を構成している2つのシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しい撮影時刻tnewを特定するとともに、各グループにおける最も新しい撮影時刻tnewを比較して、その撮影時刻tnewが新しい順に各グループを並べて、各グループの並び順を出力する時刻比較部6とを設け、時差計算部7が、時刻比較部6から出力された並び順が先のグループから順番に、当該グループに属しているステレオペアSP(a)毎に、当該ステレオペアSP(a)を構成しているシーンデータS(m),S(n)に含まれている画像の撮影時刻t(m),t(n)の時差Δtを算出し、その時差Δtが小さい順に各ステレオペアSP(a)を並べて、各ステレオペアSP(a)の並び順を出力するように構成したので、2枚の画像の撮影時間の時差が短いステレオペアを選別することができる効果を奏する。
Further, according to the first embodiment, the stereo pair SP (a) is based on the normalized correlation value cor (a (b, l)) of the stereo pair SP (a) left by the
実施の形態2.
図3はこの発明の実施の形態2によるステレオペア決定装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
領域分割部11は計算対象範囲(指定領域)を示す計算対象範囲情報を入力すると、その計算対象範囲情報が示す計算対象範囲を分割して、分割後の計算対象範囲を示す計算対象範囲情報を情報入力部2に与える処理を実施する。なお、領域分割部11は指定領域分割手段を構成している。
3 is a block diagram showing a stereo pair determining apparatus according to
When the
図3の例では、ステレオペア決定装置の構成要素であるシーンデータ格納部1、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6、時差計算部7及び領域分割部11のそれぞれが専用のハードウェアで構成されている(シーンデータ格納部1以外の各構成要素は、例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている)ものを想定しているが、ステレオペア決定装置がコンピュータで構成されていてもよい。
ステレオペア決定装置がコンピュータで構成されている場合、シーンデータ格納部1をコンピュータのメモリ上に構成するとともに、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6、時差計算部7及び領域分割部11の処理内容を記述しているステレオペア決定プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているステレオペア決定プログラムを実行するようにすればよい。
In the example of FIG. 3, the scene
When the stereo pair determination device is configured by a computer, the scene
上記実施の形態1では、画像探索部4が、シーンデータS(m),S(n)に含まれている撮影データG(m),G(n)の中から、情報入力部2により入力された計算対象範囲情報が示す計算対象範囲を撮影している部分の撮影データR(m),R(n)を取り出すようにしている例を示したが、その計算対象範囲情報が示す計算対象範囲が広すぎる場合、撮影データR(m)が示す画像と、撮影データR(n)が示す画像とのマッチング精度が悪くなるため、正規化相関値cor(a(b,l))が小さくなり、適正なステレオペアSP(a)を選別できなくなる可能性がある。
In the first embodiment, the
そこで、この実施の形態2では、領域分割部11が、外部から入力された計算対象範囲情報が示す計算対象範囲が予め設定された範囲より広い場合、その計算対象範囲が予め設定された範囲より小さくなるように、その計算対象範囲を分割し、分割後の計算対象範囲を示す計算対象範囲情報を情報入力部2に与える。
情報入力部2から時差計算部7に至る処理内容は上記実施の形態1と同様であり、領域分割部11は、時差計算部7から分割後の計算対象範囲に係るステレオペアリストSPLが出力されると、そのステレオペアリストSPLを図示せぬDEM計算処理部に出力する。
なお、領域分割部11は、時差計算部7から分割後の計算対象範囲に係るステレオペアリストSPLを受ける毎に、そのステレオペアリストSPLを図示せぬDEM計算処理部に出力するようにしてよいが、全計算対象範囲情報分のステレオペアリストSPLが集まってから、分割後の計算対象範囲に係るステレオペアリストSPLをパラレルで図示せぬDEM計算処理部に出力するようにしてもよい。
Therefore, in the second embodiment, when the
The processing contents from the
The
以上で明らかなように、この実施の形態2によれば、領域分割部11が、外部から入力された計算対象範囲情報が示す計算対象範囲を分割して、分割後の計算対象範囲を示す計算対象範囲情報を情報入力部2に与えるように構成したので、外部から入力された計算対象範囲情報が示す計算対象範囲が広すぎる場合でも、適正なステレオペアSP(a)を選別することができる効果を奏する。
As apparent from the above, according to the second embodiment, the
実施の形態3.
図4はこの発明の実施の形態3によるステレオペア決定装置を示す構成図であり、図において、図1及び図3と同一符号は同一または相当部分を示すので説明を省略する。
計算対象範囲設定部12はシーンデータ格納部1により格納されている複数のシーンデータS(i)の中で、最も新しく撮影された撮影データGnew(i)を含んでいるシーンデータSnew(i)を特定して、そのシーンデータSnew(i)に含まれている撮影データGnew(i)が示す画像の範囲を計算対象範囲(指定領域)に設定し、その計算対象範囲を示す計算対象範囲情報を情報入力部2に与える処理を実施する。なお、計算対象範囲設定部12は指定領域設定手段を構成している。
FIG. 4 is a block diagram showing a stereo pair determining apparatus according to
The calculation target
図4の例では、ステレオペア決定装置の構成要素であるシーンデータ格納部1、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6、時差計算部7及び計算対象範囲設定部12のそれぞれが専用のハードウェアで構成されている(シーンデータ格納部1以外の各構成要素は、例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている)ものを想定しているが、ステレオペア決定装置がコンピュータで構成されていてもよい。
ステレオペア決定装置がコンピュータで構成されている場合、シーンデータ格納部1をコンピュータのメモリ上に構成するとともに、情報入力部2、視差計算部3、画像探索部4、グルーピング部5、時刻比較部6、時差計算部7及び計算対象範囲設定部12の処理内容を記述しているステレオペア決定プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているステレオペア決定プログラムを実行するようにすればよい。
In the example of FIG. 4, the scene
When the stereo pair determination device is configured by a computer, the scene
上記実施の形態2では、領域分割部11が、計算対象範囲を示す計算対象範囲情報を入力すると、その計算対象範囲情報が示す計算対象範囲を分割して、分割後の計算対象範囲を示す計算対象範囲情報を情報入力部2に与えるものを示したが、外部から計算対象範囲情報を入力せずに、計算対象範囲設定部12が自動的に計算対象範囲を設定するようにしてもよい。
In the second embodiment, when the
即ち、計算対象範囲設定部12は、シーンデータ格納部1により格納されている複数のシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しく撮影された撮影データGnew(i)を含んでいるシーンデータSnew(i)を特定する。
計算対象範囲設定部12は、シーンデータSnew(i)を特定すると、そのシーンデータSnew(i)に含まれている撮影データGnew(i)が示す画像の範囲を計算対象範囲に設定し、その計算対象範囲を示す計算対象範囲情報を情報入力部2に与える。
計算対象範囲設定部12以外の処理内容は、上記実施の形態2と同様である。
これにより、自動的に計算対象範囲を適正な範囲に設定して、適正なステレオペアSP(a)を選別することができる。
That is, the calculation target
When the calculation target
Processing contents other than the calculation target
Thereby, the calculation target range can be automatically set to an appropriate range, and the appropriate stereo pair SP (a) can be selected.
実施の形態4.
図5はこの発明の実施の形態4によるステレオペア決定装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
画像探索部20は図1の画像探索部4と同様の処理を実施するが、正規化相関値cor(a(b,l))と閾値βを比較して、正規化相関値cor(a(b,l))が閾値β未満のステレオペアSP(a)を除外する際に、ステレオペアSP(a)を構成している2つのシーンデータS(m),S(n)に含まれている画像の撮影時刻t(m),t(n)の中で古い方の撮影時刻toldと、シーンデータ格納部1により格納されている複数のシーンデータ(i)に含まれている画像の撮影時刻t(i)の中で最も新しい撮影時刻tnewとの時刻差Δtが大きい程、大きな閾値βを設定する処理を実施する。なお、画像探索部20はステレオペア選別手段を構成している。
5 is a block diagram showing a stereo pair determining apparatus according to
The image search unit 20 performs the same processing as the
図5の例では、ステレオペア決定装置の構成要素であるシーンデータ格納部1、情報入力部2、視差計算部3、画像探索部20、グルーピング部5、時刻比較部6及び時差計算部7のそれぞれが専用のハードウェアで構成されている(シーンデータ格納部1以外の各構成要素は、例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている)ものを想定しているが、ステレオペア決定装置がコンピュータで構成されていてもよい。
ステレオペア決定装置がコンピュータで構成されている場合、シーンデータ格納部1をコンピュータのメモリ上に構成するとともに、情報入力部2、視差計算部3、画像探索部20、グルーピング部5、時刻比較部6及び時差計算部7の処理内容を記述しているステレオペア決定プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているステレオペア決定プログラムを実行するようにすればよい。
In the example of FIG. 5, the scene
When the stereo pair determination device is configured by a computer, the scene
上記実施の形態1〜3では、画像探索部4が、予め設定されている閾値βと正規化相関値cor(a(b,l))を比較するものを示したが、画像探索部20が、その閾値βを下記に示すように設定して、正規化相関値cor(a(b,l))と比較するようにしてもよい。
In the first to third embodiments, the
画像探索部20は、ステレオペアSP(a)を構成している一方のシーンデータS(m)に含まれている画像の撮影時刻t(m)と、他方のシーンデータS(n)に含まれている画像の撮影時刻t(n)とを比較して、古い方の撮影時刻toldを特定する。
また、画像探索部20は、シーンデータ格納部1により格納されている複数のシーンデータS(i)に含まれている画像の撮影時刻t(i)を比較して、最も新しい撮影時刻tnewを特定する。
The image search unit 20 includes an image capturing time t (m) included in one scene data S (m) constituting the stereo pair SP (a) and the other scene data S (n). The image capturing time t old of the older image is specified by comparing the image capturing time t (n) of the captured image.
Further, the image searching unit 20 compares the capture time of image included in the plurality of stored by the scene
画像探索部20は、古い方の撮影時刻toldと最も新しい撮影時刻tnewを特定すると、下記の式(4)に示すように、それらの時刻の時刻差Δtを算出する。
Δt=tnew−told (4)
画像探索部20は、時刻差Δtを算出すると、時刻差Δtに対して単調に増加する閾値関数β(Δt)を用いて、その時刻差Δtが大きい程、大きな閾値βを設定する。
When specifying the oldest shooting time t old and the latest shooting time t new , the image search unit 20 calculates a time difference Δt between these times as shown in the following equation (4).
Δt = t new −t old (4)
When the time difference Δt is calculated, the image search unit 20 uses the threshold function β (Δt) that monotonously increases with respect to the time difference Δt, and sets a larger threshold β as the time difference Δt increases.
正規化相関値cor(a(b,l))と閾値βの比較処理は、図1の画像探索部4と同様であるが、古い方の撮影時刻toldと最も新しい撮影時刻tnewとの時刻差Δtが大きい程、大きな閾値βが設定されるため、正規化相関値cor(a(b,l))が閾値β未満であるとして、ステレオペアSP(a)から除外される確率が高まり、より適正である可能性が高いステレオペアSP(a)だけが残るようになる。
The comparison processing of the normalized correlation value cor (a (b, l)) and the threshold value β is the same as that of the
実施の形態5.
上記実施の形態1〜4では、視差計算部3の後ろに画像探索部4(または、画像探索部20)が設置されているものを示したが、図6に示すように、画像探索部4(または、画像探索部20)が視差計算部3の前に設置されていてもよく、上記実施の形態1〜4と同様の効果を奏することができる。
In the first to fourth embodiments, the image search unit 4 (or the image search unit 20) is installed behind the
また、上記実施の形態1〜4では、時刻比較部6の後ろに時差計算部7が設置されているものを示したが、図7に示すように、時差計算部7が時刻比較部6の前に設置されていてもよく、上記実施の形態1〜4と同様の効果を奏することができる。
In the first to fourth embodiments, the time
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .
1 シーンデータ格納部(シーンデータ格納手段)、2 情報入力部、3 視差計算部(ステレオペア検索手段)、4,20 画像探索部(ステレオペア選別手段)、5 グルーピング部(グルーピング手段)、6 時刻比較部(グループソート手段)、7 時差計算部(ステレオペアソート手段)、11 領域分割部(指定領域分割手段)、12 計算対象範囲設定部(指定領域設定手段)。
DESCRIPTION OF
Claims (8)
上記シーンデータ格納手段により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索手段と、
上記ステレオペア検索手段により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すステレオペア選別手段と、
上記ステレオペア選別手段により残されたステレオペアの一致度を基準にして、上記ステレオペアをグループ分けするグルーピング手段と、
1以上のステレオペアが属しているグループ毎に、当該グループに属しているシーンデータに含まれている画像の撮影時刻を比較して、最も新しい撮影時刻を特定するとともに、各グループにおける最も新しい撮影時刻を比較して、上記撮影時刻が新しい順に各グループを並べて、各グループの並び順を出力するグループソート手段と、
上記グループソート手段から出力された並び順が先のグループから順番に、当該グループに属しているステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の時差を算出し、上記時差が小さい順に各ステレオペアを並べて、各ステレオペアの並び順を出力するステレオペアソート手段と
を備えたステレオペア決定装置。 Scene data storage means for storing a plurality of scene data composed of image data, image capturing position, image capturing direction, image capturing time, and line-of-sight vector corresponding to each pixel on the image;
The shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the scene data storage means, and between the images is calculated from the plurality of scene data. Stereo pair search means for searching as a stereo pair a set of scene data whose shooting parallax is included in a predetermined range;
For each stereo pair searched by the stereo pair searching means, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the degree of coincidence is a predetermined value. Stereo pair selection means that excludes less than stereo pairs and leaves only stereo pairs with a matching value equal to or higher than a predetermined value ;
Grouping means for grouping the stereo pairs on the basis of the matching degree of the stereo pairs left by the stereo pair selection means;
For each group to which one or more stereo pairs belong, the shooting time of the image included in the scene data belonging to the group is compared to identify the latest shooting time, and the newest shooting in each group A group sorting means for comparing the times, arranging the groups in the order from the latest shooting time, and outputting the order of the groups;
Shooting times of images included in the two scene data constituting the stereo pair for each stereo pair belonging to the group in the order in which the arrangement order output from the group sorting unit is from the previous group A stereo pair determining device comprising: stereo pair sorting means for calculating a time difference of the stereo pairs, arranging the stereo pairs in order of increasing time difference, and outputting the arrangement order of the stereo pairs .
上記シーンデータ格納手段により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索手段と、The shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the scene data storage means, and between the images is calculated from the plurality of scene data. Stereo pair search means for searching as a stereo pair a set of scene data whose shooting parallax is included in a predetermined range;
上記ステレオペア検索手段により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出するとともに、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の中で古い方の撮影時刻と、上記シーンデータ格納手段により格納されている複数のシーンデータに含まれている画像の撮影時刻の中で最も新しい撮影時刻との時刻差が大きい程、大きな所定値を設定し、上記一致度が上記所定値未満のステレオペアを除外して、上記一致度が上記所定値以上のステレオペアだけを残すステレオペア選別手段とFor each stereo pair searched by the stereo pair search means, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated and the stereo pair is configured. Of the images included in the two scene data, and the shooting time of the image included in the plurality of scene data stored by the scene data storage means. The larger the time difference from the latest shooting time, the larger the predetermined value is set, excluding stereo pairs whose coincidence is less than the predetermined value, and only stereo pairs whose coincidence is greater than or equal to the predetermined value. Stereo pair selection means to leave
を備えたステレオペア決定装置。Stereo pair determination device equipped with.
を備えたことを特徴とする請求項1または請求項2記載のステレオペア決定装置。 For each stereo pair left by the stereo pair selection means, the time difference between the photographing times of the images included in the two scene data constituting the stereo pair is calculated, and each stereo pair is selected in ascending order of the time difference. The stereo pair determination device according to claim 1 or 2, further comprising stereo pair sorting means for arranging and outputting the arrangement order of each stereo pair.
上記ステレオペア選別手段は、上記ステレオペア検索手段により検索されたステレオペアを構成している2つのシーンデータに含まれている撮影データの中から、上記指定領域分割手段により分割された指定領域を撮影している部分の撮影データをそれぞれ取り出して、その取り出した撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すことを特徴とする請求項1から請求項3のうちのいずれか1項記載のステレオペア決定装置。 A designated area dividing means for dividing the set designated area;
The stereo pair selection means includes the designated area divided by the designated area dividing means from the photographing data included in the two scene data constituting the stereo pair searched by the stereo pair search means. Each piece of shooting data of the portion being shot is taken out, the degree of coincidence between images indicated by the taken shot data is calculated, stereo pairs with the degree of coincidence being less than a predetermined value are excluded, and the degree of coincidence is a predetermined value The stereo pair determination device according to any one of claims 1 to 3, wherein only the above stereo pair is left.
上記ステレオペア選別手段は、上記ステレオペア検索手段により検索されたステレオペアを構成している2つのシーンデータに含まれている撮影データの中から、上記指定領域設定手段により設定された指定領域を撮影している部分の撮影データをそれぞれ取り出して、その取り出した撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すことを特徴とする請求項1から請求項3のうちのいずれか1項記載のステレオペア決定装置。 Comprising designated area setting means for setting the designated area as the range of the image indicated by the latest photographed image data;
The stereo pair selecting means selects the designated area set by the designated area setting means from the shooting data included in the two scene data constituting the stereo pair searched by the stereo pair searching means. Each piece of shooting data of the portion being shot is taken out, the degree of coincidence between images indicated by the taken shot data is calculated, stereo pairs with the degree of coincidence being less than a predetermined value are excluded, and the degree of coincidence is a predetermined value The stereo pair determination device according to any one of claims 1 to 3, wherein only the above stereo pair is left.
上記シーンデータ格納処理手順により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索処理手順と、
上記ステレオペア検索処理手順により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すステレオペア選別処理手順と、
上記ステレオペア選別処理手順により残されたステレオペアの一致度を基準にして、上記ステレオペアをグループ分けするグルーピング処理手順と、
1以上のステレオペアが属しているグループ毎に、当該グループに属しているシーンデータに含まれている画像の撮影時刻を比較して、最も新しい撮影時刻を特定するとともに、各グループにおける最も新しい撮影時刻を比較して、上記撮影時刻が新しい順に各グループを並べて、各グループの並び順を出力するグループソート処理手順と、
上記グループソート処理手順から出力された並び順が先のグループから順番に、当該グループに属しているステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の時差を算出し、上記時差が小さい順に各ステレオペアを並べて、各ステレオペアの並び順を出力するステレオペアソート処理手順と
をコンピュータに実行させるステレオペア決定プログラム。 A scene data storage processing procedure for storing a plurality of scene data composed of image data, image capturing position, image capturing direction, image capturing time, and line-of-sight vector corresponding to each pixel on the image;
The shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the above-described scene data storage processing procedure, and images are selected from the plurality of scene data. Stereo pair search processing procedure for searching for a pair of scene data whose shooting parallax is within a predetermined range as a stereo pair;
For each stereo pair searched by the stereo pair search processing procedure, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the degree of coincidence is predetermined. Stereo pair selection processing procedure that excludes stereo pairs that are less than the value and leaves only stereo pairs with the matching degree equal to or higher than a predetermined value,
A grouping process procedure for grouping the stereo pairs based on the degree of matching of the stereo pairs left by the stereo pair selection process procedure;
For each group to which one or more stereo pairs belong, the shooting time of the image included in the scene data belonging to the group is compared to identify the latest shooting time, and the newest shooting in each group A group sort processing procedure for comparing the times, arranging the groups in the order from the latest shooting time, and outputting the order of each group;
Photographing images included in the two scene data constituting the stereo pair for each stereo pair belonging to the group in the order from the previous group in the order of output output from the group sort processing procedure. A stereo pair determination program that calculates a time difference of time, arranges each stereo pair in ascending order of time difference, and outputs a stereo pair sorting process procedure for outputting the arrangement order of each stereo pair .
上記シーンデータ格納処理手順により格納されている複数のシーンデータに含まれている撮影方向を用いて、各々のシーンデータに係る画像間の撮影視差を算出し、複数のシーンデータの中から、画像間の撮影視差が所定範囲内に含まれているシーンデータの組をステレオペアとして検索するステレオペア検索処理手順と、
上記ステレオペア検索処理手順により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出し、上記一致度が所定値未満のステレオペアを除外して、上記一致度が所定値以上のステレオペアだけを残すステレオペア選別処理手順と、
上記ステレオペア検索処理手順により検索されたステレオペア毎に、当該ステレオペアを構成している2つのシーンデータに含まれている撮影データが示す画像間の一致度を算出するとともに、当該ステレオペアを構成している2つのシーンデータに含まれている画像の撮影時刻の中で古い方の撮影時刻と、上記シーンデータ格納処理手順により格納されている複数のシーンデータに含まれている画像の撮影時刻の中で最も新しい撮影時刻との時刻差が大きい程、大きな所定値を設定し、上記一致度が上記所定値未満のステレオペアを除外して、上記一致度が上記所定値以上のステレオペアだけを残すステレオペア選別処理手順と
をコンピュータに実行させるステレオペア決定プログラム。 A scene data storage processing procedure for storing a plurality of scene data composed of image data, image capturing position, image capturing direction, image capturing time, and line-of-sight vector corresponding to each pixel on the image;
The shooting parallax between the images related to each scene data is calculated using the shooting directions included in the plurality of scene data stored by the above-described scene data storage processing procedure, and images are selected from the plurality of scene data. Stereo pair search processing procedure for searching for a pair of scene data whose shooting parallax is within a predetermined range as a stereo pair;
For each stereo pair searched by the stereo pair search processing procedure, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the degree of coincidence is predetermined. Stereo pair selection processing procedure that excludes stereo pairs that are less than the value and leaves only stereo pairs with the matching degree equal to or higher than a predetermined value ,
For each stereo pair searched by the stereo pair search processing procedure, the degree of coincidence between images indicated by the shooting data included in the two scene data constituting the stereo pair is calculated, and the stereo pair is Shooting of an image included in a plurality of scene data stored by the above-described scene data storage processing procedure and the shooting time of the older one among the shooting times of images included in the two configured scene data A larger predetermined value is set as the time difference with the latest shooting time is larger, and stereo pairs with the matching degree less than the predetermined value are excluded, and the stereo pair with the matching degree equal to or higher than the predetermined value is excluded. A stereo pair determination program that causes a computer to execute a stereo pair selection process procedure that only leaves .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013060178A JP6099447B2 (en) | 2013-03-22 | 2013-03-22 | Stereo pair determination device and stereo pair determination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013060178A JP6099447B2 (en) | 2013-03-22 | 2013-03-22 | Stereo pair determination device and stereo pair determination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014186476A JP2014186476A (en) | 2014-10-02 |
JP6099447B2 true JP6099447B2 (en) | 2017-03-22 |
Family
ID=51834008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013060178A Expired - Fee Related JP6099447B2 (en) | 2013-03-22 | 2013-03-22 | Stereo pair determination device and stereo pair determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6099447B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4181800B2 (en) * | 2002-06-20 | 2008-11-19 | Nec東芝スペースシステム株式会社 | Topographic measurement system, storage medium, and program using stereo image |
JP5362189B2 (en) * | 2006-05-10 | 2013-12-11 | 株式会社トプコン | Image processing apparatus and processing method thereof |
JP2010256252A (en) * | 2009-04-27 | 2010-11-11 | Topcon Corp | Three-dimensional measurement image capturing apparatus and method |
JP5567522B2 (en) * | 2011-05-02 | 2014-08-06 | 株式会社日立ソリューションズ | Stereo pair search device and stereo pair search method from single image |
-
2013
- 2013-03-22 JP JP2013060178A patent/JP6099447B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014186476A (en) | 2014-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829398B (en) | A method for object detection in video based on 3D convolutional network | |
CN110084260B (en) | Semi-supervision method for training multi-pattern recognition and registration tool model | |
CN107341442B (en) | Motion control method, motion control device, computer equipment and service robot | |
JP2011134114A (en) | Pattern recognition method and pattern recognition apparatus | |
JP2019057836A (en) | Video processing device, video processing method, computer program, and storage medium | |
JP2012181142A (en) | Stereo image processing device and stereo image processing method | |
JP5541426B1 (en) | Image processing apparatus, image processing method, and image processing program | |
US20210142064A1 (en) | Image processing apparatus, method of processing image, and storage medium | |
JP2014102810A (en) | Subject recognition device, subject recognition method, and subject recognition program | |
JP2017010549A (en) | Method and apparatus for data retrieval in a light field database | |
JP6042146B2 (en) | Object detection apparatus and object detection method | |
JP6068895B2 (en) | Image processing apparatus and program | |
JP6494402B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6598480B2 (en) | Image processing apparatus, image processing method, and program | |
JP2020052977A (en) | Information processing device, information processing method, and program | |
JP6099447B2 (en) | Stereo pair determination device and stereo pair determination program | |
JP5217917B2 (en) | Object detection and tracking device, object detection and tracking method, and object detection and tracking program | |
JP2015228188A (en) | Image processor, image processing method and program | |
KR101178015B1 (en) | Generating method for disparity map | |
KR101505360B1 (en) | A disparity search range estimation apparatus and method | |
JP2006031392A (en) | Template matching device and method | |
JP2018092507A (en) | Image processing apparatus, image processing method, and program | |
JP6278757B2 (en) | Feature value generation device, feature value generation method, and program | |
KR101305732B1 (en) | Method of block producing for video search and method of query processing based on block produced thereby | |
KR101220003B1 (en) | Generating method for disparity map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151211 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6099447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |