JP5230354B2 - POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE - Google Patents
POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE Download PDFInfo
- Publication number
- JP5230354B2 JP5230354B2 JP2008276845A JP2008276845A JP5230354B2 JP 5230354 B2 JP5230354 B2 JP 5230354B2 JP 2008276845 A JP2008276845 A JP 2008276845A JP 2008276845 A JP2008276845 A JP 2008276845A JP 5230354 B2 JP5230354 B2 JP 5230354B2
- Authority
- JP
- Japan
- Prior art keywords
- point data
- perspective projection
- projection conversion
- ground
- ground height
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 110
- 238000013500 data storage Methods 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 16
- 238000005259 measurement Methods 0.000 claims description 12
- 238000013506 data mapping Methods 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
この発明は、例えば、防災ヘリコプタに搭載されているビデオカメラによって撮影された画像データから被災建造物の位置を特定する位置特定装置と、上記画像データから地上高が変化している建物を検出する異動建物検出装置とに関するものである。 The present invention detects, for example, a position identifying device that identifies the position of a damaged building from image data captured by a video camera mounted on a disaster prevention helicopter, and a building whose ground height is changing from the image data. The present invention relates to a transfer building detection apparatus.
例えば、以下の特許文献1に開示されている位置特定装置は、ヘリコプタに搭載されている撮影装置が地表面上の目標物を撮影すると、ヘリコプタの現在位置から撮影装置の方向に向けて延びる直線と、予め記録されている3次元地理データ上の地表面との交点を求め、その交点を目標物の位置として特定している。
For example, the position specifying device disclosed in
従来の位置特定装置は以上のように構成されているので、撮影装置を搭載しているヘリコプタの現在位置を正確に検出することができなければ、目標物の位置を正確に特定することができないなどの課題があった。 Since the conventional position specifying device is configured as described above, the position of the target cannot be specified accurately unless the current position of the helicopter equipped with the photographing device can be accurately detected. There were issues such as.
この発明は上記のような課題を解決するためになされたもので、ヘリコプタなどの移動体に搭載されている撮影手段の正確な現在位置が判明しない場合でも、目標物の位置を正確に特定することができる位置特定装置を得ることを目的とする。
また、この発明は、ヘリコプタなどの移動体に搭載されている撮影手段の正確な現在位置が判明しない場合でも、地上高が変化している建物を正確に検出することができる異動建物検出装置を得ることを目的とする。
The present invention has been made to solve the above-described problems, and accurately identifies the position of a target even when the exact current position of an imaging unit mounted on a moving body such as a helicopter is not known. The object is to obtain a location device that can be used.
In addition, the present invention provides a moving building detection apparatus capable of accurately detecting a building whose ground height is changing even when the exact current position of the photographing means mounted on a moving body such as a helicopter is not known. The purpose is to obtain.
この発明に係る位置特定装置は、撮影手段により撮影された地上の画像データから撮影手段の撮影範囲の3次元形状を推定し、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する地上高パタン生成手段と、計測手段により計測された撮影手段の概略の位置を基準にして、撮影範囲に略対応する地表面上の領域を特定して、地図データ記憶手段から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する標高点データ取得手段と、透視投影変換用のパラメータを用いて、標高点データ取得手段により取得された標高点データの透視投影変換を行う透視投影変換手段とを設け、パラメータ更新手段が地上高パタン生成手段により生成された地上高パタンと透視投影変換手段により透視投影変換された標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換手段に設定するようにしたものである。 The position specifying device according to the present invention estimates the three-dimensional shape of the photographing range of the photographing means from the ground image data photographed by the photographing means and indicates the ground height at each point in the photographing range from the three-dimensional shape. An area on the ground surface that substantially corresponds to the imaging range is identified from the map data storage unit based on the approximate position of the imaging means measured by the ground height pattern generation unit that generates the pattern and the measurement unit, Elevation point data acquisition means that reads the map data of the area on the ground surface and acquires the elevation point data indicating the elevation of each point from the map data, and the elevation point data acquisition means using the parameters for perspective projection conversion Perspective projection conversion means for performing perspective projection conversion of the acquired elevation point data is provided, and the parameter updating means and the ground height pattern generated by the ground height pattern generation means are transmitted. In correlation with the perspective projection converted elevation point data by the projection conversion means calculates the parameters for the perspective projection transformation becomes maximum is obtained so as to set the parameter to perspective projection conversion means.
この発明によれば、撮影手段により撮影された地上の画像データから撮影手段の撮影範囲の3次元形状を推定し、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する地上高パタン生成手段と、計測手段により計測された撮影手段の概略の位置を基準にして、撮影範囲に略対応する地表面上の領域を特定して、地図データ記憶手段から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する標高点データ取得手段と、透視投影変換用のパラメータを用いて、標高点データ取得手段により取得された標高点データの透視投影変換を行う透視投影変換手段とを設け、パラメータ更新手段が地上高パタン生成手段により生成された地上高パタンと透視投影変換手段により透視投影変換された標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換手段に設定するように構成したので、ヘリコプタなどの移動体に搭載されている撮影手段の正確な現在位置が判明しない場合でも、目標物の位置を正確に特定することができる効果がある。 According to the present invention, the three-dimensional shape of the photographing range of the photographing means is estimated from the ground image data photographed by the photographing means, and the ground height pattern indicating the ground height of each point in the photographing range is generated from the three-dimensional shape. An area on the ground surface that substantially corresponds to the shooting range is identified on the basis of the approximate position of the shooting means measured by the ground height pattern generating means and the measuring means, and the above ground surface is determined from the map data storage means. Obtained by the elevation point data acquisition means using the elevation point data acquisition means for acquiring the elevation point data indicating the elevation of each point from the map data and the parameters for perspective projection conversion. A perspective projection conversion means for performing perspective projection conversion of the elevation point data, and the parameter update means generates the ground high pattern generated by the ground high pattern generation means and the perspective projection conversion means. Because it is configured to calculate the parameters for perspective projection conversion that maximizes the correlation with the elevation point data that has been perspective-projected by, and to set the parameters in the perspective projection conversion means, it is mounted on mobile objects such as helicopters. Even if the exact current position of the photographing means being used is not known, there is an effect that the position of the target can be accurately specified.
実施の形態1.
図1はこの発明の実施の形態1による位置特定装置を示す構成図である。
図1において、ヘリコプタ1はカメラ2や計測装置3を搭載している移動体である。
カメラ2はヘリコプタ1に設置されている雲台に固定されており、上空から地上を撮影して、地上の画像データを演算装置4に出力する処理を実施する。なお、カメラ2は撮影手段を構成している。
計測装置3はGPS電波受信機、角度センサー、レーザーレンジファインダなどを内蔵しており、カメラ2により撮影された時点のカメラ2の概略位置を示す座標(x,y,z)と、カメラ2から地上の目標地点までの距離Dと、機体ベクトル(Hu,Hv,Hw)と、光軸ベクトル(Ou,Ov,Ow)とを計測する処理を実施する。なお、計測装置3は計測手段を構成している。
FIG. 1 is a block diagram showing a position specifying device according to
In FIG. 1, a
The
The
ただし、カメラ2の概略位置を示す座標(x,y,z)は、GPS電波受信機により受信されたGPSデータから得られる緯度・経度・高度を変換した平面直角座標で与えられるものとする。
また、機体ベクトルは、ヘリコプタ1の機体の重心から機体の下部方向の単位ベクトルとして与えられ、光軸ベクトルは、ヘリコプタ1の重心を原点とする単位ベクトルとして与えられるものとする。
なお、カメラ2とヘリコプタ1の相対位置及び計測装置3とヘリコプタ1の相対位置は変化しないので、計測装置3が自己の位置を計測すれば、カメラ2の位置を相対的に求めることができる。
However, the coordinates (x, y, z) indicating the approximate position of the
Also, the airframe vector is given as a unit vector in the lower direction of the airframe from the center of gravity of the
Since the relative position between the
演算装置4はカメラ2により撮影された地上の画像データと計測装置3により計測された情報を収集して、カメラ2により撮影された地上の画像データの任意座標に対応する標高点データ(各地点の標高を示すデータ)を特定する処理を実施する。
ここでは、演算装置4の構成要素である地上高パタン生成部11、地図データ記憶部12、標高点データ取得部13、透視投影変換部14、パラメータ更新部15及び標高点データ写像部16のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路基板)で構成されているものを想定しているが、演算装置4がコンピュータで構成される場合には、地上高パタン生成部11、標高点データ取得部13、透視投影変換部14、パラメータ更新部15及び標高点データ写像部16の処理内容が記述されているプログラム(地上高パタン生成プログラム、標高点データ取得プログラム、透視投影変換プログラム、パラメータ更新プログラム、標高点データ写像プログラム)をコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
ディスプレイ5は演算装置4により特定された標高点データなどを表示する表示機器である。
The
Here, each of the ground height
The
地上高パタン生成部11はカメラ2により撮影された地上の画像データからカメラ2の撮影範囲の3次元形状を推定し、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する処理を実施する。なお、地上高パタン生成部11は地上高パタン生成手段を構成している。
地図データ記憶部12は地図データを記憶しているハードディスクなどの記憶媒体である。なお、地図データ記憶部12は地図データ記憶手段を構成している。
The ground height
The map
標高点データ取得部13は計測装置3により計測されたカメラ2の概略位置を基準にして、カメラ2の撮影範囲に略対応する地表面上の領域を特定して、地図データ記憶部12から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する処理を実施する。なお、標高点データ取得部13は標高点データ取得手段を構成している。
透視投影変換部14はパラメータ更新部15により更新される透視投影変換用のパラメータを用いて、標高点データ取得部13により取得された標高点データの透視投影変換を実施する。なお、透視投影変換部14は透視投影変換手段を構成している。
The elevation point
The perspective
パラメータ更新部15は地上高パタン生成部11により生成された地上高パタンと透視投影変換部14により透視投影変換された標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換部14に設定する処理を実施する。なお、パラメータ更新部15はパラメータ更新手段を構成している。
標高点データ写像部16は例えばキーボードやマウスなどのマンマシンインタフェースを備えており、ユーザがマンマシンインタフェースを操作して、カメラ2により撮影された地上の画像データの任意座標を指定すると、透視投影変換部14により透視投影変換された標高点データの中から、その任意座標に対応する標高点データを特定する処理を実施する。なお、標高点データ写像部16は標高点データ写像手段を構成している。
The
The elevation point
次に動作について説明する。
ヘリコプタ1に搭載されているカメラ2は、上空から地上を撮影して、地上の画像データを演算装置4に出力する。
ここで、図2はカメラ2により撮影された地上の画像データの一例を示す説明図であり、地上の画像データが512×512ピクセルである例を示している。
特に、(A)はカメラ2により時刻tに撮影された画像データであり、(B)は時刻t−1(時刻tの1秒前)に撮影された画像データである。
Next, the operation will be described.
The
Here, FIG. 2 is an explanatory view showing an example of the ground image data taken by the
In particular, (A) is image data taken at time t by the
計測装置3は、カメラ2の位置と姿勢を計測するものであり、カメラ2により撮影された時点のカメラ2の概略位置を示す座標(x,y,z)と、カメラ2から地上の目標地点までの距離Dと、機体ベクトル(Hu,Hv,Hw)と、光軸ベクトル(Ou,Ov,Ow)とを計測する。
図3は計測装置3の計測結果の一例を示す説明図である。
この実施の形態1では、計測装置3は、カメラ2の概略位置を示す座標(x,y,z)については、内蔵しているGPS電波受信機を用いて計測し、カメラ2から地上の目標地点までの距離Dについては、内蔵しているレーザーレンジファインダを用いて計測し、機体ベクトル(Hu,Hv,Hw)と光軸ベクトル(Ou,Ov,Ow)については、内蔵している角度センサーを用いて計測している。
The
FIG. 3 is an explanatory diagram illustrating an example of a measurement result of the
In the first embodiment, the
演算装置4の地図データ記憶部12には、予め地図データが記録されている。
地図データ記憶部12に記録されている地図データは、図4(A)に示すように、建物の形状と建物のIDを示すデータと、図4(B)に示すように、建物のIDと地上高の対応関係を示すテーブルとから構成されている。
Map data is recorded in advance in the map
The map data recorded in the map
演算装置4の地上高パタン生成部11は、カメラ2から時刻tの画像データと、時刻t−1の画像データとを受けると、例えば、それらの画像データに対してステレオ画像処理を実施することにより、カメラ2の撮影範囲の3次元形状を推定する。
なお、ステレオ画像処理は、一般に広く知られた計算機処理であるので、ここでは説明を省力する。
例えば、「金谷 健一,三島 等,未校正カメラによる2画像からの3次元復元とその信頼性評価,情報処理学会論文誌: コンピュータビジョンとイメージメディア, Vol.42,No.SIG 6 (CVIM 2) (2001),pp.1-8」などの非特許文献にステレオ画像処理が開示されている。
Upon receiving the image data at time t and the image data at time t-1 from the
Note that stereo image processing is generally well-known computer processing, and therefore description thereof is omitted here.
For example, “Kenya Kanaya, Mishima et al., 3D reconstruction from two images with uncalibrated camera and its reliability evaluation, IPSJ Transactions on Computer Vision and Image Media, Vol. 42, No. SIG 6 (CVIM 2) (2001), pp. 1-8 "and the like, stereo image processing is disclosed.
地上高パタン生成部11は、カメラ2の撮影範囲の3次元形状を推定すると、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する。
即ち、地上高パタン生成部11は、撮影範囲の3次元形状から撮影範囲の各地点の地上高を特定し、各地点の地上高を例えば33×33の2次元アレイとして量子化する。
そして、地上高パタン生成部11は、図5に示すように、各地点が量子化後の地上高に比例する濃淡値を有する地上高パタンを生成する。
図5の例では、撮影範囲が(−16〜+16)×(−16〜+16)の範囲であり、33×33=1089の地点が表されている。各地点における各種の模様は、地上高の範囲を示している。
When the three-dimensional shape of the shooting range of the
That is, the ground height
Then, as shown in FIG. 5, the ground level
In the example of FIG. 5, the shooting range is a range of (−16 to +16) × (−16 to +16), and a point of 33 × 33 = 1089 is represented. Various patterns at each point indicate the range of ground clearance.
標高点データ取得部13は、計測装置3により計測されたカメラ2の位置と姿勢を基準にして、カメラ2の撮影範囲に概ね対応する地表面上の領域を特定する。
即ち、標高点データ取得部13は、図3の計測装置3の計測結果を参照して、カメラ2から出力された画像データの中央部分に相当する地表面上の座標である地表面基準座標(Gx,Gy)を計算する。
ここで、図6はカメラ2の概略位置を示す座標(x,y,z)と、対地表距離D(カメラ2から地上の目標地点までの距離)と、機体ベクトル(Hu,Hv,Hw)と、光軸ベクトル(Ou,Ov,Ow)と、地表面基準座標(Gx,Gy)との関係を示す説明図である。
機体ベクトル(Hu,Hv,Hw)と光軸ベクトル(Ou,Ov,Ow)を示すUVW座標系は、原点から北への向きをU軸、原点から天底への向きをW軸とする右手座標系である。
The elevation point
That is, the altitude point
Here, FIG. 6 shows coordinates (x, y, z) indicating the approximate position of the
The UVW coordinate system showing the airframe vector (Hu, Hv, Hw) and the optical axis vector (Ou, Ov, Ow) is a right hand with the U direction from the origin to the north and the W axis from the origin to the nadir. Coordinate system.
地表面基準座標(Gx,Gy)は、下記の式(1)(2)から計算される。
Gx=x+Ou×D (1)
Gy=y+Ov×D (2)
標高点データ取得部13は、地表面基準座標(Gx,Gy)を計算すると、その地表面基準座標(Gx,Gy)を中心として、例えば、東西南北にそれぞれ200mの範囲が、カメラ2の撮影範囲に概ね対応する地表面上の領域であると特定する。
The ground surface reference coordinates (Gx, Gy) are calculated from the following formulas (1) and (2).
Gx = x + Ou × D (1)
Gy = y + Ov × D (2)
When the altitude point
標高点データ取得部13は、カメラ2の撮影範囲に概ね対応する地表面上の領域を特定すると、地図データ記憶部12から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する。
即ち、標高点データ取得部13は、地図データ記憶部12から東西南北にそれぞれ200mの範囲の地図データを読み込み、図7に示すように、例えば、その地図データを10mの解像度で量子化し、量子化後の各地点が標高に比例する濃淡値を有する3次元点群(標高点データ)を生成する。
図7の例では、(−200〜+200)×(−200〜+200)の範囲に41×41=1681の地点が表されている。各地点における各種の模様は、標高の範囲を示している。
ここでは、説明の便宜上、地表面基準座標を原点(0,0,0)として、X軸とY軸がそれぞれ平面直角座標のX軸とY軸に平行な右手座標系中のデータとして、標高点データを正規化して用いる。
When the altitude point
That is, the elevation point
In the example of FIG. 7, 41 × 41 = 1681 points are represented in the range of (−200 to +200) × (−200 to +200). Various patterns at each point indicate the range of elevation.
Here, for convenience of explanation, the altitude is assumed as data in a right-handed coordinate system in which the ground surface reference coordinates are the origin (0, 0, 0), and the X axis and the Y axis are parallel to the X axis and the Y axis, respectively, of plane rectangular coordinates Point data is normalized and used.
透視投影変換部14は、標高点データ取得部13が標高点データを取得すると、パラメータ更新部15により更新される透視投影変換用のパラメータを用いて、その標高点データの透視投影変換を実施する。
下記の式(3)(4)は、透視投影変換部14による透視投影変換の式であり、式(3)(4)では、6つのパラメータ(透視投影変換用カメラのX座標,Y座標,Z座標と、標高点データのX軸回りの回転角,Y軸回りの回転角,Z軸回りの回転角とをパラメータとしている)によって透視投影変換を定義している。
なお、i番目の標高点データの座標を(xi,yi,zi)、透視投影変換用カメラのX値,Y値,Z値をそれぞれCx,Cy,Cz、標高点データのX軸回りの回転角,Y軸回りの回転角,Z軸回りの回転角をそれぞれω,φ,κとしている。
When the elevation point
Expressions (3) and (4) below are expressions of perspective projection conversion by the perspective
The coordinates of the i-th elevation point data are (x i , y i , z i ), and the X-value, Y-value, and Z-value of the perspective projection conversion camera are C x , C y , C z , and elevation point data, respectively. The rotation angle around the X axis, the rotation angle around the Y axis, and the rotation angle around the Z axis are ω, φ, and κ, respectively.
図8、図9及び図10は図7の標高点データに対する透視投影変換例を示す説明図である。
透視投影変換部14が使用する透視投影変換用のパラメータ初期値は、計測装置3の計測結果である図3の数値に基づいて与える。
即ち、カメラ2の概略位置(x,y,z)、カメラ2から目標地点までの距離D、機体ベクトル(Hu,Hv,Hw)、光軸ベクトル(Ou,Ov,Ow)を下記の式(5)〜(12)に代入することで、透視投影変換用のパラメータ(Cx,Cy,Cz),ω,φ,κを計算する(光軸ベクトルがUV平面の第一象限にある場合)。
8, 9 and 10 are explanatory diagrams showing an example of perspective projection conversion for the elevation point data of FIG.
The initial parameter for perspective projection conversion used by the perspective
That is, the approximate position (x, y, z) of the
パラメータ更新部15は、地上高パタン生成部11が地上高パタンを生成し、透視投影変換部14が標高点データの透視投影変換を行うと、その地上高パタンと透視投影変換後の標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換部14に設定する。
相関が最大になる透視投影変換用のパラメータの計算は、例えば、局所探索法などの公知のアルゴリズムによって相関評価を行うことにより、相関が最大になる透視投影変換用のパラメータを探索するものである。
即ち、パラメータ更新部15による透視投影変換部14に対するパラメータの設定と、透視投影変換部14による透視投影変換とが繰り返し実行されて、相関が最大になる透視投影変換用のパラメータが探索される。なお、局所探索法は、広く知られた方法であるため、ここでは説明を省略する。
図11は相関が最大になる透視投影変換用のパラメータを用いたときの標高点データの透視投影変換結果の一例を示す説明図である。
When the ground height
The calculation of the parameters for perspective projection conversion that maximizes the correlation is to search for the parameters for perspective projection conversion that maximizes the correlation, for example, by performing correlation evaluation using a known algorithm such as a local search method. .
That is, the parameter setting for the perspective
FIG. 11 is an explanatory diagram showing an example of the perspective projection conversion result of the elevation point data when the parameter for perspective projection conversion that maximizes the correlation is used.
標高点データ写像部16は、ユーザがマンマシンインタフェースを操作して、カメラ2により撮影された地上の画像データの任意座標を指定すると、透視投影変換部14により透視投影変換された標高点データの中から、その任意座標に対応する標高点データを特定する。
例えば、図4(A)の画像データにおいて、図12(A)に示すようなIX−IY座標上の点(153,165)は、透視投影変換結果である図12(B)のPX−PY座標上の点(−3,2)に対応しているので、点(−3,2)の標高点データを特定する。また、図7のX−Y座標上の点(−70,50)の標高点データに対応しているので、点(−70,50)の標高点データを特定する。
さらに、この標高点データは、図4において、建物IDが“1002”の建物に対応していることを辿ることができる。
標高点データ写像部16は、任意座標に対応する標高点データを特定すると、その標高点データをディスプレイ5上で明示する。
以上のプロセスにより、上空から撮影された画像データの任意座標に対応する建物の特定が可能となる。
When the user operates the man-machine interface and designates arbitrary coordinates of the ground image data photographed by the
For example, in the image data of FIG. 4A, the points (153, 165) on the IX-IY coordinates as shown in FIG. 12A are the PX-PY of FIG. Since it corresponds to the point (−3, 2) on the coordinates, the elevation point data of the point (−3, 2) is specified. Further, since it corresponds to the elevation point data of the point (−70, 50) on the XY coordinates in FIG. 7, the elevation point data of the point (−70, 50) is specified.
Further, this altitude point data can be traced to correspond to the building whose building ID is “1002” in FIG.
When the elevation point
With the above process, it is possible to specify a building corresponding to an arbitrary coordinate of image data taken from the sky.
以上で明らかなように、この実施の形態1によれば、カメラ2により撮影された地上の画像データからカメラ2の撮影範囲の3次元形状を推定し、その3次元形状から撮影範囲における各地点の地上高を示す地上高パタンを生成する地上高パタン生成部11と、計測装置3により計測されたカメラ2の概略の位置を基準にして、撮影範囲に略対応する地表面上の領域を特定して、地図データ記憶部12から上記地表面上の領域の地図データを読み込み、その地図データから各地点の標高を示す標高点データを取得する標高点データ取得部13と、透視投影変換用のパラメータを用いて、標高点データ取得部13により取得された標高点データの透視投影変換を行う透視投影変換部14とを設け、パラメータ更新部15が地上高パタン生成部11により生成された地上高パタンと透視投影変換部14により透視投影変換された標高点データとの相関が最大になる透視投影変換用のパラメータを計算して、そのパラメータを透視投影変換部14に設定するように構成したので、ヘリコプタ1に搭載されているカメラ2の正確な現在位置が判明しない場合でも、目標物の位置を正確に特定することができる効果を奏する。
As apparent from the above, according to the first embodiment, the three-dimensional shape of the photographing range of the
実施の形態2.
図13はこの発明の実施の形態2による位置特定装置(異動建物検出装置)を示す構成図であり、図において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
異動建物検出部17は透視投影変換部14により透視投影変換された標高点データの中から、地上高パタン生成部11により生成された地上高パタンに対応する標高点データを特定して、その標高点データが透視投影変換される前の標高点データ(標高点データ取得部13により取得された標高点データ)を特定し、透視投影変換される前の標高点データと地上高パタンを比較して、地上高が変化している建物を検出する処理を実施する。なお、異動建物検出部17は異動建物検出手段を構成している。
FIG. 13 is a block diagram showing a position specifying device (moving building detection device) according to
The transferred
次に動作について説明する。
異動建物検出部17は、上記実施の形態1と同様にして、地上高パタン生成部11が地上高パタンを生成し、透視投影変換部14が標高点データの透視投影変換を実施すると、透視投影変換部14により透視投影変換された標高点データの中から、地上高パタン生成部11により生成された地上高パタンに対応する標高点データを特定する。
例えば、標高点データ写像部16により特定された図4(A)の画像データにおける建物ID「1002」の透視投影変換後の標高点データは、図12(B)の点(−3,2)の標高点データであり、図12(B)の点(−3,2)の標高点データは、図5の地上高パタンRX−RY座標上の点(−3,2)に対応する。
したがって、この例では、図5の点(−3,2)の地上高パタンに対応する透視投影変換後の標高点データは、図12(B)の点(−3,2)の標高点データであると特定する。
Next, the operation will be described.
Similarly to the first embodiment, the transfer
For example, the elevation point data after perspective projection conversion of the building ID “1002” in the image data of FIG. 4A specified by the elevation point
Therefore, in this example, the elevation point data after perspective projection conversion corresponding to the ground height pattern of the point (−3, 2) in FIG. 5 is the elevation point data of the point (−3, 2) in FIG. To be identified.
異動建物検出部17は、地上高パタン生成部11により生成された地上高パタンに対応する標高点データを特定すると、その標高点データが透視投影変換される前の標高点データ(標高点データ取得部13により取得された図7の標高点データ)を特定する。
図7の標高点データには、図4(B)の地図データを構成するテーブルの情報が含まれているので、建物ID「1002」の建物の地上高として38mを取得することができる。
一方、図5の地上高パタンは、カメラ2の画像データから推定された各地点の地上高を示すので、建物ID「1002」の建物の推定地上高として、「35m以上」を得ることができる。
When the transferred
Since the elevation point data in FIG. 7 includes the information of the table constituting the map data in FIG. 4B, 38 m can be acquired as the ground height of the building with the building ID “1002”.
On the other hand, since the ground height pattern in FIG. 5 indicates the ground height at each point estimated from the image data of the
異動建物検出部17は、図5の地上高パタンから得られる建物ID「1002」の建物の推定地上高と、図7の標高点データから得られる建物ID「1002」の建物の地上高とを比較して、建物ID「1002」の建物の地上高が変化しているか否かを検出する。
ここでは、建物ID「1002」の建物の地上高が変化しているか否かを検出するものについて示したが、カメラ2の撮影範囲内の各建物について、地上高が変化しているか否かを検出することで、地上高が増加している建物や、減少している建物を検出することができる。
The transfer
Here, the detection of whether or not the ground height of the building with the building ID “1002” has changed has been shown, but whether or not the ground height has changed for each building within the shooting range of the
以上で明らかなように、この実施の形態2によれば、異動建物検出部17が、透視投影変換部14により透視投影変換された標高点データの中から、地上高パタン生成部11により生成された地上高パタンに対応する標高点データを特定して、その標高点データが透視投影変換される前の標高点データを特定し、透視投影変換される前の標高点データと地上高パタンを比較して、地上高が変化している建物を検出するように構成したので、ヘリコプタ1に搭載されているカメラ2の正確な現在位置が判明しない場合でも、地上高が変化している建物を正確に検出することができる効果を奏する。
As is apparent from the above, according to the second embodiment, the transferred
実施の形態3.
上記実施の形態1,2では、標高点データ取得部13が地図データから各地点の標高を示す標高点データを取得するものについて示したが、地図データに含まれている標高点データのうち、重要度が所定値以上の標高点データだけを取得するようにしてもよい。
具体的には、以下の通りである。
In
Specifically, it is as follows.
標高点データ取得部13により取得された標高点データを示している図7の例では、標高点の数が41×41=1681点である。
透視投影変換部14は、地上高が高い建物順に重要度が定義されており、例えば、重要度が所定値以上である標高点データが、標高が15m以上の標高点データであるとすれば、地図データに含まれている標高点データのうち、標高が15m以上の標高点データだけを取得するようにする。
図14は標高が15m以上の標高点データの一例を示す説明図である。
図14の例では、標高点の数が530点に減少している。
In the example of FIG. 7 showing the elevation point data acquired by the elevation point
The perspective
FIG. 14 is an explanatory diagram showing an example of altitude point data having an altitude of 15 m or more.
In the example of FIG. 14, the number of elevation points is reduced to 530 points.
以上で明らかなように、この実施の形態3によれば、地図データに含まれている標高点データのうち、重要度が所定値以上の標高点データだけを取得するように構成したので、透視投影変換部14における透視投影変換の処理量が減少し、その結果、位置の特定や建物の検出を高速に行うことができる効果を奏する。
As apparent from the above, according to the third embodiment, the elevation point data included in the map data is configured to acquire only the elevation point data having an importance level equal to or higher than the predetermined value. The processing amount of the perspective projection conversion in the
実施の形態4.
以下、上記実施の形態1〜3の変形例について説明する。
<変形例1>
上記実施の形態1では、カメラ2の位置と姿勢を特定する情報として、計測装置3が緯度・経度・高度・ロール角・ピッチ角・ヨー角を計測するものについて示したが、さらに、カメラ2を固定している雲台の取付角(パン角・チルト角)を計測するようにしてもよい。
これにより、カメラ2の撮影方向が固定されておらず、撮影方向が変化する場合にも適用することができる。
Hereinafter, modified examples of the first to third embodiments will be described.
<
In the first embodiment, as information for specifying the position and orientation of the
Thereby, the shooting direction of the
<変形例2>
上記実施の形態1では、標高点データ取得部13が地図データを10mの解像度で量子化するものについて示したが、量子化の解像度は10mに限るものではなく、例えば、5mや1mなどの細かい解像度で量子化するようにしてもよい。
このように、細かい解像度で量子化すれば、10mの解像度では、情報が欠落して位置の特定が困難であった小規模建物についても、位置を特定することができるようになる。
<
In the first embodiment, the altitude point
As described above, if quantization is performed with a fine resolution, it is possible to specify the position of a small-scale building in which it is difficult to specify a position due to lack of information at a resolution of 10 m.
<変形例3>
上記実施の形態1では、透視投影変換部14が、透視投影変換用の6つのパラメータとして、透視投影変換用カメラのX座標,Y座標,Z座標と、標高点データのX軸回りの回転角,Y軸回りの回転角,Z軸回りの回転角とを用いるものについて示したが、透視投影変換用の6つのパラメータとして、透視投影変換用カメラのX座標,Y座標,Z座標と、ロール角,ピッチ角,ヨー角とを用いるようにしてもよい。
<
In the first embodiment, the perspective
<変形例4>
上記実施の形態1では、計測装置3が内蔵するレーザーレンジファインダを用いて、カメラ2から地上の目標地点までの距離Dを計測するものについて示したが、レーザーレンジファインダを用いずに、カメラ2により撮影された画像データを参照して、カメラ2から地上の目標地点までの距離Dを計算するようにしてもよい。
図15はカメラ2により撮影された画像データと計測装置3の計測データから、カメラ2から地上の目標地点までの距離Dを計算する方法を示す説明図である。
<
In the first embodiment, the laser range finder built in the
FIG. 15 is an explanatory diagram showing a method for calculating the distance D from the
距離Dの概算値は、下記の式(13)によって計算される。
ただし、(Xt,Yt,Zt)は時刻tにおけるカメラ2の座標、(Xt-1,Yt-1,Zt-1)は時刻t−1におけるカメラ2の座標、mは地表面上の地点Aのカメラ投影面(モデル)上の時刻t−1から時刻tまでの間の移動距離、fはカメラ2の焦点距離、(ex,ey,ez)はカメラ2の光軸ベクトル、φはカメラ2の移動ベクトルと光軸ベクトルのなす角、Mはカメラ2の時刻t−1から時刻tまでの間の移動距離である。
なお、地点Aは、時刻tに撮影された画像データにおいて、画像中央付近にある構造物の地点である。
However, (X t , Y t , Z t ) are the coordinates of the
Note that the point A is a point of a structure near the center of the image in the image data taken at time t.
<変形例4>
上記実施の形態3では、標高点データの重要度として、地上高が高い建物順に重要度が定義されているものについて示したが、標高点データの重要度として、建物の建築面積、耐震強度、上部構造物の複雑さ又は単純さなどを定義するようにしてもよい。
<
In
1 ヘリコプタ、2 カメラ、3 計測装置、4 演算装置、11 地上高パタン生成部(地上高パタン生成手段)、12 地図データ記憶部(地図データ記憶手段)、13 標高点データ取得部(標高点データ取得手段)、14 透視投影変換部(透視投影変換手段)、15 パラメータ更新部(パラメータ更新手段)、16 標高点データ写像部(標高点データ写像手段)、17 異動建物検出部(異動建物検出手段)。
DESCRIPTION OF
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008276845A JP5230354B2 (en) | 2008-10-28 | 2008-10-28 | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008276845A JP5230354B2 (en) | 2008-10-28 | 2008-10-28 | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010107224A JP2010107224A (en) | 2010-05-13 |
JP5230354B2 true JP5230354B2 (en) | 2013-07-10 |
Family
ID=42296823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008276845A Active JP5230354B2 (en) | 2008-10-28 | 2008-10-28 | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5230354B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107057303B (en) * | 2017-06-13 | 2019-01-11 | 北京化工大学 | A kind of blending and modifying aromatic polyester microcellular foam material and preparation method thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5566353B2 (en) * | 2011-09-02 | 2014-08-06 | 株式会社パスコ | Data analysis apparatus, data analysis method, and program |
WO2023047799A1 (en) * | 2021-09-22 | 2023-03-30 | 富士フイルム株式会社 | Image processing device, image processing method, and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331787A (en) * | 2000-05-19 | 2001-11-30 | Toyota Central Res & Dev Lab Inc | Road shape estimating device |
JP3465047B2 (en) * | 2000-11-16 | 2003-11-10 | 独立行政法人航空宇宙技術研究所 | A stereoscopic system that detects flat areas during vertical descent |
JP2003148916A (en) * | 2001-11-15 | 2003-05-21 | Furukawa Electric Co Ltd:The | Method and device for displacement measurement of steel tower and storage medium used for the displacement measurement |
JP3759712B2 (en) * | 2001-11-22 | 2006-03-29 | 日本電信電話株式会社 | Camera parameter estimation method, apparatus, program, and recording medium |
JP4339289B2 (en) * | 2005-07-28 | 2009-10-07 | Necシステムテクノロジー株式会社 | Change determination device, change determination method, and change determination program |
JP4896762B2 (en) * | 2007-02-16 | 2012-03-14 | 三菱電機株式会社 | Image processing apparatus and image processing program |
-
2008
- 2008-10-28 JP JP2008276845A patent/JP5230354B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107057303B (en) * | 2017-06-13 | 2019-01-11 | 北京化工大学 | A kind of blending and modifying aromatic polyester microcellular foam material and preparation method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2010107224A (en) | 2010-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113379822B (en) | Method for acquiring 3D information of target object based on pose information of acquisition equipment | |
US9224208B2 (en) | Image-based surface tracking | |
JP6002126B2 (en) | Method and apparatus for image-based positioning | |
US9001203B2 (en) | System and program for generating integrated database of imaged map | |
JP6658001B2 (en) | Position estimation device, program, position estimation method | |
US20040176925A1 (en) | Position/orientation measurement method, and position/orientation measurement apparatus | |
KR101715780B1 (en) | Voxel Map generator And Method Thereof | |
JP5762131B2 (en) | CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM | |
KR20130138247A (en) | Rapid 3d modeling | |
JP4619962B2 (en) | Road marking measurement system, white line model measurement system, and white line model measurement device | |
JP2013539872A (en) | Online reference generation and tracking in multi-user augmented reality | |
WO2020031950A1 (en) | Measurement calibration device, measurement calibration method, and program | |
JP6589636B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
Chen et al. | Color and depth data fusion using an RGB‐D sensor for inexpensive and contactless dynamic displacement‐field measurement | |
JP5384316B2 (en) | Displacement measuring device, displacement measuring method, and displacement measuring program | |
JP4077385B2 (en) | Global coordinate acquisition device using image processing | |
KR20180076441A (en) | Method and apparatus for detecting object using adaptive roi and classifier | |
CN115371673A (en) | Binocular camera target positioning method based on Bundle Adjustment in unknown environment | |
JP5230354B2 (en) | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE | |
JP2018173882A (en) | Information processing device, method, and program | |
JP4132068B2 (en) | Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus | |
JP2010009236A (en) | Plane area estimation device and program | |
JP5409451B2 (en) | 3D change detector | |
CN114429515A (en) | Point cloud map construction method, device and equipment | |
CN111133274B (en) | Method for estimating the movement of an object moving in an environment and a magnetic field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130319 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5230354 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |