JP2019095876A - Three-dimensional point group display device, three-dimensional point group display system, method for displaying three-dimensional point group, three-dimensional point group display program, and recording medium - Google Patents
Three-dimensional point group display device, three-dimensional point group display system, method for displaying three-dimensional point group, three-dimensional point group display program, and recording medium Download PDFInfo
- Publication number
- JP2019095876A JP2019095876A JP2017222447A JP2017222447A JP2019095876A JP 2019095876 A JP2019095876 A JP 2019095876A JP 2017222447 A JP2017222447 A JP 2017222447A JP 2017222447 A JP2017222447 A JP 2017222447A JP 2019095876 A JP2019095876 A JP 2019095876A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional point
- point cloud
- image data
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000012545 processing Methods 0.000 claims abstract description 115
- 238000000605 extraction Methods 0.000 claims description 84
- 238000012544 monitoring process Methods 0.000 claims description 43
- 238000003384 imaging method Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 11
- 238000010586 diagram Methods 0.000 abstract description 21
- 230000006870 function Effects 0.000 description 12
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 239000002131 composite material Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010791 quenching Methods 0.000 description 1
- 230000000171 quenching effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】3次元点群データと画像データのマッチングを行う上で、3次元点群データと画像データとのマッチングを確実に行わせる3次元点群表示装置を得ることを目的とする。【解決手段】3次元点群表示装置1は、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部6と、を備えている。【選択図】 図1PROBLEM TO BE SOLVED: To obtain a 3D point cloud display device for surely performing matching between 3D point cloud data and image data in matching 3D point cloud data and image data. SOLUTION: A three-dimensional point cloud display device 1 has a data acquisition unit 2 for acquiring image data 22 obtained by photographing a monitored object with a camera 21, and a range of the monitored objects captured by the camera 21. User input to the display processing unit 3 that performs processing to display the 3D point cloud data 31 obtained by measuring including at least a part on the screen 4a and the 3D point cloud data 31 displayed on the screen 4b. A calculation range setting unit 6 for setting a calculation range is provided. [Selection diagram] Fig. 1
Description
この発明は、3次元点群表示装置の表示画面上に、カメラで撮影された画像を半自動でマッチングさせて表示させる、3次元点群表示装置、3次元点群表示システム、3次元点群表示方法、3次元点群表示プログラムおよび記録媒体に関するものである。 The present invention relates to a three-dimensional point cloud display device, a three-dimensional point cloud display system, a three-dimensional point cloud display, and a method of semi-automatically matching and displaying an image captured by a camera on a display screen of the three-dimensional point cloud display device The present invention relates to a method, a three-dimensional point cloud display program, and a recording medium.
河川等の広域インフラ監視を行う場合、レーザスキャンにより得られた地形や構造物の3次元点群データを3次元点群表示装置に表示させることがある。そして、3次元点群表示装置の画面上にカメラで撮像された動画や静止画といった画像データを重畳表示することで、画像によるリアルタイム状態と周囲の環境を合わせて確認でき、河川の氾濫状況などを正確に把握することが可能となる。この機能を実現するためには、3次元点群データと画像データのマッチングを行う必要がある。 When wide area infrastructure monitoring such as rivers is performed, three-dimensional point cloud data of terrain or structure obtained by laser scanning may be displayed on a three-dimensional point cloud display device. Then, by superimposing and displaying image data such as a moving image or a still image captured by a camera on the screen of the three-dimensional point cloud display device, it is possible to check the real time state by the image and the surrounding environment. It becomes possible to grasp exactly. In order to realize this function, it is necessary to match three-dimensional point cloud data with image data.
従来、3次元点群データと画像データのマッチングを取るために、周辺の実画像を撮影するカメラ、GPS装置から取得したモバイル端末の概略位置の周辺の3次元座標データをサーバから取得し、この取得した3次元座標データと、上記カメラによって撮影された現在の実画像をオルソ補正したものとについて、それぞれ特徴情報を抽出し、この抽出した特徴情報同士をマッチングさせていた(特許文献1)。 Conventionally, in order to obtain matching between 3D point group data and image data, 3D coordinate data of the peripheral position of the mobile terminal acquired from a camera or a camera for capturing a real image of the peripheral is obtained from the server, Feature information is extracted for each of the acquired three-dimensional coordinate data and an image obtained by ortho-correcting the current real image captured by the camera, and the extracted feature information is matched (Patent Document 1).
特許文献1は、モバイル端末での拡張現実を用いて、現実空間の映像に設備情報を重畳表示することを想定したものであり、モバイル端末のユーザは設備に近くにいることが多い。そのため、GPSから現在の概略位置を取得した後、概略位置を中心に半径20メートルの領域を含む3次元地図情報の要求を、サーバの3次元地図情報送信部に送信するように構成されていた。
しかしながら、広域インフラ監視を行う場合、カメラの周囲にカメラで撮影している画像の対象が存在するとは限らず、特許文献1のように現在の概略位置のGPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせようとしてもマッチングできない可能性があった。
However, when performing wide-area infrastructure monitoring, it is not limited to the fact that there is an object of an image captured by a camera around the camera, and three-dimensional surroundings based on GPS data of the current approximate position as in
本発明は上記のような課題を解決するためになされたものであり、3次元点群データと画像データのマッチングを行う上で、3次元点群データと画像データとのマッチングを確実に行わせる3次元点群表示装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and in performing matching between three-dimensional point cloud data and image data, matching between three-dimensional point cloud data and image data is reliably performed. The object is to obtain a three-dimensional point cloud display device.
本発明に係る3次元点群表示装置は、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、演算範囲設定部の設定に基づき3次元点群データから選択された選択データとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出部と、特徴情報抽出部による抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング部と、マッチング部のマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理部と、を備えている。 A three-dimensional point cloud display device according to the present invention includes a data acquisition unit that acquires image data obtained by photographing a monitoring target with a camera, and at least a part of a range photographed by the camera among monitoring targets. The display processing unit performs processing to display the 3D point cloud data obtained by measurement on the screen, and the operation range setting to set the operation range by user input to the 3D point cloud data displayed on the screen A feature information extraction unit for extracting feature information of selected data selected from 3D point cloud data based on the settings of the calculation range setting unit and the image data obtained by the data obtaining unit; 3 based on the matching result of the matching unit that matches the feature information of the three-dimensional point cloud data and the feature information of the image data based on the result of the extraction by And a, a superimposed display processing unit that superimposes the display image data on the Mototengun data.
本発明に係る3次元点群表示装置は、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得部と、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、画面に表示される3次元点群データに対して、画像データに含まれる属性情報により演算範囲の設定を行う演算範囲設定部と、演算範囲設定部の設定に基づき3次元点群データから選択された選択データとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出部と、特徴情報抽出部による抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング部と、マッチング部のマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理部と、を備えている。 A three-dimensional point cloud display device according to the present invention includes a data acquisition unit that acquires image data obtained by photographing a monitoring target with a camera, and at least a part of a range photographed by the camera among monitoring targets. For the display processing unit that displays the 3D point cloud data obtained by measurement on the screen and the 3D point cloud data displayed on the screen, setting of the operation range based on the attribute information included in the image data Operation range setting unit for performing the process, and a feature information extraction unit for extracting each feature information of the selected data selected from the three-dimensional point cloud data based on the settings of the operation range setting unit and the image data acquired by the data acquisition unit Based on the result of extraction by the feature information extraction unit, the matching unit matches the feature information of the three-dimensional point cloud data and the feature information of the image data, and the matching result of the matching unit Hazuki, and a, a superimposed display processing unit that superimposes the display image data on the 3D point group data in the screen.
また、本発明に係る3次元点群表示システムは、監視対象を撮影するカメラと、カメラにより撮影して得られた画像データを取得するデータ取得部と、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、演算範囲設定部の設定に基づき3次元点群データから選択された選択データとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出部と、特徴情報抽出部による抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング部と、マッチング部のマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理部と、を備えている。 Further, in the 3D point cloud display system according to the present invention, a camera for shooting a monitoring target, a data acquisition unit for obtaining image data obtained by shooting with the camera, and a camera among the monitoring targets. A display processing unit that performs processing for displaying on a screen three-dimensional point cloud data obtained by measurement including at least a part of the range, and calculation range by user input for three-dimensional point cloud data displayed on the screen Feature information extraction for extracting each feature information of the selected data selected from the 3D point cloud data based on the setting of the calculation range setting unit for setting the data and the calculation range setting unit and the data acquisition unit A matching unit that matches feature information of the three-dimensional point cloud data with feature information of the image data based on the result of the extraction by the unit and the feature information extraction unit; The basis of the results, and a, a superimposed display processing unit that superimposes the display image data on the 3D point group data in the screen.
また本発明に係る3次元点群表示方法は、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、演算範囲設定ステップでの設定に基づき3次元点群データから選択された選択データとデータ取得ステップにより取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、特徴情報抽出処理ステップによる抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、マッチング処理ステップでのマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理スを有している。 In the three-dimensional point cloud display method according to the present invention, a data acquisition step of acquiring image data obtained by photographing a monitoring target with a camera, and at least a part of a range photographed by the camera among monitoring targets Display processing step to display 3D point group data obtained by including and obtained on the screen, and calculation range to set calculation range by user input to 3D point group data displayed on the screen A setting step, a feature information extraction processing step of extracting feature information of each of selected data selected from 3D point cloud data based on the setting in the calculation range setting step and the image data acquired by the data acquisition step; Matching that matches feature information of 3D point cloud data and feature information of image data based on the result of extraction by the information extraction processing step And management step, on the basis of the matching result of the matching processing step, and a superimposed display process scan to superimpose image data on the 3D point group data in the screen.
また、本発明に係る3次元点群表示プログラムは、監視対象をカメラにより撮影して得られた画像データを取得するデータ取得ステップと、監視対象のうち、カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、画面に表示される3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、演算範囲設定ステップでの設定に基づき3次元点群データから選択された選択データとデータ取得ステップにより取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、特徴情報抽出処理ステップによる抽出の結果に基づき、3次元点群データの特徴情報と画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、マッチング処理ステップのマッチングの結果に基づき、画面内で3次元点群データの上に画像データを重畳表示させる重畳表示処理ステップと、をコンピュータに実行させる。 Further, a three-dimensional point cloud display program according to the present invention includes a data acquisition step of acquiring image data obtained by photographing a monitoring target with a camera, and at least a part of a range photographed by the camera among monitoring targets. And a display processing step for displaying the 3D point group data obtained by measurement on the screen, and an operation for setting an operation range by user input to the 3D point group data displayed on the screen A range setting step, a feature information extraction processing step of extracting feature information of each of selected data selected from 3D point cloud data based on the settings in the calculation range setting step and image data acquired by the data acquisition step; Based on the result of extraction by the feature information extraction processing step, the feature information of the three-dimensional point cloud data and the feature information of the image data are matched. And quenching process step, on the basis of the result of the matching matching processing steps to execute the superimposing display processing step of displayed superimposed image data on the 3D point group data in the screen, to the computer.
また、本発明に係る記録媒体は、上記3次元点群表示プログラムが記録されている。 The recording medium according to the present invention has the above-described three-dimensional point cloud display program recorded therein.
また、本発明に係る3次元点群表示装置によれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point cloud display device of the present invention, it becomes possible to reliably perform matching between three-dimensional point cloud data and image data.
また、本発明に係る3次元点群表示システムによれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point cloud display system according to the present invention, it becomes possible to reliably perform matching between three-dimensional point group data and image data.
また、本発明に係る3次元点群表示方法によれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point group display method according to the present invention, it becomes possible to reliably perform matching between three-dimensional point group data and image data.
また、本発明に係る3次元点群表示プログラムによれば、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Further, according to the three-dimensional point group display program according to the present invention, it becomes possible to reliably perform matching between three-dimensional point group data and image data.
また、本発明に係る記録媒体によれば、上記プログラムを記録しており、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。 Furthermore, according to the recording medium of the present invention, the above program is recorded, and it becomes possible to reliably perform matching between 3D point cloud data and image data.
以下に、本発明の実施の形態に係る3次元点群表示装置、3次元点群表示システム装置、3次元点群表示方法について図面に基づいて詳細に説明する。なお、各実施の形態により本発明が限定されるものではなく、各実施の形態を組み合わせたり適宜変更したりすることができる。また、各実施の形態で同等の構成については、同一の符号を付してその説明を省略などする。 Hereinafter, a three-dimensional point cloud display device, a three-dimensional point cloud display system device, and a three-dimensional point cloud display method according to an embodiment of the present invention will be described in detail based on the drawings. The present invention is not limited by the embodiments, and the embodiments can be combined or appropriately changed. The same reference numerals are given to the same configuration in each embodiment, and the description thereof will be omitted.
実施の形態1.
本発明の実施の形態1について、図1から図8を用いて説明する。実施の形態1の概要は、画面に表示される3次元点群データに対してマッチング作業を行う演算範囲の設定を受け付ける演算範囲設定部を設けたことである。
図1は実施の形態1に係る3次元点群表示システム40の構成を示すブロック図である。3次元点群表示システム40は、3次元点群表示装置1と、カメラユニット20と、記憶部30とを含んでいる。記憶部は3次元点群表示装置1とは別の構成として開示しているが、3次元点群表示装置1自体に十分な記録保存領域があれば、3次元点群表示装置1の中に記憶部30を設けてもよい。
FIG. 1 is a block diagram showing the configuration of a three-dimensional point
3次元点群表示装置1は、3次元点群表示装置1の各種機能を実現する3次元点群表示プログラムとしてのプログラムP(後に詳述する)と、カメラユニット20から不図示のネットワーク等を介して送信される画像データ22および記憶部30から呼び出される3次元点群データ31を取得するデータ取得部2と、データ取得部2が取得した画像データ22、3次元点群データ31および後述の演算範囲設定部6による演算範囲の設定に関するデータをデータ取得部2から取り込んでディスプレイなどの表示器4に表示する処理を行う表示処理部3と、マウス、トラックボール、キーボードなどの外部の接続機器である入力部7からの入力を受け付ける入力受付部5と、を含んでいる。
The three-dimensional point
また、3次元点群表示装置1は、各種演算を行う演算部8を備えている。演算部8は、データ取得部2で取得した画像データ22のカメラ21からの視点と3次元点群データ31の視点を対応させる視点対応部9と、画像データ22および3次元点群データ31を取り込んでエッジ情報などに関する各々の特徴情報を抽出する特徴情報抽出部10と、抽出した各々の特徴情報に基づき画像データ22および3次元点群データ31に関するマッチングを行うマッチング部11と、を含んでいる。
The three-dimensional point
データ取得部2は、表示器4に表示された不図示のデータ範囲取得画面での入力部7による設定に関する入力を入力受付部5から受信した場合、記憶部30と通信を行い、表示器4に表示させる3次元点群データ31のデータ範囲を絞ってデータ取得を行うように構成される。例えば、図3において説明を行う監視対象についての選択をしたり、3次元点群データ31の取得時期を選択したり、といったことが想定される。また、データ取得部2は、演算部8における演算範囲を設定する演算範囲設定部6を含んでいる。
The data acquisition unit 2 communicates with the
また、表示処理部3は、マッチング部11によるマッチングの結果に基づき、3次元点群データ31の上に画像データ22を位置合わせして重畳表示する重畳表示処理部12を有している。
In addition, the
特徴抽出部10と、マッチング部11および重畳表示処理部12の各々の処理をするタイミングについて説明する。ある時点での画像データ22を利用して行う特徴抽出部10に特徴抽出の作業および抽出された特徴情報を利用してのマッチング部11によるマッチングの作業は、少なくとも3次元点群表示システ40を構築する際に、初期設定として行うだけで十分である。3次元点群表示システム40を運用する段階では初期設定として行ったマッチング部11のマッチングの結果を利用して、重畳表示処理部12が、データ取得部2から都度取得される画像データ22を3次元点群表示データ31の各点と対応する位置に重畳表示すればよい。
The timing of processing of each of the
カメラユニット20は、河川などの環境や工場などの設備といった監視対象を撮影するカメラ21と、カメラ21により撮影された画像データ22を3次元点群表示装置1のデータ取得部2へ送信するデータ送信部23とを含んでいる。
The
なお、カメラ21により撮影される画像データ22は静止画であっても動画であってもよい。ただし特徴抽出部10に特徴抽出の作業および抽出された特徴情報を利用してのマッチング部11によるマッチングの作業は、画像データ22が動画の場合には、予め定められた期間に撮影された画像データ22としての動画データの平均値を利用したり、予め定められた期間における任意の時点での1つの画像を利用したりすることが好ましい。すなわち、リアルタイムに変化する動画に基づいてマッチングを行おうとすると、特徴抽出部10に特徴抽出の作業および抽出された特徴情報を利用してのマッチング部11によるマッチングの作業を行おうとすると、計算量が膨大になる可能性があるためである。
The
記憶部30は、レーザスキャナ24(図3を参照)などにより予め監視対象やその周囲をスキャンして取得した複数の点を3次元点群データ31として格納している。3次元点群データ31は、たとえば、X軸、Y軸、Z軸により構成されるワールド座標系の空間における点である。なお、3次元点群データ31は、不図示のGPSデータなども利用して、各点が、絶対座標を保有してもよい。
The
図2は、3次元点群表示装置1のハードウェア構成例を示す図である。図2に示すように、3次元点群表示装置1は、プロセッサ100と、メモリ101と、インタフェース回路102とを備えている。プロセッサ100、メモリ101、インタフェース回路102は、システムバス103によりそれぞれ通信可能に接続されている。
FIG. 2 is a diagram showing an example of the hardware configuration of the three-dimensional point
プロセッサ100は、記録媒体としてのメモリ101に格納されたプログラムPを呼び出すことで、コンピュータとしての3次元点群表示装置1aにおける表示処理部3の機能を実現したり、重畳表示処理部12の機能を実現したり、演算部8における特徴情報抽出部10の機能を実現したり、マッチング部11の機能を実現したり、その他のデータ処理の機能を実現したりする。
The
さらにプロセッサ100は、インタフェース回路102を介して接続される入力部7においてユーザが入力を行った場合、メモリ101における入力受付部5が入力を受け付けることで、記憶部30の3次元点群データ31のデータをデータ処理(抽出、加工、変換等)することが可能である。
Furthermore, when the user performs an input in the input unit 7 connected via the
なお、プロセッサ100は、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processer)、およびシステムLSI(Large Scale Integration)のうち1以上を含む。メモリ101は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Enable Program Read Only Memory)をはじめとした不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち1以上を含んでいる。また、本ハードウェアの構成は、実施の形態1について説明したが、本発明の各実施の形態も同様のハードウェア構成を採用することが可能である。
The
図3は、監視対象として河川25を想定した場合のカメラ21とレーザスキャナ24の配置の例を示す図である。カメラ21とレーザスキャナ24は河川25見渡せる高台26に設置されている。高台26は川岸125に対して河川25よりも離れた位置に位置する。
FIG. 3 is a view showing an example of the arrangement of the
カメラ21により河川25を撮影することにより、水位の変化や河川氾濫の可能性などをリアルタイムに監視することが可能となる。カメラ21は、監視対象である河川25以外に、周囲の環境や構造物を合わせて撮影することがある。例えば、カメラ21の撮影方向を撮影方向121aとし、河川25の近辺に存在する構造物としての倉庫27や住宅28を撮影対象として収める撮影フレーム29とすることで、河川25の状況を分かりやすく把握できる。
By photographing the
一方、レーザスキャナ24は、スキャン部が可動式となっており、通常、カメラ21よりも広いエリアをスキャンして、3次元点群データ31として記憶部30に格納される。しかしながらこのような構成に限られず、レーザスキャナ24は、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して3次元点群データ31を得るように設けられればよい。すなわち、監視対象に対して、画像データ22と3次元点群データ31とのデータの範囲が重なる部分を有していればよい。
On the other hand, the scanning unit of the
なお、撮影方向121aとは、例えば、撮影フレーム29の中心とカメラ21とを結ぶ方向のことを示す。カメラ21の撮影方向121aは不図示の方位センサ等により取得され、カメラ21の撮影位置121bは不図示のGPSデータ等により取得される。撮影方向121aと撮影位置121bに関する情報は、たとえば画像データ22に埋め込まれて記録されている。
The
なお、マッチング部11によるマッチングを行うに当たって、カメラ21による撮影時期と、レーザスキャナ24によるスキャンの時期は同じ時期か近い時期の方が、画像データ22と3次元点群データとの相違が少ないために演算部8による各種の演算に好適である。しかしながら、両者のデータの時期が離れていても演算部8による各種の演算を行うことは可能である。
In addition, when performing matching by the matching
図4は、3次元点群表示装置1の動作を示すフローチャート図である。図1、図5から図8も適宜参照して説明を行う。まず、図1に示すように、データ取得部2は、画像データ22と3次元点群データ31とを取得する(図4のデータ取得ステップST1)。なお、以下の各ステップの説明において、説明を簡略化するために、単にステップST1、ステップST2などとステップの名称を省略した形で記載することがあることを述べておく。
FIG. 4 is a flowchart showing the operation of the three-dimensional point
図5に示すように、表示処理部3は、データ取得部2から受け取った画像データ22と3次元点群データ31とを処理して、画像データ22と3次元点群データ31を表示器4に表示する(表示処理ステップST2)。ワールド座標系である3次元点群データ31は、スクリーン座標系として視点を切り替え可能に表示器4に表示される。次に、ユーザが入力部7を用いて入力を行い、入力受付部5を介して視点対応部9によりカメラ21の座標(位置)を表示器4の画面4a(図5)のように設定する(視点対応処理ステップST3)。
As shown in FIG. 5, the
その後、カメラ21の視点と3次元点群データ31の視点が一致した画面4b(図6)を表示される(視点対応画面表示処理ステップST4)。視点対応処理ステップST3および視点対応画面表示処理ステップST4の内容を図5および図6を用いて詳細に説明する。
Thereafter, the
図5は、画像データ22と、3次元点群データ31を表示する表示器4における画面4aの内容を示す図である。監視対象となった河川25やその周囲の構造物と、3次元点群データ31との関係性を説明する。画面4aでは、河川25は点群河川25a、川岸125は点群川岸125a、河川25と川岸125の境界を第1の点群境界25a1、第2の点群境界25a2、倉庫27は点群倉庫27a、住宅28は点群住宅28a、カメラ21は点群カメラ21aとして3次元点群データ31により表示されている。
FIG. 5 is a view showing the contents of the
監視対象となった河川25やその周囲の構造物と、画像データ22との関係性を説明する。表示器4は、画面4aにおいて、角部の表示領域に画像データ22の内容が画像データ表示領域41(画像フレーム)を作成し、3次元点群データ31と画像データ22とを両方合わせて確認できる。後に詳述する演算範囲設定部6による演算範囲の設定を行う作業が効率的に行える効果を奏する。なお、画像データ表示領域41に表示される画像データ22は、リアルタイムに映し出されるものであってもよいし、ある時点で撮影されたものであってもよい。
The relationship between the
画像データ表示領域41では、河川25は画像河川25b、河川25の水の色合い起伏などが画像河川水25b1、倉庫27は画像倉庫27b、住宅28は画像住宅28bとして画像データ22により表示されている。
In the image
なお、画像データ表示領域41は画面4aの角部(たとえば画面4aの対角の端部領域)に配置されることで、画面4aにおける3次元点群データ31の表示領域での視認性の低下を抑制でき、画像データ22と3次元点群データ31との両者の状態を効率よく把握することが可能である。ただし、画像データ表示領域41を設けないで、画面4aには3次元点群データ31だけを表示し、画像データ22は不図示の別の画面に表示するようにしてもよい。
The image
ところで、3次元点群データ31と画像データ22とのマッチング部11によるマッチング作業を行う上では、互いの視点が一致した状態で特徴情報抽出部10による特徴情報の抽出が好ましい。すなわち、互いの視点がずれていると、特徴情報抽出部10により抽出された3次元点群データ31の特徴情報と画像データ22の特徴情報とが、アスペクト比が異なった状態で抽出されてしまい、マッチング部11によるマッチング作業が精度よく実行されない恐れがあるためである。ただし、必ずしも視点の一致を行わなくても、ある程度マッチング作業を行うことは可能である。
By the way, in order to perform a matching operation by the matching
そこで、3次元点群データ31と画像データ22との視点を合わせるために、例えば、画面4aにおいて、入力部7としてのマウスによるカーソル29を点群カメラ21aの位置に合わせると、点群カメラ21aの座標が表示される(視点対応処理ステップST3)。そして、カメラの視点にビューワの視点を合わせるかどうかのメッセージ42が表示される。そして、Yesのチェックボックスでの「Yes」の選択を行う(視点対応処理ステップST3)。その後、図6に示すように3次元点群データ31と画像データ22との視点が一致するように表示器4は画面4bを表示する(図4の視点対応画面表示処理ステップST4)。
Therefore, for example, when the
なお、画面4aに、点群カメラ21aが存在しない場合がある。その場合には、たとえば、カメラ21を設置した際にカメラの設置位置の絶対座標を記録して管理している不図示の設備管理データベースを参照する。そして、参照した絶対座標のデータを入力部7で入力し、点群データ31の絶対座標と対応させるなどすることで視点対応処理ステップST3を実行してもよい。
The
図6は、演算範囲設定部6として機能するメッセージ入力画面44の構成を示す図である。演算範囲設定部6により、3次元点群データ31における演算を行う演算範囲の設定を行う(図4の演算範囲設定テップST5)。すなわち、演算範囲設定部6による演算範囲の設定基づき3次元点群データ31から選択された選択データ31aに対して、演算部8は演算を行う。
FIG. 6 is a diagram showing the configuration of the
なお、演算範囲設定部6の設定によりマッチング部11によるマッチング作業の範囲のみを設定し特徴情報抽出部10による特徴情報の抽出は3次元点群データ31の全領域で行ってもよいし、特徴情報抽出部10による特徴情報の抽出およびマッチング部11によるマッチング作業の両者の範囲を設定するようにしてもよい。すなわち、少なくとも、3次元点群データ31におけるマッチング部11のマッチング作業の範囲が設定されていればよい。
In addition, only the range of the matching operation by the matching
メッセージ入力画面44に対する具体的な入力方法について説明する。画像データ22と3次元点群データ31とをマッチングさせるためには、画像データ22全体が包含される3次元点群データ31の領域を設定することが好ましい。しかしながら3次元点群データ31において広い領域を演算範囲として設定すると演算部8による演算量が多くなってしまう。そこで、画面フレーム41と画面4bに共通して表示される構造物などを目印に、その周囲の範囲を演算の対象とする演算範囲として設定することが好ましい。
A specific input method for the
例えば、倉庫27(点群倉庫27a、画像倉庫27b)が共通して存在する目印とした場合、点群倉庫27aにカーソル29を合わせて点群倉庫27aの座標(X1,Y1,Z1)を表示させ、その座標の情報を基に、メッセージ入力画面44に演算範囲(X1−α1≦X1≦X1+α2、Y1−β1≦X1≦X1+β2、Z1−γ1≦X1≦X1+γ2)を設定する。このように3次元点群データ31と画像データ22に共通して表示される構造物の座標を目印に演算範囲を設定することで、演算量を抑えつつ、マッチング作業を確実に実行させることが可能となる。
For example, when the warehouse 27 (
なお、演算範囲設定テップST5では、メッセージ入力画面44で入力した演算範囲に基づき、演算範囲となる演算範囲領域44aを画面4bに表示するようにしてもよい。このようにすれば、ユーザにとって、どの領域が演算範囲として設定されたかが分かり、設定した演算範囲が不適な場合には、容易に修正を行うことが可能になる。
In the calculation range setting step ST5, the calculation range area 44a to be the calculation range may be displayed on the
なお、演算範囲設定部6の例としてメッセージ入力画面44におけるユーザ入力による演算範囲の設定方法について説明したが、これに限られるものではない。たとえば、画像データ22に含まれる属性情報を利用して演算範囲を設定してもよい。属性情報としては、たとえば、カメラ21に関する撮影方向121aおよび撮影位置121bに関する情報と、必要に応じてカメラ21に関するレンズなどの情報が想定される。
In addition, although the setting method of the calculation range by the user input in the
具体的には、撮影方向121a、撮影位置121b、カメラ21のレンズの焦点距離などから、画像データ22が撮影する概略範囲が分かるため、その概略範囲に予め定められたマージンを持たせるような範囲を演算範囲とするようにしてもよい。あるいは、自動的に演算範囲の仮設定を行い、仮設定を踏まえてユーザが調整して正式な演算範囲の設定とするようにしてもよい。
Specifically, since the approximate range to be captured by the
図7は、特徴情報抽出部10により、データ取得部2を介して取得した画像データ22および3次元点群データ31から各々の特徴情報を抽出する特徴情報抽出作業(図4の特徴情報抽出処理ステップST6)と、マッチング部11により、設定された演算範囲内での各々の特徴情報が最も一致する画像データ22の位置とサイズを抽出するマッチング作業(図4のマッチング処理ステップST7)の内容を説明するための図である。例えば、特徴情報としてエッジ情報が想定される。
FIG. 7 shows a feature information extraction operation for extracting each piece of feature information from the
エッジ情報とは、画像データ22および3次元点群データ31の特徴情報の抽出により得られた、境界線の情報である。例えば、画像データ22であれば、監視対象が河川の場合、水面と陸部で大きく色合いが異なることから、境界線が抽出できる。また監視対象が道路の場合、舗装された道路と、路肩の色が異なることから、境界線が抽出できる。
Edge information is information on boundaries obtained by extracting feature information of the
一方、3次元点群データ31であれば、点群はx座標、y座標、z座標のデータの集合であり、たとえば監視対象が河川の場合、水面は、ほぼxy平面に平行なのに対し、水面付近の陸部は傾いているため、水面と陸部との境界線を取ることができる。
On the other hand, in the case of three-dimensional
図7の(A)と(B)は、3次元点群データ31に関するエッジ情報の抽出を説明するための図である。図7(A)が初期状態で、図7(B)がエッジ情報の抽出結果である。説明を分かりやすくするために、画面4bにおいては画像データ表示領域41の表示は省略して記載している。
FIGS. 7A and 7B are diagrams for explaining extraction of edge information related to the three-dimensional
一方、図7の(C)と(D)は画像データ22に関するエッジ情報の抽出を説明するための図である。図7(C)が初期状態で、図7(D)がエッジ情報の抽出結果である。図7の(A)と(B)と比較しやすいように、図7の(C)と(D)の画像データ表示領域41を拡大して記載している。図7(E)は、図7の(B)と(D)との抽出結果を基にしたマッチング作業の結果を示す図である。
On the other hand, FIGS. 7C and 7D are diagrams for explaining extraction of edge information related to the
以下、詳細に特徴情報抽出作業およびマッチング作業について説明する。図7(B)では、第1の点群境界25a1が第1の点群境界エッジ45a1としてエッジ情報が抽出され、第2の点群境界25a2が第2の点群境界エッジ45a2としてエッジ情報が抽出され、点群倉庫27aは点群倉庫エッジ46aとしてエッジ情報が抽出され、点群住宅28aは点群住宅エッジ47aとしてエッジ情報が抽出されていることが表示されている。
Hereinafter, the feature information extraction work and the matching work will be described in detail. In FIG. 7B, edge information is extracted as the first point group boundary 25a1 as the first point group boundary edge 45a1, and edge information is extracted as the second point group boundary 25a2 as the second point group boundary edge 45a2. It is displayed that the
一方、図7(D)では、画像河川25bが画像河川エッジ45bとしてエッジ情報が抽出され、画像倉庫27bが画像倉庫エッジ46bとしてエッジ情報が抽出され、画像住宅28bは画像住宅エッジ47bとしてエッジ情報が抽出される。図7(C)では画像河川水25b1が表示されていたがエッジ情報としては抽出されないため、図7(D)には対応するものが存在していない。
On the other hand, in FIG. 7D, the
なお、図7の(B)または(D)において、エッジ処理の状態を把握しながら、エッジ処理をより適切な状態にすべく、たとえばバーの移動によるエッジ抽出に関するパラメータ調整が可能なようにしてもよい。このようにすれば図7(E)でのマッチング作業の精度向上が期待できる。 In (B) or (D) of FIG. 7, in order to make the edge processing more appropriate while grasping the state of the edge processing, for example, it is possible to adjust parameters related to edge extraction by moving the bar. It is also good. This can be expected to improve the accuracy of the matching operation in FIG. 7 (E).
図7(E)は、表示器4が画面4cを表示したものである。画面4cでは、特徴情報抽出処理ステップST6で取得したエッジ情報を利用して、マッチング処理ステップST7でのマッチング作業では3次元点群データ31のエッジ情報と画像データ22のエッジ情報の重ね合わせを行った結果を表示している。
FIG. 7E shows the
具体的には、画面4cは画像データ22のエッジ情報が3次元点群データ31のエッジ情報に対してもっとも重なる3次元点群データ上の位置および画像データ22のサイズを抽出して、抽出結果に基づく位置及びサイズを調整しての表示となる。今回のマッチング作業の結果では、点群倉庫エッジ46aには画像倉庫エッジ46bがおおよそ重なり、点群住宅47aには画像住宅47bがおおよそ重なり、第1の点群境界エッジ45a1には画像河川エッジ45bがおおよそ重なっていることが読み取れる。
Specifically, the
図8は、マッチング結果に基づき、重畳表示処理部12が表示器4において画像データ22を3次元点群データ31に重畳表示させることを示す図である(図4の重畳表示処理ステップST8)。たとえば、図7(E)における画面4cの表示の後、たとえば数秒など予め定められた時間が経過した後か画面4cをカーソル29でクリックするなどすると、図8のように表示される。
FIG. 8 is a diagram showing that the superimposed
具体的には、画像データ22は、マッチング結果と、撮影方向121aおよび撮影位置121bに関する情報を利用して、点群データ31が存在する空間上に3次元座標で出力される。そして、画像データ22は、アスペクト比(縦横比)を変更せず、マッチング結果に基づき拡大または縮小が行われ、表示処理部3は、3次元点群データ31に画像データ22を重畳表示する処理を行う。すなわち、点群河川25aには画像河川25bが重畳表示され、点群倉庫27aには画像倉庫27bが重畳表示され、点群住宅28aには画像住宅28bが重畳表示される。
Specifically, the
マッチング部11で利用した画像データ22がある時点での画像データである場合には、マッチング結果を利用して、重畳表示処理部12は、今後、カメラ21により取得される画像データ22を3次元点群データ31に対する適切な位置に重畳表示するようにすればよい。
If the
このようにして、ユーザは画面4cにおいて、監視対象のリアルタイムな情報を画像データ22が表示される画像データ表示領域41aに表示される内容で知覚し、画像データ表示領域41aの周囲の状況を3次元点群データ31の内容により把握でき、総合的な監視対象への監視を行うことが可能となる。
Thus, on the
なお、図1では、3次元点群表示装置1が演算部8を含んでいることを説明したが、たとえば、計算能力が3次元点群表示装置1よりも高い不図示のサーバやワークステーションに演算部8を格納するようにしてもよい。そうすることで、より短時間で特徴情報抽出作業やマッチング作業を行うことが可能になる。合わせて記憶部30も不図示のサーバに格納してもよい。
Although it has been described in FIG. 1 that the three-dimensional point
また、図7では特徴情報抽出作業とマッチング作業を画面4bや画面4cに表示することを説明したが、画面4bや画面4cに表示をせずに、内部処理として実行するようにしてもよい。表示処理部3の負荷が減ることで3次元点群表示装置1の処理能力に余裕が生まれ、特徴情報抽出作業とマッチング作業の処理速度を内部処理にしない場合と比べて向上させることができる。
Although the feature information extraction work and the matching work are displayed on the
本発明の実施の形態1に係る3次元点群表示装置1によれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部6と、演算範囲設定部6の設定に基づき3次元点群データ31から選択された選択データ31aとデータ取得部2により取得された画像データ22の各々の特徴情報を抽出する特徴情報抽出部10と、特徴情報抽出部10による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データ22の特徴情報同士をマッチングさせるマッチング部11と、マッチング部11のマッチングの結果に基づき、画面4c内で3次元点群データ31の上に画像データを重畳表示させる重畳表示処理部12と、を備えたので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データ31と画像データ22とのマッチングを確実に行わせることが可能になる。
According to the three-dimensional point
また、本発明の実施の形態1に係る3次元点群表示装置1は、表示処理部3は、演算範囲設定部6での設定を行う場合に、画面4aの内部で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定部6による演算範囲の設定を行う作業が効率的に行える効果を奏する。
Further, in the three-dimensional point
また、本発明の実施の形態1に係る3次元点群表示装置1によれば、演算範囲設定部6での設定を行う場合に、画像データ表示領域41は、画面4aの角部に配置されるので、画面4aにおける3次元点群データ31の表示領域での視認性の低下を抑制でき、画像データ22と3次元点群データ31との両者の状態を効率よく把握することが可能である。
Further, according to the three-dimensional point
また、本発明の実施の形態1に係る3次元点群表示装置1によれば、演算範囲設定部6は、ユーザ入力により設定された演算範囲に対応する演算範囲領域44aを画面4bに表示するので、ユーザにとって、どの領域が演算範囲として設定されたかが分かり、設定した演算範囲が不適な場合には、容易に修正を行うことが可能になる。
Further, according to the three-dimensional point
本発明の実施の形態1に係る3次元点群表示装置1によれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して画像データ22に含まれる属性情報(たとえば、撮影方向121aおよび撮影位置121bに関する情報)により演算範囲の設定を行う演算範囲設定部6と、演算範囲設定部6の設定に基づき3次元点群データ31から選択された選択データ31aとデータ取得部2により取得された画像データ22の各々の特徴情報を抽出する特徴情報抽出部10と、特徴情報抽出部10による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データ22の特徴情報同士をマッチングさせるマッチング部11と、マッチング部11のマッチングの結果に基づき、画面4c内で3次元点群データ31の上に画像データを重畳表示させる重畳表示処理部12と、を備えたので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データ31と画像データ22とのマッチングを確実に行わせることが可能になる。
According to the three-dimensional point
また、本発明の実施の形態1に係る3次元点群表示システム40によれば、監視対象を撮影するカメラ21と、カメラ21により撮影して得られた画像データ22を取得するデータ取得部2と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理部3と、画面4bに表示される3次元点群データ31に対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部6と、演算範囲設定部6の設定に基づき3次元点群データ31から選択された選択データ31aとデータ取得部2により取得された画像データ22の各々の特徴情報を抽出する特徴情報抽出部10と、特徴情報抽出部10による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データ22の特徴情報同士をマッチングさせるマッチング部11と、マッチング部11のマッチングの結果に基づき、画面4c内で3次元点群データ31の上に画像データを重畳表示させる重畳表示処理部12と、を備えたので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データ31と画像データ22とのマッチングを確実に行わせることが可能になる。
Further, according to the three-dimensional point
また、本発明の実施の形態1に係る3次元点群表示システム40によれば、表示処理部3が演算範囲設定部6での設定を行う場合に、画面4a内で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定部6による演算範囲の設定を行う作業が効率的に行える効果を奏する。
Further, according to the three-dimensional point
また、本発明の実施の形態1に係る3次元点群表示方法によれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得ステップST1と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理ステップST2と、画面4bに表示される3次元点群データに対してユーザ入力により演算範囲の設定を行う重畳表示処理ステップと、演算範囲設定ステップST5での設定に基づき3次元点群データから選択された選択データ31aとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップST6と、特徴情報抽出部による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データの特徴情報同士をマッチングさせる重畳表示処理ステップST7と、マッチング処理ステップST7の結果に基づき、画面4c内で3次元点群データ31の上に画像データ22を重畳表示させる重畳表示処理ステップST8と、を有するので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。
Further, according to the three-dimensional point cloud display method according to the first embodiment of the present invention, data acquisition step ST1 of acquiring the
また、本発明の実施の形態1に係る3次元点群表示方法によれば、表示処理ステップST2は、演算範囲設定ステップST5での設定を行う場合に、画面4bの内部で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定ステップST5での演算範囲の設定を行う作業が効率的に行える効果を奏する。
Further, according to the three-dimensional point cloud display method according to the first embodiment of the present invention, the display processing step ST2 displays the
また、本発明の実施の形態1に係る3次元点群表示プログラムによれば、監視対象をカメラ21により撮影して得られた画像データ22を取得するデータ取得ステップST1と、監視対象のうち、カメラ21により撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データ31を画面4aに表示する処理を行う表示処理ステップST2と、画面4bに表示される3次元点群データに対してユーザ入力により演算範囲の設定を行う重畳表示処理ステップと、演算範囲設定ステップST5での設定に基づき3次元点群データから選択された選択データ31aとデータ取得部により取得された画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップST6と、特徴情報抽出部による抽出の結果に基づき、3次元点群データ31の特徴情報と画像データの特徴情報同士をマッチングさせる重畳表示処理ステップST7と、マッチング処理ステップST7の結果に基づき、画面4c内で3次元点群データ31の上に画像データ22を重畳表示させる重畳表示処理ステップST8と、をコンピュータに実行させるので、GPSデータを基準とした周囲の3次元地図情報と実画像をマッチングさせる構成と比べて、3次元点群データと画像データとのマッチングを確実に行わせることが可能になる。
Further, according to the three-dimensional point cloud display program according to the first embodiment of the present invention, a data acquisition step ST1 for acquiring
また、本発明の実施の形態1に係る3次元点群表示プログラムによれば、表示処理ステップST2は、演算範囲設定ステップST5での設定を行う場合に、画面4bの内部で画像データ22を表示させる画像データ表示領域41を作成するので、演算範囲設定ステップST5での演算範囲の設定を行う作業が効率的に行える効果を奏する。
Further, according to the three-dimensional point cloud display program according to the first embodiment of the present invention, the display processing step ST2 displays the
また、本発明の実施の形態1に係る記録媒体によれば、プログラムPが記録されているので、プログラムPによる各種機能を実行することができる。 Further, according to the recording medium in the first embodiment of the present invention, since the program P is recorded, various functions by the program P can be executed.
実施の形態2.
本発明の実施の形態2について、図9および図10を用いて説明する。実施の形態1では、演算範囲設定部6による演算範囲の設定はX軸、Y軸、Z軸の各軸の座標をユーザ入力により行っていたが、本実施の形態では入力部7としてのマウスなどによるカーソル移動の利用により、演算範囲を設定することが異なる部分である。
Second Embodiment
Second Embodiment A second embodiment of the present invention will be described with reference to FIG. 9 and FIG. In the first embodiment, setting of the calculation range by the calculation
図9は、入力部7としてポインティングデバイスを利用して演算範囲を設定する場合のブロック図である。ポインティングデバイスとしては、たとえば、マウス7aやジョイスティック7b、不図示のトラックボールなどが想定される。これらポインティングデバイスからの入力を入力受付部5が受付けて、データ取得部2a内の演算範囲設定部6aにおいてカーソル29の移動による演算範囲の設定が実行される。
FIG. 9 is a block diagram in the case of setting an operation range using a pointing device as the input unit 7. As a pointing device, for example, a mouse 7a, a
図10は、ポインティングデバイスを利用しての演算範囲を設定する設定画面である。画面4b内で表示されるスクリーン座標系での表示に対して、ユーザが演算範囲としたい領域を検討する。たとえばマウス7aの操作によりカーソル29を移動操作させて、X軸方向およびZ軸方向における演算範囲を決める。そして、奥行きであるY軸方向の演算範囲を決める際には、視点移動ツール51を使ってY軸方向の視点をずらしつつ、X軸またはZ軸におけるカーソル29の移動操作と同様の操作を行えばよい。
FIG. 10 is a setting screen for setting a calculation range using a pointing device. With respect to the display in the screen coordinate system displayed in the
本発明の実施の形態2に係る3次元点群表示装置1は、演算範囲設定部6が、ポインティングデバイス7a,7bを利用して演算範囲を設定するようにしたので、ユーザが視覚的に演算範囲を行うことが可能になる。すなわち、どの範囲を演算範囲として設定するかを座標となる数字を入力する場合と比べて容易に行える。
In the three-dimensional point
実施の形態3.
本発明の実施の形態3について、図11および図12を用いて説明する。実施の形態1では、マッチング作業は、設定された演算範囲内で画像データと3次元点群データの各々の特徴情報が最も一致する画像データの位置とサイズを抽出する作業であったが、マッチングの程度がよくない場合に演算範囲を再設定することを促す機能を有することが異なる部分である。
Third Embodiment
Third Embodiment A third embodiment of the present invention will be described with reference to FIGS. 11 and 12. In the first embodiment, the matching operation is an operation of extracting the position and size of the image data in which the feature information of each of the image data and the three-dimensional point group data most matches within the set operation range. The difference is that it has a function to prompt resetting of the calculation range when the degree of is not good.
図11は、演算部8aの構成を示すブロック図である。演算部8aは視点対応部9、特徴情報抽出部10、マッチング部11のほかに、マッチングの程度を判定するマッチング度判定部11aを含んでいる。マッチング度合判定部11aは、予め定めたマッチング度に対して、マッチング部11でのマッチング作業の結果がどの程度のものかを把握するために機能する。マッチング度を求める方式としては、たとえば、3次元点群データ31において設定された演算範囲の中で、画像データ22が3次元点群データ31に対して一致するピクセル数と一致しないピクセル数をカウントし、全ピクセル数のうちの一致するピクセル数の割合から求めるようにしてもよい。
FIG. 11 is a block diagram showing the configuration of the
図12は、3次元点群表示装置1の動作を示すフローチャート図である。ステップST1からステップST8は実施の形態1と同様の構成であり、ステップST2からステップST4を省略して記載している。マッチング度確認ステップST17と演算範囲の再設定を促す警告表示ステップST18が実施の形態1とは異なるステップである。
FIG. 12 is a flowchart showing the operation of the three-dimensional point
たとえば、マッチング度確認ステップST17において予め定めたマッチング度に対してマッチング部11でのマッチング作業の結果が到達していない場合、警告表示ステップST18へとフローが分岐し、表示処理部3が「もう一度演算範囲の設定を行って、演算をやり直してください」などと警告144が報知されるように構成される。その後、ユーザは警告144の表示を踏まえて、再度演算範囲設定テップST5へと移行してカーソル29などにより演算範囲の設定を実行する。なお、警告144は文字意外に、音声など、ユーザに伝わるものであれば何でもよい。
For example, when the result of the matching operation in the
本発明の実施の形態3に係る3次元点群表示装置1は、マッチング部11によるマッチングの結果を判定するマッチング度判定部11aを有し、判定の結果に応じて、演算範囲の再設定を促す警告144を報知するので、3次元点群データ31に対する画像データ22の重畳表示が精度悪く表示されることを防止する効果を奏する。
The three-dimensional point
変形例3a
変形例3aについて図13を用いて説明する。警告表示ステップST18を受けてユーザが再び演算範囲設定ステップST5での演算範囲の設定を行う際、前回の演算範囲を把握していで新たに演算範囲の設定を行ったとしても、再度のマッチング作業でのマッチング度が向上せず、予め定めたマッチング度の度合いに達しない恐れがある。
Modification 3a
The modification 3a will be described with reference to FIG. When the user again sets the calculation range in the calculation range setting step ST5 after receiving the warning display step ST18, even if the calculation range is set anew, even if the calculation range is newly set, the matching work is performed again. The degree of matching does not improve, and there is a possibility that the degree of matching determined in advance may not be reached.
そこで、前回の演算範囲の領域を前回演算範囲領域51として表示し、それを踏まえて、最新演算範囲領域52として演算範囲を設定することが可能となる。すなわち、前回設定した演算範囲ではマッチング部11でのマッチング作業に不足していた領域を把握でき、より効率的に最新演算範囲領域52を設定することが可能となる。
Therefore, the area of the previous calculation range is displayed as the previous
本発明の実施の形態3の変形例3aに係る3次元点群表示装置1は、警告144が報知され、演算範囲の設定を再度行う場合、警告対象となった前回演算範囲領域51が画面に表示されるので、演算範囲の再設定を行う場合に効率的に再設定を行える効果を奏する。
In the three-dimensional point
実施の形態4.
本発明の実施の形態4について、図14から図16を用いて説明する。実施の形態1では、カメラが視野の変化がない固定カメラであることを主に想定していたが、本実施の形態4では左右や上下などに角度を変えて撮影できる可動カメラであることを想定し、実施の形態1よりも広いエリアを撮影した画像データを利用してのマッチング作業を行うものである。
Fourth Embodiment
Fourth Embodiment A fourth embodiment of the present invention will be described using FIGS. 14 to 16. In the first embodiment, it is mainly assumed that the camera is a fixed camera with no change in the field of view, but in the fourth embodiment, it is a movable camera that can be photographed by changing the angle between left and right or up and down. Assuming that the matching operation is performed using image data obtained by photographing an area larger than that of the first embodiment.
図14は、3次元点群表示システム40aの構成を示すブロック図である。実施の形態1の図1における3次元点群表示システム40と異なる構成について説明する。カメラユニット20aは可動カメラ21aと、3次元点群表示装置1aから送られる可動カメラ21aを制御する可動カメラ制御信号13aを受信するデータ受信部123と、を有している。
FIG. 14 is a block diagram showing the configuration of the three-dimensional point
3次元点群表示装置1aは、可動カメラ制御信号13aを送るカメラ制御部13と、可動カメラ21aと、可動カメラ制御信号13aを生成する3次元点群表示プログラムとしてのプログラムPaと、可動カメラ21aにより撮影された複数の画像データ22を合成して合成画像データ22aを作成する画像合成部14と、を含んでいる。また、記憶部30は、複数の画像合成部14が合成する複数の画像データ22をデータ取得部2から受け取って格納する機能を有する。
The three-dimensional point
入力部7からの入力により入力受付部5が可動カメラ21aを制御する指示を受けると、その指示がカメラ制御部13に送信される。カメラ制御部13は指示を受信し、カメラユニット20aにおけるデータ受信部123に対して、可動カメラ制御信号13aを送信する。可動カメラ21aは可動カメラ制御信号13aを受けて、各種動作を行うように構成されている。
When the
図15は、可動カメラ制御信号13aがカメラ制御部13から送信され、可動カメラ21aが可動カメラ制御信号13aを受信した場合における、3次元点群表示システム40aの動作を示すフローチャート図である。図14と図16も適宜参照しながら3次元点群表示システム40aの動作の説明を行う。
FIG. 15 is a flowchart showing the operation of the three-dimensional point
まず、可動カメラ21aは初期位置などのある方向で撮影を行う。そして、たとえば、予め定められた複数の角度で、順次、画像データ22同士の境界部分が重複するように水平方向に連続して撮影を行う(複数撮影ステップSTA)。そして撮影された画像データ22は、データ送信部23およびデータ取得部2を介して、順次、記憶部30に格納される(画像記憶ステップSTB)。すなわち、可動カメラ21aは、複数の撮影方向での撮影を行う。
First, the
その後、予め定められた複数の角度すべてで可動カメラ21aによる撮影が終了した場合、データ取得部2は記憶部30と通信して、格納した複数の画像データ22を画像合成部14に送る。画像合成部14は受信した複数の画像データ22を合成して合成画像データ22aを作成する(画像データ合成ステップSTC)。合成画像データ22aが作成された後は、実施の形態1と同様に、ステップST1からステップST8が実行される。
Thereafter, when photographing by the
図16は、3次元点群データ31を表示する表示器4における画面4cの内容を示す図である。合成画像データ22aを画像データ表示領域41aにて表示している。画像データ表示領域41aのうち、第1画像データ表示領域41a1に表示される画像データ22は可動カメラ21aの初期位置としての撮影範囲により撮影されたものであり、第2画像データ表示領域41a2に表示される画像データ22は可動カメラ21aの撮影方向を可変させた場合の撮影範囲により撮影されたものである。
FIG. 16 is a diagram showing the contents of the
なお、ある撮影方向(たとえば初期位置)での撮影範囲と、撮影方向を可変させた場合の別の撮影方向での撮影範囲の境界を、境界線42として表示している。仮に合成画像データ22aの内部に、普段とは違うノイズが映り込むなどの画像に異常が生じた場合、境界線42が表示されることで第1画像データ表示領域41a1または第2画像データ表示領域41a2のどちらに原因があるかを容易に把握することができるため、合成画像データ22aを再生成する際に効率的である。
A boundary between a shooting range in a certain shooting direction (for example, an initial position) and a shooting range in another shooting direction when the shooting direction is changed is displayed as a
なお、撮影方向を可変させて、連続する撮影範囲を取得した画像データ22から合成画像データ22aを作成した上で、特徴抽出部10による特徴情報の抽出やマッチング部11によるマッチングを行うことを説明したが、必ずしも連続する撮影範囲を取得した画像データ22でなくてもよい。すなわち、ある撮影方向で撮影した図示しない第1画像データと、撮影方向を可変させて撮影した図示しない第2画像データとは、各々の画像データが離散していても良く、この場合には、第1画像データと第2画像データとの関係性として、撮影した角度情報など、各画像データの関係性が把握できればよい。
In addition, after making synthetic image data 22a from the
このようにして、複数の撮影方向により撮影された複数の画像データ22を利用することで、実施の形態1の場合と比べて、特徴抽出部10による特徴情報の抽出を多くすることができ、マッチング部11によるマッチングの結果がより広範囲なエリアでマッチングさせることができる。その結果、実施の形態1よりも、より正確に、画面4の中で、3次元点群データ31の上に画像データ22を重畳表示させることが可能になる。
In this manner, by using the plurality of
本発明の実施の形態4に係る3次元点群表示装置1は、データ取得部2は、カメラ21が撮影方向を可変な可動カメラ21aである場合、可動カメラ21aにより撮影された複数方向における複数の画像データ22を取得し、特徴情報抽出部10は、複数の画像データ22を利用した特徴情報の抽出を行うので、より正確に、画面4cの中で、3次元点群データ31の上に画像データ22を重畳表示させることが可能になる。
In the three-dimensional point
変形例4a
この変形例は、可動カメラにより撮影された画像と3次元点群データとを利用して、1命令ごとの撮影方向の単位移動量が不明な可動カメラの仕様を求め、監視業務に役立てようとするものであり、図17を用いて説明する。
In this modification, the specification of the movable camera whose unit moving amount in the photographing direction for each command is unknown is obtained by utilizing the image taken by the movable camera and the three-dimensional point cloud data, and it is useful for monitoring work. This will be described with reference to FIG.
図17は本変形例の動作を示すフローチャート図である。ステップSTAからステップST7までは実施の形態4と同様である。ステップST9が本変形で追加された内容である。 FIG. 17 is a flowchart showing the operation of this modification. Steps STA to ST7 are the same as in the fourth embodiment. Step ST9 is the content added in this modification.
ステップSTAでは、図14に記載のカメラ制御部13を介して、ユーザは可動カメラ21に対して、撮影方向を変える命令を送信している。この変形例における可動カメラ21aは単位移動量が判明しておらず、たとえば、ユーザは感覚的に1秒間に亘って可動カメラ21aを左に動かすための図示しない移動命令ステップを持続する、などとしていた。
In step STA, the user transmits an instruction to change the shooting direction to the
そこで、ステップSTAで撮影方向を変更する際に移動命令ステップに関する情報を記録し、移動命令ステップに関する情報とマッチング処理ステップST7での結果を利用して、単位移動量計算ステップST9では単位移動命令ステップごとの可動カメラ21aの単位移動量(撮影方向の単位移動量)を求めている。
Therefore, when the imaging direction is changed in step STA, the information on the movement instruction step is recorded, and the unit movement amount calculation step ST9 is performed using the information on the movement instruction step and the result in the matching processing step ST7. The unit moving amount (the unit moving amount in the photographing direction) of the
単位移動量計算ステップST9を有することで、単位移動命令ステップごとに可動カメラ21aの単位移動量が判明するため、監視業務を行う上で、より精密な運用を行うことができる。
By having the unit movement amount calculation step ST9, the unit movement amount of the
1 3次元点群表示装置、2 データ取得部、3 表示処理部、4 表示器、4a,4b,4c 画面、5 入力受付部、6 演算範囲設定部、7 入力部、7a マウス(ポインティングデバイス)、7b ジョイスティック(ポインティングデバイス)、8 演算部、9 視点対応部、10 特徴情報抽出部、11 マッチング部、11a マッチング度判定部、12 重畳表示処理部、20 カメラユニット、21 カメラ、22 画像データ、23 データ送信部、30 記憶部、 31 3次元点群データ、 31 a 選択データ、 40 3次元点群表示システム、41 画像データ表示領域、44a 演算範囲領域(演算範囲)、45a1 第1の点群境界エッジ(エッジ情報、特徴情報)、45a2 第2の点群境界エッジ(エッジ情報、特徴情報)、45b 画像河川エッジ(エッジ情報、特徴情報)、46a 点群倉庫エッジ(エッジ情報、特徴情報)、46b 画像倉庫エッジ(エッジ情報、特徴情報)、47a 点群住宅エッジ(エッジ情報、特徴情報)、47b 画像住宅エッジ(エッジ情報、特徴情報)、51 前回演算範囲領域、101 メモリ(記録媒体)、121a 撮影方向(属性情報)、121b撮影位置(属性情報)、144 警告
P,Pa プログラム(3次元点群表示プログラム)、ST1 データ取得ステップ、ST2 表示処理ステップ、ST5 演算範囲設定ステップ、ST6 特徴情報抽出処理ステップ、ST7 マッチング処理ステップ、ST8 重畳表示処理ステップ、ST9 単位移動量計算ステップ、STA 複数撮影ステップ、STB 画像記憶ステップ、STC 画像データ合成ステップ
Reference Signs List 1 3D point cloud display device 2 data acquisition unit 3 display processing unit 4 display 4 a, 4 b, 4 c screen 5 input reception unit 6 operation range setting unit 7 input unit 7 a mouse (pointing device) , 7b joystick (pointing device), 8 operation unit, 9 viewpoint corresponding unit, 10 feature information extraction unit, 11 matching unit, 11a matching degree determination unit, 12 superposition display processing unit, 20 camera units, 21 cameras, 22 image data, 23 data transmission unit, 30 storage unit, 31 three-dimensional point group data, 31 a selection data, 40 three-dimensional point group display system, 41 image data display area, 44 a calculation range area (calculation range), 45 a 1 first point group Boundary edge (edge information, feature information), 45a2 Second point group boundary edge (edge information, feature information), 45b Image river Edge (edge information, feature information), 46a Point cloud warehouse edge (edge information, feature information), 46b Image warehouse edge (edge information, feature information), 47a Point cloud house edge (edge information, feature information), 47b image Residential edge (edge information, feature information), 51 previous calculation range area, 101 memory (recording medium), 121a shooting direction (attribute information), 121b shooting position (attribute information), 144 warning P, Pa program (3D point group Display program), ST1 data acquisition step, ST2 display processing step, ST5 operation range setting step, ST6 feature information extraction processing step, ST7 matching processing step, ST8 superposition display processing step, ST9 unit movement amount calculation step, STA multiple imaging step, STB image storage step, STC image data synthesis step
Claims (16)
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、
前記演算範囲設定部の設定に基づき前記3次元点群データから選択された選択データと前記データ取得部により取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部による前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング部と、
前記マッチング部のマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理部と、
を備えた3次元点群表示装置。 A data acquisition unit that acquires image data obtained by photographing a monitoring target with a camera;
A display processing unit that performs processing for displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range captured by the camera among the monitoring targets;
A calculation range setting unit configured to set a calculation range by user input to the three-dimensional point group data displayed on the screen;
A feature information extraction unit that extracts feature information of each of the selected data selected from the three-dimensional point cloud data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit;
A matching unit that matches feature information of the three-dimensional point cloud data with feature information of the image data based on a result of the extraction by the feature information extraction unit;
A superimposed display processing unit configured to display the image data superimposed on the three-dimensional point group data in the screen based on the matching result of the matching unit;
3D point cloud display equipped with
請求項1に記載の3次元点群表示装置。 The three-dimensional point cloud display device according to claim 1, wherein the display processing unit creates an image data display area for displaying the image data inside the screen when the setting by the calculation range setting unit is performed. .
請求項2に記載の3次元点群表示装置。 The three-dimensional point cloud display device according to claim 2, wherein the image data display area is disposed at a corner of the screen.
請求項1から3のいずれか一項に記載の3次元点群表示装置。 The three-dimensional point cloud display device according to any one of claims 1 to 3, wherein the calculation range setting unit displays a calculation range region corresponding to the calculation range on the screen.
請求項1から4のいずれか一項に記載の3次元点群表示装置。 The three-dimensional point cloud display device according to any one of claims 1 to 4, wherein the calculation range setting unit sets the calculation range using a pointing device.
前記判定の結果に応じて、前記演算範囲の再設定を促す警告を報知する
請求項1から5のいずれか一項に記載の3次元点群表示装置。 A matching degree determination unit that determines a result of the matching performed by the matching unit;
The three-dimensional point cloud display device according to any one of claims 1 to 5, wherein a warning to prompt resetting of the calculation range is notified according to the result of the determination.
請求項6に記載の3次元点群表示装置。 The three-dimensional point according to claim 6, wherein, when the warning is notified and the setting of the calculation range is performed again, the previous calculation range area, which is the area of the previous calculation range that became the warning target, is displayed on the screen. Group display device.
前記特徴情報抽出部は、複数の前記画像データを利用した特徴情報の抽出を行う
請求項1から7のいずれか一項に記載の3次元点群表示装置。 The data acquisition unit acquires a plurality of the image data in a plurality of directions captured by the movable camera, when the camera is a movable camera whose imaging direction is variable.
The three-dimensional point cloud display device according to any one of claims 1 to 7, wherein the feature information extraction unit extracts feature information using a plurality of the image data.
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、
前記画面に表示される前記3次元点群データに対して、前記画像データに含まれる属性情報により演算範囲の設定を行う演算範囲設定部と、
前記演算範囲設定部の設定に基づき前記3次元点群データから選択された選択データと前記データ取得部により取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部による前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング部と、
前記マッチング部のマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理部と、
を備えた3次元点群表示装置。 A data acquisition unit that acquires image data obtained by photographing a monitoring target with a camera;
A display processing unit that performs processing for displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range captured by the camera among the monitoring targets;
A calculation range setting unit configured to set a calculation range based on attribute information included in the image data with respect to the three-dimensional point cloud data displayed on the screen;
A feature information extraction unit that extracts feature information of each of the selected data selected from the three-dimensional point cloud data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit;
A matching unit that matches feature information of the three-dimensional point cloud data with feature information of the image data based on a result of the extraction by the feature information extraction unit;
A superimposed display processing unit configured to display the image data superimposed on the three-dimensional point group data in the screen based on the matching result of the matching unit;
3D point cloud display equipped with
前記カメラにより撮影して得られた画像データを取得するデータ取得部と、
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理部と、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定部と、
前記演算範囲設定部の設定に基づき前記3次元点群データから選択された選択データと前記データ取得部により取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部による前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング部と、
前記マッチング部のマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理部と、
を備えた3次元点群表示システム。 A camera that shoots the monitoring target,
A data acquisition unit for acquiring image data obtained by photographing with the camera;
A display processing unit that performs processing for displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range captured by the camera among the monitoring targets;
A calculation range setting unit configured to set a calculation range by user input to the three-dimensional point group data displayed on the screen;
A feature information extraction unit that extracts feature information of each of the selected data selected from the three-dimensional point cloud data based on the setting of the calculation range setting unit and the image data acquired by the data acquisition unit;
A matching unit that matches feature information of the three-dimensional point cloud data with feature information of the image data based on a result of the extraction by the feature information extraction unit;
A superimposed display processing unit configured to display the image data superimposed on the three-dimensional point group data in the screen based on the matching result of the matching unit;
3D point cloud display system equipped with.
請求項10に記載の3次元点群表示システム。 The three-dimensional point cloud display system according to claim 10, wherein the display processing unit creates an image data display area for displaying the image data inside the screen when the setting by the calculation range setting unit is performed. .
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、
前記演算範囲設定ステップでの設定に基づき前記3次元点群データから選択された選択データと前記データ取得ステップにより取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、
前記特徴情報抽出処理ステップによる前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、
前記マッチング処理ステップでのマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理ステップと、
を有する3次元点群表示方法。 A data acquisition step of acquiring image data obtained by photographing the monitoring target with a camera;
A display processing step of performing processing of displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range photographed by the camera among the monitoring targets;
A calculation range setting step of setting a calculation range by user input to the three-dimensional point cloud data displayed on the screen;
Feature information extraction processing step of extracting feature information of each of the selected data selected from the three-dimensional point cloud data and the image data acquired by the data acquisition step based on the setting in the calculation range setting step;
A matching processing step of matching feature information of the three-dimensional point group data with feature information of the image data based on a result of the extraction by the feature information extraction processing step;
A superimposed display processing step of causing the image data to be superimposed and displayed on the three-dimensional point group data in the screen based on the matching result in the matching processing step;
A three-dimensional point cloud display method having
請求項12に記載の3次元点群表示方法。 The three-dimensional point cloud display method according to claim 12, wherein the display processing step creates an image data display area for displaying the image data inside the screen when the setting in the calculation range setting step is performed. .
前記監視対象のうち、前記カメラにより撮影された範囲の少なくとも一部を含んで計測して得た3次元点群データを画面に表示する処理を行う表示処理ステップと、
前記画面に表示される前記3次元点群データに対して、ユーザ入力により演算範囲の設定を行う演算範囲設定ステップと、
前記演算範囲設定ステップでの設定に基づき前記3次元点群データから選択された選択データと前記データ取得ステップにより取得された前記画像データの各々の特徴情報を抽出する特徴情報抽出処理ステップと、
前記特徴情報抽出処理ステップによる前記抽出の結果に基づき、前記3次元点群データの特徴情報と前記画像データの特徴情報同士をマッチングさせるマッチング処理ステップと、
前記マッチング処理ステップのマッチングの結果に基づき、前記画面内で前記3次元点群データの上に前記画像データを重畳表示させる重畳表示処理ステップと、
をコンピュータに実行させるための3次元点群表示プログラム。 A data acquisition step of acquiring image data obtained by photographing the monitoring target with a camera;
A display processing step of performing processing of displaying on a screen three-dimensional point cloud data obtained by measuring at least a part of a range photographed by the camera among the monitoring targets;
A calculation range setting step of setting a calculation range by user input to the three-dimensional point cloud data displayed on the screen;
Feature information extraction processing step of extracting feature information of each of the selected data selected from the three-dimensional point cloud data and the image data acquired by the data acquisition step based on the setting in the calculation range setting step;
A matching processing step of matching feature information of the three-dimensional point group data with feature information of the image data based on a result of the extraction by the feature information extraction processing step;
A superimposed display processing step of causing the image data to be superimposed and displayed on the three-dimensional point cloud data in the screen based on the matching result of the matching processing step;
Three-dimensional point cloud display program for making a computer execute.
請求項14に記載の3次元点群表示プログラム。 The three-dimensional point cloud display program according to claim 14, wherein the display processing step creates an image data display area for displaying the image data in the screen when the setting in the calculation range setting step is performed. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017222447A JP7003594B2 (en) | 2017-11-20 | 2017-11-20 | 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017222447A JP7003594B2 (en) | 2017-11-20 | 2017-11-20 | 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019095876A true JP2019095876A (en) | 2019-06-20 |
JP7003594B2 JP7003594B2 (en) | 2022-01-20 |
Family
ID=66971622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017222447A Active JP7003594B2 (en) | 2017-11-20 | 2017-11-20 | 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7003594B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019212225A (en) * | 2018-06-08 | 2019-12-12 | 朝日航洋株式会社 | Terminal device and terminal device control method |
US20210287356A1 (en) * | 2020-03-10 | 2021-09-16 | Nec Corporation | Abnormal part display apparatus, abnormal part display system, abnormal part display method, and abnormal part display program |
JPWO2022074739A1 (en) * | 2020-10-06 | 2022-04-14 | ||
JP7080402B1 (en) * | 2020-11-10 | 2022-06-03 | 三菱電機株式会社 | Information management system and information management method |
JP2022541670A (en) * | 2019-12-13 | 2022-09-26 | ソニーグループ株式会社 | Transspectral Feature Detection for Registration and Colorization of Volumetric Images |
JPWO2022244172A1 (en) * | 2021-05-20 | 2022-11-24 | ||
WO2024189755A1 (en) * | 2023-03-14 | 2024-09-19 | 三菱電機株式会社 | Estimation device, estimation system and estimation method |
WO2025018270A1 (en) * | 2023-07-18 | 2025-01-23 | ダイナミックマッププラットフォーム株式会社 | Information processing method, program, and information processing device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005149035A (en) * | 2003-11-14 | 2005-06-09 | Mitsubishi Electric Corp | Flood monitoring device |
WO2008099915A1 (en) * | 2007-02-16 | 2008-08-21 | Mitsubishi Electric Corporation | Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data |
JP2009053059A (en) * | 2007-08-27 | 2009-03-12 | Mitsubishi Electric Corp | Object specifying device, object specifying method, and object specifying program |
JP2016170060A (en) * | 2015-03-13 | 2016-09-23 | 三菱電機株式会社 | Facility information display system, mobile terminal, server and facility information display method |
-
2017
- 2017-11-20 JP JP2017222447A patent/JP7003594B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005149035A (en) * | 2003-11-14 | 2005-06-09 | Mitsubishi Electric Corp | Flood monitoring device |
WO2008099915A1 (en) * | 2007-02-16 | 2008-08-21 | Mitsubishi Electric Corporation | Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data |
JP2009053059A (en) * | 2007-08-27 | 2009-03-12 | Mitsubishi Electric Corp | Object specifying device, object specifying method, and object specifying program |
JP2016170060A (en) * | 2015-03-13 | 2016-09-23 | 三菱電機株式会社 | Facility information display system, mobile terminal, server and facility information display method |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019212225A (en) * | 2018-06-08 | 2019-12-12 | 朝日航洋株式会社 | Terminal device and terminal device control method |
JP2022541670A (en) * | 2019-12-13 | 2022-09-26 | ソニーグループ株式会社 | Transspectral Feature Detection for Registration and Colorization of Volumetric Images |
US20210287356A1 (en) * | 2020-03-10 | 2021-09-16 | Nec Corporation | Abnormal part display apparatus, abnormal part display system, abnormal part display method, and abnormal part display program |
US11869179B2 (en) * | 2020-03-10 | 2024-01-09 | Nec Corporation | Abnormal part display apparatus, abnormal part display system, abnormal part display method, and abnormal part display program |
JPWO2022074739A1 (en) * | 2020-10-06 | 2022-04-14 | ||
WO2022074739A1 (en) * | 2020-10-06 | 2022-04-14 | 日本電気株式会社 | Processing device, processing system, processing method, and non-transitory computer-readable medium having program stored thereon |
JP7080402B1 (en) * | 2020-11-10 | 2022-06-03 | 三菱電機株式会社 | Information management system and information management method |
JPWO2022244172A1 (en) * | 2021-05-20 | 2022-11-24 | ||
WO2022244172A1 (en) * | 2021-05-20 | 2022-11-24 | 三菱電機株式会社 | Information processing device, information processing system, information processing method, and information processing program |
JP7330420B2 (en) | 2021-05-20 | 2023-08-21 | 三菱電機株式会社 | Information processing device, information processing system, information processing method, and information processing program |
WO2024189755A1 (en) * | 2023-03-14 | 2024-09-19 | 三菱電機株式会社 | Estimation device, estimation system and estimation method |
WO2025018270A1 (en) * | 2023-07-18 | 2025-01-23 | ダイナミックマッププラットフォーム株式会社 | Information processing method, program, and information processing device |
Also Published As
Publication number | Publication date |
---|---|
JP7003594B2 (en) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7003594B2 (en) | 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium | |
CN110427917B (en) | Method and device for detecting key points | |
Golparvar-Fard et al. | Evaluation of image-based modeling and laser scanning accuracy for emerging automated performance monitoring techniques | |
JP5538667B2 (en) | Position / orientation measuring apparatus and control method thereof | |
JP4115117B2 (en) | Information processing apparatus and method | |
US9361731B2 (en) | Method and apparatus for displaying video on 3D map | |
CA3161560A1 (en) | 3-d reconstruction using augmented reality frameworks | |
WO2015068470A1 (en) | 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program | |
JP2015228215A (en) | Positional information processing method | |
JP2010128622A (en) | Stereo matching processing apparatus, stereo matching processing method and program | |
US20210377432A1 (en) | Information processing apparatus, information processing method, program, and interchangeable lens | |
JP2023546739A (en) | Methods, apparatus, and systems for generating three-dimensional models of scenes | |
JP2022105442A (en) | Information processing device, information processing method and program | |
KR20220085142A (en) | Intelligent construction site management supporting system and method based extended reality | |
US20180020203A1 (en) | Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium | |
JP6521352B2 (en) | Information presentation system and terminal | |
JP2008176768A (en) | Image processor | |
CN109034214B (en) | Method and apparatus for generating a mark | |
WO2022025283A1 (en) | Measurement processing device, method, and program | |
JP2024114712A (en) | Imaging device, imaging method, and program | |
KR102458559B1 (en) | Construction management system and method using mobile electric device | |
CN112422848B (en) | Video stitching method based on depth map and color map | |
WO2017057426A1 (en) | Projection device, content determination device, projection method, and program | |
CN116266402A (en) | Automatic object labeling method and device, electronic equipment and storage medium | |
JP2009186369A (en) | Depth information acquisition method, depth information acquiring device, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211213 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7003594 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |