JP2017073139A - Terminal device, program for terminal device, and displacement state visualization method for invisible object - Google Patents
Terminal device, program for terminal device, and displacement state visualization method for invisible object Download PDFInfo
- Publication number
- JP2017073139A JP2017073139A JP2016208258A JP2016208258A JP2017073139A JP 2017073139 A JP2017073139 A JP 2017073139A JP 2016208258 A JP2016208258 A JP 2016208258A JP 2016208258 A JP2016208258 A JP 2016208258A JP 2017073139 A JP2017073139 A JP 2017073139A
- Authority
- JP
- Japan
- Prior art keywords
- terminal device
- image
- virtual image
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
この発明は、例えば道路に埋設され直視できない不可視物である上下水道管や電線、通信ケーブル等設備の補修点検や、あるいは部分交換作業を実施する際、前記設備の埋設位置、形状や変形変位状態を現実空間の動画像として可視化する端末装置、端末装置用プログラム、および不可視物の変位状態可視化方法に関するものである。 This invention is, for example, when performing repair inspection or partial replacement work of equipment such as water and sewage pipes, electric wires, communication cables, etc., which are invisible objects that are embedded in the road and cannot be directly viewed, The present invention relates to a terminal device, a terminal device program, and a method for visualizing a displacement state of an invisible object.
従来、道路下の地下埋設物である上水道管や、ガス管、光ファイバーケーブル等が存在している現場において、道路改良工事や地下埋設物の補修工事等で道路を掘削する場合、不可視物である地下埋設物を直観的に確認できて、さらに仮想画像の表示位置精度を適切なものとすることのできる画像合成装置、画像合成プログラム、および画像合成システムとして、実空間画像を取得する画像取得手段と、画像取得手段の位置および姿勢を計測する計測手段と、空間モデルを記憶する記憶手段と、演算処置を行い表示画面で遠近表示された透視図となるように仮想空間画像を作成する画像作成手段と、実空間画像と遠近表示された仮想空間画像とを表示画面に重畳して表示される表示手段とを備えたものが示されている(例えば、特許文献1)。 Conventionally, when excavating a road for road improvement work or repair work for underground burials at sites where water supply pipes, gas pipes, optical fiber cables, etc., which are underground buried under the roads, are invisible Image acquisition means for acquiring a real space image as an image composition apparatus, an image composition program, and an image composition system capable of intuitively confirming an underground buried object and further ensuring appropriate display position accuracy of a virtual image And a measuring means for measuring the position and orientation of the image acquiring means, a storage means for storing a space model, and an image creation for creating a virtual space image so as to obtain a perspective view that is processed and displayed on a display screen. And a display means for displaying a real space image and a virtual space image displayed in perspective in a superimposed manner on a display screen (for example, Patent Document 1).
しかしながら、上記特許文献1に示された技術は、不可視物である地下埋設物を仮想的に可視化した仮想画像を、現実空間の動画像に重畳表示するものであり、地下埋設物の位置情報の測定誤差によりずれが発生することを防ぐため、仮想画像を前後左右にずらして補正を行っているが、深さ方向の補正が不可能であり、例えば上水道管の漏水箇所の補修点検作業において、どの程度道路を掘り下げればよいか、上記特許文献1に示された技術では、適切な対応を可能とするものではないという問題点がある。
However, the technique disclosed in
この発明は上記のような課題を解決するためになされたものであり、道路に埋設されている不可視物設備の補修点検や部分交換の作業を実施する際、不可視物設備を現実空間の画像に重畳表示する場合において、補正作業の効率化、省力化を可能とした端末装置、端末装置用プログラム、および不可視物の変位状態可視化方法を提供することを目的とする。 The present invention has been made to solve the above-described problems, and when performing repair inspection and partial replacement work of invisible object facilities embedded in the road, the invisible object facilities are converted into an image of real space. An object of the present invention is to provide a terminal device, a program for a terminal device, and a method for visualizing a displacement state of an invisible object that can make correction work more efficient and labor-saving in the case of superimposed display.
第1の発明は、端末装置であって、
前記端末装置の位置の情報を取得する位置情報取得部と、
前記端末装置の姿勢の情報を取得する姿勢情報取得部と、
不可視物を覆う部材に設けられたマークの位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報に基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行う演算部と、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得する設備情報取得部と、
前記設備情報を基に仮想画像を生成する仮想画像生成部と、
前記端末装置によって撮影された所定領域の画像が表示される前記表示部に表示された補正対象体に対する操作により、前記基準平面からの変位を取得する重畳補正部と、
前記変位を前記仮想画像に反映することにより前記仮想画像生成部で生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成する画像重畳部と
が設けられたものである。
第2の発明は、端末装置であって、
前記端末装置の位置の情報を取得する位置情報取得部と、
前記端末装置の姿勢の情報を取得する姿勢情報取得部と、
不可視物を覆う部材の位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報に基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行う演算部と、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得する設備情報取得部と、
前記設備情報を基に仮想画像を生成する仮想画像生成部と、
前記端末装置によって撮影された所定領域の画像が表示される前記表示部に表示された補正対象体に対する操作により、前記基準平面からの変位を取得する重畳補正部と、
前記変位を前記仮想画像に反映することにより前記仮想画像生成部で生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成する画像重畳部と
が設けられたものである。
第3の発明は、端末装置に不可視物の変位状態可視化を実行させるプログラムであって、
前記端末装置の位置および姿勢の情報を取得するステップと、
不可視物を覆う部材位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報とに基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行うステップと、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得するステップと、
前記設備情報を基に仮想画像を生成するステップと、
前記端末装置によって撮影された所定領域の画像を表示するステップと、
前記表示部に表示された補正対象体に対する操作により前記基準平面からの変位を取得するステップと、
前記変位を前記仮想画像に反映することによって生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成するステップと
を実行させるものである。
第4の発明は、端末装置の位置および姿勢の情報を取得するステップと、
不可視物を覆う部材位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報とに基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行うステップと、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得するステップと、
前記設備情報を基に仮想画像を生成するステップと、
前記端末装置によって撮影された所定領域の画像を表示するステップと、
前記表示部に表示された補正対象体に対する操作により前記基準平面からの変位を取得するステップと、
前記変位を前記仮想画像に反映することによって生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成するステップと
を備えたものである。
1st invention is a terminal device,
A location information acquisition unit for acquiring location information of the terminal device;
An attitude information acquisition unit for acquiring information on the attitude of the terminal device;
An area displayed on a display unit provided in the terminal device based on the position information and the posture information, by inputting position information of a mark provided on a member covering an invisible object, setting a reference plane A calculation unit for calculating the plane coordinates of
A facility information acquisition unit for acquiring facility information of the invisible object in the plane coordinates from a facility information database;
A virtual image generation unit that generates a virtual image based on the facility information;
A superimposition correction unit that acquires a displacement from the reference plane by an operation on a correction target displayed on the display unit on which an image of a predetermined area photographed by the terminal device is displayed;
By reflecting the displacement on the virtual image, a reference point of the virtual image for superimposition generated by the virtual image generation unit and a reference point displayed on the display unit are superimposed to generate an image of the real space And an image superimposing unit to be provided.
A second invention is a terminal device,
A location information acquisition unit for acquiring location information of the terminal device;
An attitude information acquisition unit for acquiring information on the attitude of the terminal device;
The position information of the member covering the invisible object is input, the reference plane is set, and the plane coordinates of the area displayed on the display unit provided in the terminal device are calculated based on the position information and the posture information An arithmetic unit for performing
A facility information acquisition unit for acquiring facility information of the invisible object in the plane coordinates from a facility information database;
A virtual image generation unit that generates a virtual image based on the facility information;
A superimposition correction unit that acquires a displacement from the reference plane by an operation on a correction target displayed on the display unit on which an image of a predetermined area photographed by the terminal device is displayed;
By reflecting the displacement on the virtual image, a reference point of the virtual image for superimposition generated by the virtual image generation unit and a reference point displayed on the display unit are superimposed to generate an image of the real space And an image superimposing unit to be provided.
A third invention is a program for causing a terminal device to visualize a displacement state of an invisible object,
Obtaining information on the position and orientation of the terminal device;
Input the position information of the member covering the invisible object, set the reference plane, and calculate the plane coordinates of the area displayed on the display unit provided in the terminal device based on the position information and the posture information The steps of
Obtaining facility information of the invisible object in the plane coordinates from a facility information database;
Generating a virtual image based on the facility information;
Displaying an image of a predetermined area photographed by the terminal device;
Obtaining a displacement from the reference plane by an operation on the correction object displayed on the display unit;
Generating a real space image by superimposing a reference point of the virtual image for superimposition generated by reflecting the displacement on the virtual image and a reference point displayed on the display unit; Is.
4th invention acquires the information of the position and attitude | position of a terminal device,
Input the position information of the member covering the invisible object, set the reference plane, and calculate the plane coordinates of the area displayed on the display unit provided in the terminal device based on the position information and the posture information The steps of
Obtaining facility information of the invisible object in the plane coordinates from a facility information database;
Generating a virtual image based on the facility information;
Displaying an image of a predetermined area photographed by the terminal device;
Obtaining a displacement from the reference plane by an operation on the correction object displayed on the display unit;
Generating a real space image by superimposing a reference point of the superimposing virtual image generated by reflecting the displacement on the virtual image and a reference point displayed on the display unit. Is.
この第1、第2、第3の発明に係る端末装置は、上記のような構成とプログラムを備え、また第4の発明は上記のような方法であるので、道路に埋設されている例えば上下水道管や通信ケーブルあるいは、鉄筋コンクリート装設備の鉄筋等外部から直視できない不可視物の位置を、現実空間の画像として動画像表示部に表示でき、俯瞰した画像となり、地震等自然災害発生による例えば液状化現象による上水道管の浮き上がりの補修工事において、上水道管の初期布設時からの深度変位を正確に把握でき、補修工法の設定、工期の見積もりの確度向上、現場作業の効率化ひいては、コストの低減につながるという効果がある。 Since the terminal device according to the first, second, and third inventions has the above-described configuration and program, and the fourth invention is the above-described method, it is embedded in a road, for example The position of invisible objects that cannot be seen directly from the outside, such as sewer pipes, communication cables, or reinforcing bars of reinforced concrete equipment, can be displayed on the video display as a real space image, resulting in a bird's-eye view, such as liquefaction due to the occurrence of natural disasters such as earthquakes In the repair work of the rise of the water supply pipe due to the phenomenon, it is possible to accurately grasp the depth displacement from the initial installation of the water supply pipe, setting the repair method, improving the accuracy of the construction period estimate, improving the efficiency of the work on site, and reducing the cost It has the effect of being connected.
実施の形態1.
以下、この発明を図に基づいて説明する。
図1は実施の形態1による道路工事等の現場作業を支援するための携帯用端末装置(以下、端末と称す)100を示すブロック図であり、図1において、端末100は後述する例えば、道路に埋設された不可視物である上水道管32が、地震等の自然災害発生に伴い部分的な損傷を受け、水漏れ現象が発生した場合の補修作業において、現場技術員(以下ユーザと称す)が端末100によって撮影する第1、第2の位置情報から得られる保持状態情報と、前記上水道管32の埋設時の位置情報を格納する設備情報データベース1とを比較して、埋設当時の位置からの変位を特定するものである。
この端末100が用いられる現場の1例を図2に示す。図2は地震発生による地面液状化現象によって上水道管32が地表面方向に持ち上がった状態を示しており、マンホール31のマンホール蓋31aは本来ならば道路面33と同じ高さにあるべきだが、液状化現象によってマンホール31、および上水道管32とともに、持ち上がっている状態である。不可視物を覆う部材に相当する道路面33には3箇所以上の複数箇所にペンキ等で描かれたマーク(標識)34が設けられており、このマーク34は基準平面を決定するのに利用される。ユーザ30は端末100を保持して利用し、この端末100によって図2に示すようにマーク34を含む所定領域内の撮影角度θ内の道路面33を撮影し、後述の演算等によって所要の補正が行われて上水道管32の変位を特定する構成を有している。
Hereinafter, the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a portable terminal device (hereinafter referred to as a terminal) 100 for supporting field work such as road construction according to the first embodiment. In FIG. In the repair work when the
An example of the site where this
端末100を構成する各要素を図1に基づいて説明する。位置情報取得部2は、端末100に内蔵されているGPS(全地球測位システム)や無線LANあるいは携帯電話基地局からの電波を利用した3点測量を可能とする機能を備え、端末100の現在位置の緯度、経度、高度情報を取得する。設備情報取得部3は、前記位置情報取得部2および後述する姿勢情報取得部4が取得した保持状態情報とをキーとして、その位置における前記上水道管32の埋設時の設備情報を格納している設備情報データベース1より、設備情報12を取得する。この際、前記設備情報取得部3は3点以上の座標で指定された領域、つまり、マーク34が設けられた領域に埋設されている設備に関する情報であって、この場合、領域内における上水道管32の布設の始点、終点、管の寸法、材質や道路面33からの深さ等の情報を取得する。姿勢情報取得部4は、端末100に内蔵された地磁気センサ、加速度センサ等を利用して、端末100の仰俯角、方位角、回転角を取得する。仮想画像生成部5は、設備情報12を基に仮想画像を生成する。重畳補正部6は後述する画像重畳部7でもって、仮装画像と現実空間の動画像を重畳した場合に、仰俯角や方位角、回転角によっては正しく重畳できない場合があり、それを補正するパラメータを生成するとともに、動画像表示部9を介して補正量の入力可能となるような機能を備えている。撮影部8は、端末100に設けられたカメラであり、静止画および動画像撮影を行う。図3に示す動画像表示部9は前記撮影部8で撮影した動画像および現実空間と仮想画像を重畳した動画像を表示する。尚、撮影部8は端末100の裏面に設けられている。演算部10は各種演算を行うものであり、その結果は記憶部11に記憶される。
Each element which comprises the
次に端末100を用いた現場作業の支援動作を、次の動作STおよび図4に基づいて説明を行う。
ST0.後述する基準平面を設定する際の基準点となるマーク34をユーザ30によって道路面33にペンキ等で3箇所以上の複数箇所を記入するステップ。
ST1.位置情報取得部2によってユーザ30が保持する端末100の第1の位置情報である現在位置の緯度、経度、高度の情報を取得するステップ。
ST2.姿勢情報取得部4によって、端末100の第2の位置情報である仰角、方位角、回転角の情報を取得するステップ。
ST3.撮影部8によって道路面33に記入された複数のマーク34を含む所定領域の画像を撮影し、前記マーク34の位置情報を入力する演算部10は基準平面を設定し、その基準平面のデータが記憶部11に記憶されるステップ。
ST4.演算部10は、ST1、ST2で取得した第1の位置情報および第2の位置情報とから得られる端末100の保持状態情報と、撮影部8の画角とから、動画像表示部9に表示される領域の平面座標を演算するステップ。
ST5.設備情報取得部3は、ST4で得られた平面座標内における道路面33下の上水道管の布設始点、終点、管の寸法、道路面33からの深さ等の設備情報12を設備情報データベース1から取得するステップ。
ST6.仮想画像生成部5はST5の設備情報12を基にして、仮想画像を生成するステップ。
ST7.動画像表示部9にユーザ30によって撮影された図2に示す撮影角θ内の所定領域の画像が図5に示すように、補正情報入力画面として表示されるステップ。
ST8.ST7の補正情報入力画面に表示され、所望の補正の対象体である道路面33から浮き上がっているマンホール蓋31aまでの部分を指または他の手段によってタッチされることで、前記ST3で設定された基準平面からのマンホール蓋31aの浮き上がりを求め、この値を入力する重畳補正部6は写像変換にて高さのでデータに変換、補正量を取得するステップ。
ST9.ST5で取得した設備情報12の内の上水道管32の埋設深さのデータに、ST8で得られた補正量をST6で作成した仮想画像に反映して、仮想画像生成部5で重畳用の仮想画像を生成するステップ。
ST10.画像重畳部7にて、ST9で生成した重畳用の仮想画像の基準点であるマンホール31と、動画像表示部9で表示される基準点であるマンホール31とを重畳することによって現実空間の動画像とするステップ。
Next, the field work support operation using the terminal 100 will be described based on the next operation ST and FIG.
ST0. A step of entering a plurality of three or more places on the
ST1. A step of acquiring the latitude, longitude, and altitude information of the current position, which is the first position information of the terminal 100 held by the
ST2. A step of acquiring information of elevation angle, azimuth angle, and rotation angle, which is second position information of the terminal 100, by the posture
ST3. The
ST4. The
ST5. The equipment information acquisition unit 3 obtains
ST6. The virtual
ST7. A step of displaying an image of a predetermined area within the photographing angle θ shown in FIG. 2 taken by the
ST8. It is displayed on the correction information input screen in ST7, and is set in ST3 by touching the part from the
ST9. The correction amount obtained in ST8 is reflected in the virtual image created in ST6 in the embedded depth data of the
ST10. The image superimposing unit 7 superimposes the
以上のように、この実施の形態1によれば、ユーザ30は道路面33にマーク34の設置と端末100を用いた動画像表示部9上での操作によって、埋設された上水道管32の道路面33からの深さ方向の補正が容易に行えるとともに、前記ST10において動画像表示部9上で視認可能となり、例えば地震発生後の地下埋設物である上水道管32の初期布設時からの深度変位の正確な把握が可能となり、作業工法の設定、工期の見積もり等の現場作業の効率化がはかれ、ひいてはコスト低減につながるという効果がある。
As described above, according to the first embodiment, the
実施の形態2.
前述した実施の形態1における端末100は、この端末100に内蔵されたGPSや、無線LANあるいは携帯電話局からの電波を利用した3点測量が可能なものであった。この実施の形態2では、スマートフォンやタブレットで利用可能なGPSに加え、GPS専用端末で実現されているGDPS(Differential GPS)やRTK−GPS(Real Time Kinematic−GPS)等の測位方法によって取得した位置情報を設備情報取得部3の入力として利用する構成としてもよい。これにより、より高精度な位置合わせが可能で画像の重畳もより正確となる。
The terminal 100 according to the first embodiment described above is capable of three-point surveying using a GPS built in the terminal 100, a radio wave from a wireless LAN, or a mobile phone station. In the second embodiment, in addition to GPS that can be used on a smartphone or tablet, a position acquired by a positioning method such as GDPS (Differential GPS) or RTK-GPS (Real Time Kinetic-GPS) that is realized by a GPS dedicated terminal. It is good also as a structure which utilizes information as an input of the facility information acquisition part 3. FIG. As a result, more accurate alignment is possible, and image superimposition is more accurate.
実施の形態3.
実施の形態1では不可視物である上水道管32の埋設された位置の深度情報を補正して、端末100の動画像表示部9に表示するものであるが、この実施の形態3では前述したST10で得られた前記動画像表示部9の画像情報を入力する設備情報取得部3は、設備情報12として設備情報データベース1に格納する、すなわち書き戻す機能を備えたものである。この場合、設備情報データベース1は端末100に設けてもよく、あるいは通信回線を介してアクセス可能な場所に配置されているものであってもよい。
このように、この実施の形態3によって、深度補正された上水道管32の位置情報が、設備情報データベース1に書き戻されることで、最新の情報が格納され次施工時等における作業効率が向上する。
Embodiment 3 FIG.
In the first embodiment, the depth information of the position where the
As described above, according to the third embodiment, the position information of the
実施の形態4.
実施の形態1では端末100が図2に示したように、いわゆる携帯型であったがこの実施の形態4では、端末100に設けられた要素機能を2つに分け、一方を眼鏡型に収納し、残りを図2に示したようないわゆる携帯型に収納したものである。すなわち図1に示した各構成要素の内、位置情報取得部2、姿勢情報取得部4、撮影部8、動画像表示部9とが一体化された眼鏡型端末装置に収納され、設備情報取得部3、仮想画像生成部5、重畳補正部6、画像重畳部7、演算部10、記憶部11を図2に示したような携帯型端末装置に収納したものである。この場合、携帯型端末装置に設けられる前記設備情報取得部3、仮想画像生成部5、重畳補正部6、画像重畳部7、演算部10、記憶部11は必ずしも作業現場に配置する必要はなく、例えば、作業現場に隣接した事務所内や市役所に配置して通信手段によるアクセス可能な方式を採用してもよい。
以上のように2分割構造とすることにより可能性が向上し、ユーザ30が端末100を保持する必要がなく作業効率が上昇する効果がある。
In the first embodiment, the terminal 100 is a so-called portable type as shown in FIG. 2, but in this fourth embodiment, the element function provided in the terminal 100 is divided into two, and one is stored in a glasses type. The rest is stored in a so-called portable type as shown in FIG. That is, among the components shown in FIG. 1, the position
As described above, the two-divided structure improves the possibility, and there is an effect that the
実施の形態5.
実施の形態1では、マーク(標識)34を道路面33にペンキ等で描く場合について述べたが、不可視物を覆う部材であって既存設備である道路のセンタラインや横断歩道等の目印となるものを利用して基準平面が設定されるようにしてもよい。このことにより、端末100の利便性が向上する。
In the first embodiment, the case where the mark (sign) 34 is drawn on the
実施の形態6.
前述した実施の形態1のST5において、設備情報取得部3が取得する上水道管32に関する設備情報12は、上水道管32の布設の始点、終点、管の寸法、道路面33からの深度等であったが、この実施の形態6では前記取得する設備情報に代替して、設備情報データベース1に格納されている設備図面とするものである。すなわち、設備情報データベース1には加えて、前記不可視物の設備情報である設備図面が格納されており、ユーザ30は端末100を操作することによって、設備情報取得部3を介して、設備情報データベース1より前述した平面座標内における、設備図面を設備情報12として取得し、引き続き実施の形態1で述べたST7の設備情報12に代替して取得した設備図面を基にして仮想画像生成部5で仮想画像を生成するものである。すなわち、前述した実施の形態1における現場作業のステップにおいて、ST5とST6とを以下のST5a、ST6aとしたものであり、これ以外は、実施の形態1と同様である。
ST5a.設備情報取得部3は、前記ST4で得られた平面座標内における不可視物の設備図面を設備情報12として設備情報データベース1から取得するステップ。
ST6a.ST5aの設備図面を仮想画像生成部5で仮想画面として生成するステップ。
以上のように、この実施の形態6では設備情報データベース1に格納されている設備図面を設備情報12として取得するので、ST10で得られる現実空間の動画像には、設備図面に記載されている上水道管32以外であって、この上水道管32に隣接して設けられている他の埋設物も表示されることになり、補修作業実施時のより安住性が確保できるという効果がある。尚、設備図面は前記設備情報データベース1に格納されている例を示したが、別途設けられた設備図面データベースから取得するものであってもよい。
Embodiment 6 FIG.
In ST5 of the first embodiment described above, the
ST5a. The facility information acquisition unit 3 acquires from the
ST6a. A step of generating the equipment drawing of ST5a as a virtual screen by the virtual
As described above, since the facility drawing stored in the
上記実施の形態1〜6は、道路下に布設された上水道管32を不可視物としたが、これに限らず置物等における鉄筋コンクリートの鉄筋等であってもよい。
In the first to sixth embodiments, the
尚、この発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、その実施の形態を適宜、変形、省略することが可能である。 It should be noted that within the scope of the present invention, the embodiments can be freely combined, or the embodiments can be appropriately modified or omitted.
1 設備情報データベース、2 位置情報取得部、3 設備情報取得部、
4 姿勢情報取得部、5 仮想画像生成部、6 重畳補正部、7 画像重畳部、
8 撮影部、9 動画像表示部、10 演算部、12 設備情報、31 マンホール、
31a マンホール蓋、32 上水道管、33 道路面、34 マーク、100 端末。
1 equipment information database, 2 position information acquisition unit, 3 equipment information acquisition unit,
4 posture information acquisition unit, 5 virtual image generation unit, 6 superimposition correction unit, 7 image superimposition unit,
8 shooting section, 9 moving image display section, 10 calculation section, 12 equipment information, 31 manhole,
31a Manhole cover, 32 Water pipe, 33 Road surface, 34 mark, 100 terminal.
Claims (8)
前記端末装置の位置の情報を取得する位置情報取得部と、
前記端末装置の姿勢の情報を取得する姿勢情報取得部と、
不可視物を覆う部材に設けられたマークの位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報に基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行う演算部と、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得する設備情報取得部と、
前記設備情報を基に仮想画像を生成する仮想画像生成部と、
前記端末装置によって撮影された所定領域の画像が表示される前記表示部に表示された補正対象体に対する操作により、前記基準平面からの変位を取得する重畳補正部と、
前記変位を前記仮想画像に反映することにより前記仮想画像生成部で生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成する画像重畳部と
が設けられた端末装置。 A terminal device,
A location information acquisition unit for acquiring location information of the terminal device;
An attitude information acquisition unit for acquiring information on the attitude of the terminal device;
An area displayed on a display unit provided in the terminal device based on the position information and the posture information, by inputting position information of a mark provided on a member covering an invisible object, setting a reference plane A calculation unit for calculating the plane coordinates of
A facility information acquisition unit for acquiring facility information of the invisible object in the plane coordinates from a facility information database;
A virtual image generation unit that generates a virtual image based on the facility information;
A superimposition correction unit that acquires a displacement from the reference plane by an operation on a correction target displayed on the display unit on which an image of a predetermined area photographed by the terminal device is displayed;
By reflecting the displacement on the virtual image, a reference point of the virtual image for superimposition generated by the virtual image generation unit and a reference point displayed on the display unit are superimposed to generate an image of the real space A terminal device provided with an image superimposing unit.
前記端末装置の位置の情報を取得する位置情報取得部と、
前記端末装置の姿勢の情報を取得する姿勢情報取得部と、
不可視物を覆う部材の位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報に基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行う演算部と、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得する設備情報取得部と、
前記設備情報を基に仮想画像を生成する仮想画像生成部と、
前記端末装置によって撮影された所定領域の画像が表示される前記表示部に表示された補正対象体に対する操作により、前記基準平面からの変位を取得する重畳補正部と、
前記変位を前記仮想画像に反映することにより前記仮想画像生成部で生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成する画像重畳部と
が設けられた端末装置。 A terminal device,
A location information acquisition unit for acquiring location information of the terminal device;
An attitude information acquisition unit for acquiring information on the attitude of the terminal device;
The position information of the member covering the invisible object is input, the reference plane is set, and the plane coordinates of the area displayed on the display unit provided in the terminal device are calculated based on the position information and the posture information An arithmetic unit for performing
A facility information acquisition unit for acquiring facility information of the invisible object in the plane coordinates from a facility information database;
A virtual image generation unit that generates a virtual image based on the facility information;
A superimposition correction unit that acquires a displacement from the reference plane by an operation on a correction target displayed on the display unit on which an image of a predetermined area photographed by the terminal device is displayed;
By reflecting the displacement on the virtual image, a reference point of the virtual image for superimposition generated by the virtual image generation unit and a reference point displayed on the display unit are superimposed to generate an image of the real space A terminal device provided with an image superimposing unit.
前記端末装置の位置および姿勢の情報を取得するステップと、
不可視物を覆う部材位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報とに基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行うステップと、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得するステップと、
前記設備情報を基に仮想画像を生成するステップと、
前記端末装置によって撮影された所定領域の画像を表示するステップと、
前記表示部に表示された補正対象体に対する操作により前記基準平面からの変位を取得するステップと、
前記変位を前記仮想画像に反映することによって生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成するステップと
を実行させる端末装置用プログラム。 A program for causing a terminal device to visualize the displacement state of an invisible object,
Obtaining information on the position and orientation of the terminal device;
Input the position information of the member covering the invisible object, set the reference plane, and calculate the plane coordinates of the area displayed on the display unit provided in the terminal device based on the position information and the posture information The steps of
Obtaining facility information of the invisible object in the plane coordinates from a facility information database;
Generating a virtual image based on the facility information;
Displaying an image of a predetermined area photographed by the terminal device;
Obtaining a displacement from the reference plane by an operation on the correction object displayed on the display unit;
Generating a real space image by superimposing a reference point of the virtual image for superimposition generated by reflecting the displacement on the virtual image and a reference point displayed on the display unit; Terminal device program.
前記現実空間の画像を前記設備情報データベースに格納するステップを含む請求項5に記載の端末装置用プログラム。 The step of generating an image of the real space includes
The terminal device program according to claim 5, comprising a step of storing the real space image in the facility information database.
不可視物を覆う部材位置情報を入力し、基準平面を設定するとともに、前記位置の情報および前記姿勢の情報とに基づいて前記端末装置に設けられた表示部に表示される領域の平面座標の演算を行うステップと、
前記平面座標内における前記不可視物の設備情報を設備情報データベースから取得するステップと、
前記設備情報を基に仮想画像を生成するステップと、
前記端末装置によって撮影された所定領域の画像を表示するステップと、
前記表示部に表示された補正対象体に対する操作により前記基準平面からの変位を取得するステップと、
前記変位を前記仮想画像に反映することによって生成された重畳用仮想画像の基準点と、前記表示部で表示される基準点とを重畳することで現実空間の画像を生成するステップと
を備えた不可視物の変位状態可視化方法。 Obtaining information on the position and orientation of the terminal device;
Input the position information of the member covering the invisible object, set the reference plane, and calculate the plane coordinates of the area displayed on the display unit provided in the terminal device based on the position information and the posture information The steps of
Obtaining facility information of the invisible object in the plane coordinates from a facility information database;
Generating a virtual image based on the facility information;
Displaying an image of a predetermined area photographed by the terminal device;
Obtaining a displacement from the reference plane by an operation on the correction object displayed on the display unit;
Generating a real space image by superimposing a reference point of the superimposing virtual image generated by reflecting the displacement on the virtual image and a reference point displayed on the display unit. Displacement state visualization method for invisible objects.
前記現実空間の画像を前記設備情報データベースに格納するステップを含む請求項7に記載の不可視物の変位状態可視化方法。 The step of generating an image of the real space includes
The method for visualizing a displacement state of an invisible object according to claim 7, further comprising the step of storing an image of the real space in the facility information database.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016208258A JP6230678B2 (en) | 2016-10-25 | 2016-10-25 | Terminal device, terminal device program, and invisible object displacement state visualization method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016208258A JP6230678B2 (en) | 2016-10-25 | 2016-10-25 | Terminal device, terminal device program, and invisible object displacement state visualization method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013256113A Division JP6033209B2 (en) | 2013-12-11 | 2013-12-11 | Portable terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017073139A true JP2017073139A (en) | 2017-04-13 |
JP6230678B2 JP6230678B2 (en) | 2017-11-15 |
Family
ID=58538284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016208258A Expired - Fee Related JP6230678B2 (en) | 2016-10-25 | 2016-10-25 | Terminal device, terminal device program, and invisible object displacement state visualization method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6230678B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019212225A (en) * | 2018-06-08 | 2019-12-12 | 朝日航洋株式会社 | Terminal device and terminal device control method |
JP2021157717A (en) * | 2020-03-30 | 2021-10-07 | 東邦瓦斯株式会社 | Augmented reality display device |
CN114491878A (en) * | 2021-11-18 | 2022-05-13 | 广州泰禾大数据服务有限公司 | Linear full real-time data dynamic visual analysis method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6094625A (en) * | 1997-07-03 | 2000-07-25 | Trimble Navigation Limited | Augmented vision for survey work and machine control |
JP2002092647A (en) * | 2000-09-19 | 2002-03-29 | Olympus Optical Co Ltd | Information presentation system and model error detection system |
JP2009538487A (en) * | 2006-05-26 | 2009-11-05 | アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド | System and method for displaying device maintenance and operation instructions using augmented reality |
US20120127161A1 (en) * | 2010-09-02 | 2012-05-24 | Mark Wallbom | System, apparatus, and method for utilizing geographic information systems |
JP2012133471A (en) * | 2010-12-20 | 2012-07-12 | Kokusai Kogyo Co Ltd | Image composer, image composition program and image composition system |
-
2016
- 2016-10-25 JP JP2016208258A patent/JP6230678B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6094625A (en) * | 1997-07-03 | 2000-07-25 | Trimble Navigation Limited | Augmented vision for survey work and machine control |
JP2002092647A (en) * | 2000-09-19 | 2002-03-29 | Olympus Optical Co Ltd | Information presentation system and model error detection system |
JP2009538487A (en) * | 2006-05-26 | 2009-11-05 | アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド | System and method for displaying device maintenance and operation instructions using augmented reality |
US20120127161A1 (en) * | 2010-09-02 | 2012-05-24 | Mark Wallbom | System, apparatus, and method for utilizing geographic information systems |
JP2012133471A (en) * | 2010-12-20 | 2012-07-12 | Kokusai Kogyo Co Ltd | Image composer, image composition program and image composition system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019212225A (en) * | 2018-06-08 | 2019-12-12 | 朝日航洋株式会社 | Terminal device and terminal device control method |
JP2021157717A (en) * | 2020-03-30 | 2021-10-07 | 東邦瓦斯株式会社 | Augmented reality display device |
JP7277410B2 (en) | 2020-03-30 | 2023-05-18 | 東邦ガスネットワーク株式会社 | augmented reality display |
CN114491878A (en) * | 2021-11-18 | 2022-05-13 | 广州泰禾大数据服务有限公司 | Linear full real-time data dynamic visual analysis method |
Also Published As
Publication number | Publication date |
---|---|
JP6230678B2 (en) | 2017-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6033209B2 (en) | Portable terminal device | |
US9619944B2 (en) | Coordinate geometry augmented reality process for internal elements concealed behind an external element | |
JP5682060B2 (en) | Image composition apparatus, image composition program, and image composition system | |
US9552669B2 (en) | System, apparatus, and method for utilizing geographic information systems | |
JP4940036B2 (en) | Image display system with stereoscopic measure display function and image display program with stereoscopic measure display function | |
KR100822814B1 (en) | Method for overlapping real-time landscape image and gis data | |
KR101852368B1 (en) | Method for underground information based on vrs geometric-correction used by uav taking picture | |
JP6230678B2 (en) | Terminal device, terminal device program, and invisible object displacement state visualization method | |
Hansen et al. | Augmented reality for subsurface utility engineering, revisited | |
KR20210022343A (en) | Method and system for providing mixed reality contents related to underground facilities | |
JP5669438B2 (en) | Object management image generation apparatus and object management image generation program | |
JP2004037419A (en) | Tunnel control chart and its system | |
JP2018091721A (en) | Underground pipe management device, method for managing underground pipe, and underground pipe management program | |
KR20130007142A (en) | Method and recording medium for providing information based on augmented reality in mobile terminal | |
JP7277410B2 (en) | augmented reality display | |
JP3691454B2 (en) | Ground displacement positioning system | |
JP2019078033A (en) | Off-set diagram creation support system, off-set diagram creation support method, flying body used for the off-set diagram creation support system, and off-set diagram creation support device | |
KR101401265B1 (en) | an apparatus for offering the location of underground facilities | |
US10185787B1 (en) | Tool for accurate onsite model visualization that facilitates environment interaction | |
JP2008009855A (en) | Facility planning system by three-dimensional photogrammetry | |
JP2012194002A (en) | Measurement system | |
KR102474883B1 (en) | Device and Mehtod for measuring underground facility location | |
JP7492160B2 (en) | Display device, display method, and program | |
JP2021163295A (en) | Work support device | |
JP2005308446A (en) | Wide-area facility confirmation method, wide-area facility confirmation system, and facility information server device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6230678 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |