[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7113997B1 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7113997B1
JP7113997B1 JP2022510165A JP2022510165A JP7113997B1 JP 7113997 B1 JP7113997 B1 JP 7113997B1 JP 2022510165 A JP2022510165 A JP 2022510165A JP 2022510165 A JP2022510165 A JP 2022510165A JP 7113997 B1 JP7113997 B1 JP 7113997B1
Authority
JP
Japan
Prior art keywords
unit
dimensional
specified
point
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022510165A
Other languages
Japanese (ja)
Other versions
JPWO2023084602A1 (en
Inventor
貴志 満越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP7113997B1 publication Critical patent/JP7113997B1/en
Publication of JPWO2023084602A1 publication Critical patent/JPWO2023084602A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

情報処理装置(1)は、データ取得部(31)と、第1の表示処理部(40)と、特定部(34)と、第2の表示処理部(41)と、距離算出部(35)とを備える。データ取得部(31)は、撮像画像のデータと3次元点群のデータとを取得する。第1の表示処理部(40)は、撮像画像のデータに基づいて、撮像画像を表示部(12)に表示させる。特定部(34)は、表示部(12)に表示された撮像画像のうち利用者によって指定された点に対応する3次元点を複数の3次元点の中から特定する。第2の表示処理部(41)は、特定部(34)によって特定された3次元点を撮像画像上に重畳させた状態で表示部(12)に表示させる。距離算出部(35)は、利用者によって指定された2つの点に対応する3次元点が特定部(34)によって特定された場合、特定部(34)によって特定された2つの点に対応する2つの3次元点間の距離を算出する。An information processing device (1) includes a data acquisition unit (31), a first display processing unit (40), a specifying unit (34), a second display processing unit (41), a distance calculation unit (35 ). A data acquisition unit (31) acquires captured image data and three-dimensional point group data. A first display processing section (40) causes the display section (12) to display the captured image based on the data of the captured image. A specifying unit (34) specifies a three-dimensional point corresponding to a point specified by the user in the captured image displayed on the display unit (12) from among a plurality of three-dimensional points. A second display processing unit (41) causes the display unit (12) to display the three-dimensional point specified by the specifying unit (34) in a state of being superimposed on the captured image. When the identifying unit (34) identifies three-dimensional points corresponding to the two points designated by the user, the distance calculating unit (35) determines the distance corresponding to the two points identified by the identifying unit (34). Calculate the distance between two 3D points.

Description

本開示は、撮像画像上で指定された2つの点の距離を算出する情報処理装置、情報処理方法、および情報処理プログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and an information processing program for calculating a distance between two points specified on a captured image.

従来、トンネルまたは橋梁などの構造物に対して定期的な点検が行われているが、構造物の状態を現地に赴いて目視で点検する作業は煩雑であることから、構造物を撮像した撮像画像を収集し、収集した撮像画像に基づいて、点検作業者が構造物の状態の確認を行う手法が採用されている。 Conventionally, structures such as tunnels and bridges are regularly inspected. A technique is adopted in which images are collected and an inspection operator confirms the state of the structure based on the collected captured images.

構造物の状態を確認する際、構造物の変状の大きさなどの確認を目的として、撮像画像上で点検作業者が指定した2つの点間の距離を計測するニーズがある。点検作業者が指定した2つの点間の距離を測定するためには、指定された2つの点の座標が必要である。そこで、特許文献1には、画像解析によって撮像画像内で指定された2つの点間の距離を計測する技術が示されている。 When checking the state of a structure, there is a need to measure the distance between two points specified by an inspection operator on a captured image for the purpose of checking the size of deformation of the structure. In order to measure the distance between two points specified by the inspection operator, the coordinates of the two specified points are required. Therefore, Patent Literature 1 discloses a technique for measuring the distance between two points specified in a captured image by image analysis.

特開2020-165729号公報JP 2020-165729 A

上記特許文献1に記載の技術では、撮像画像上において指定された3つ以上の点から、面、擬似曲線、または直線などの線図を算出し、算出した線図間の距離を算出しているが、線図の位置または範囲によっては距離計測の精度が悪化する可能性がある。 In the technique described in Patent Document 1, a diagram such as a plane, a pseudo-curve, or a straight line is calculated from three or more points specified on a captured image, and the distance between the calculated diagrams is calculated. However, the accuracy of distance measurement may deteriorate depending on the position or range of the diagram.

本開示は、上記に鑑みてなされたものであって、精度よく距離計測を行うことができる情報処理装置を得ることを目的とする。 The present disclosure has been made in view of the above, and an object thereof is to obtain an information processing apparatus capable of accurately measuring a distance.

上述した課題を解決し、目的を達成するために、本開示の情報処理装置は、データ取得部と、第1の表示処理部と、特定部と、第2の表示処理部と、距離算出部とを備える。データ取得部は、構造物を撮像して得られる撮像画像のデータと構造物を3次元座標系の複数の3次元点で表す3次元点群のデータとを取得する。第1の表示処理部は、撮像画像のデータに基づいて、撮像画像を表示部に表示させる。特定部は、表示部に表示された撮像画像のうち利用者によって指定された点に対応する3次元点を複数の3次元点の中から特定する。第2の表示処理部は、特定部によって特定された3次元点を撮像画像上に重畳させた状態で表示部に表示させる。距離算出部は、利用者によって指定された2つの点に対応する3次元点が特定部によって特定された場合、特定部によって特定された2つの点に対応する2つの3次元点間の距離を算出する。 In order to solve the above-described problems and achieve the object, the information processing apparatus of the present disclosure includes a data acquisition unit, a first display processing unit, a specifying unit, a second display processing unit, and a distance calculation unit. and The data acquisition unit acquires captured image data obtained by imaging a structure and three-dimensional point group data representing the structure with a plurality of three-dimensional points in a three-dimensional coordinate system. The first display processing unit causes the display unit to display the captured image based on the data of the captured image. The specifying unit specifies a three-dimensional point corresponding to the point specified by the user in the captured image displayed on the display unit, from among a plurality of three-dimensional points. The second display processing unit causes the display unit to display the three-dimensional point specified by the specifying unit in a state of being superimposed on the captured image. When the specifying unit specifies three-dimensional points corresponding to the two points specified by the user, the distance calculating unit calculates the distance between the two three-dimensional points corresponding to the two points specified by the specifying unit. calculate.

本開示によれば、精度よく距離計測を行うことができる、という効果を奏する。 Advantageous Effects of Invention According to the present disclosure, there is an effect that distance measurement can be performed with high accuracy.

実施の形態1にかかる計測処理システムの構成の一例を示す図1 is a diagram showing an example of a configuration of a measurement processing system according to a first embodiment; FIG. 実施の形態1にかかる計測車両が備える計測装置の構成の一例を示す図FIG. 2 is a diagram showing an example of the configuration of a measurement device included in the measurement vehicle according to the first embodiment; FIG. 実施の形態1にかかる計測車両が備える計測装置の3次元計測部によって計測された構造物の3次元点群の一例を示す図FIG. 2 is a diagram showing an example of a three-dimensional point cloud of a structure measured by a three-dimensional measurement unit of the measurement device provided in the measurement vehicle according to the first embodiment; 実施の形態1にかかる情報処理装置の構成の一例を示す図1 is a diagram showing an example of a configuration of an information processing apparatus according to a first embodiment; FIG. 実施の形態1にかかる情報処理装置の撮像画像データ記憶部に記憶される撮像画像データテーブルの一例を示す図FIG. 4 is a diagram showing an example of a captured image data table stored in a captured image data storage unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の3次元点群データ記憶部に記憶される3次元点群データテーブルの一例を示す図FIG. 4 is a diagram showing an example of a three-dimensional point cloud data table stored in the three-dimensional point cloud data storage unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の特定点データ記憶部に記憶される特定点データテーブルの一例を示す図FIG. 4 is a diagram showing an example of a specific point data table stored in a specific point data storage unit of the information processing apparatus according to the first embodiment; FIG. 実施の形態1にかかる情報処理装置の第1の表示処理部によって表示部に表示される撮像画像の一例を示す図FIG. 4 is a diagram showing an example of a captured image displayed on the display unit by the first display processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の第1の表示処理部による3次元点群の移動方法を説明するための図FIG. 4 is a diagram for explaining a method of moving a three-dimensional point group by a first display processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の第2の表示処理部によって表示部に表示される撮像画像の一例を示す図FIG. 4 is a diagram showing an example of a captured image displayed on a display unit by a second display processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の第3の表示処理部によって表示部に表示される特定点間距離の一例を示す図FIG. 4 is a diagram showing an example of distances between specific points displayed on the display unit by the third display processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の第3の表示処理部によって表示部に表示される接続線総距離の一例を示す図FIG. 5 is a diagram showing an example of a total distance of connection lines displayed on the display unit by the third display processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の特定部による特定点の判定方法の一例を示す図FIG. 4 is a diagram showing an example of a specific point determination method by the specifying unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の処理部による処理の一例を示すフローチャート4 is a flowchart showing an example of processing by a processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の処理部による撮像画像表示処理の一例を示すフローチャート4 is a flowchart showing an example of captured image display processing by the processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の処理部による特定点間距離測定処理の一例を示すフローチャート4 is a flowchart showing an example of distance measurement processing between specific points by the processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の処理部による特定点判定処理の一例を示すフローチャート3 is a flowchart showing an example of specific point determination processing by the processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の処理部による3次元点群処理の一例を示すフローチャート3 is a flowchart showing an example of three-dimensional point group processing by the processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置の処理部による接続線総距離測定処理の一例を示すフローチャート3 is a flowchart showing an example of connection line total distance measurement processing by the processing unit of the information processing apparatus according to the first embodiment; 実施の形態1にかかる情報処理装置のハードウェア構成の一例を示す図1 is a diagram showing an example of a hardware configuration of an information processing apparatus according to a first embodiment; FIG.

以下に、実施の形態にかかる情報処理装置、情報処理方法、および情報処理プログラムを図面に基づいて詳細に説明する。 An information processing apparatus, an information processing method, and an information processing program according to embodiments will be described in detail below with reference to the drawings.

実施の形態1.
図1は、実施の形態1にかかる計測処理システムの構成の一例を示す図である。図1に示すように、実施の形態1にかかる計測処理システム100は、情報処理装置1と、計測車両2とを備える。
Embodiment 1.
1 is a diagram illustrating an example of a configuration of a measurement processing system according to a first embodiment; FIG. As shown in FIG. 1 , the measurement processing system 100 according to the first embodiment includes an information processing device 1 and a measurement vehicle 2 .

計測車両2は、車両本体60と、車両本体60に搭載された計測装置70とを備える。計測装置70は、車両本体60が走行中に周囲に存在する構造物を撮像したり、構造物の3次元形状を計測したりする。図1に示す例では、構造物は、道路4、トンネル5、およびガードレール6などであるが、かかる例に限定されず、例えば、看板、信号機、橋梁などであってもよい。なお、計測車両2の車両本体60は、走行路を走行する車両であり、図1に示す例では、道路4を走行路として走行する自動車であるが、レールを走行路として走行する鉄道車両であってもよい。 The measurement vehicle 2 includes a vehicle body 60 and a measurement device 70 mounted on the vehicle body 60 . The measuring device 70 captures images of structures existing around the vehicle body 60 while the vehicle body 60 is running, and measures the three-dimensional shape of the structure. In the example shown in FIG. 1, the structures are roads 4, tunnels 5, guardrails 6, and the like, but are not limited to such examples, and may be, for example, signboards, traffic lights, bridges, and the like. The vehicle body 60 of the measurement vehicle 2 is a vehicle that travels on the road. In the example shown in FIG. 1, it is an automobile that travels on the road 4 as the travel path. There may be.

計測装置70は、構造物を撮像して得られる画像である撮像画像のデータを含む撮像画像データ、構造物を3次元座標系の複数の3次元点で表す3次元点群のデータを含む3次元点群データを生成する。以下において、構造物を3次元座標系の複数の3次元点で表す3次元点群を構造物の3次元点群または3次元点群と記載する場合がある。 The measurement device 70 includes captured image data including captured image data obtained by capturing an image of a structure, and three-dimensional point cloud data representing a structure with a plurality of three-dimensional points in a three-dimensional coordinate system. Generate dimensional point cloud data. Hereinafter, a three-dimensional point group representing a structure with a plurality of three-dimensional points in a three-dimensional coordinate system may be referred to as a three-dimensional point group of the structure or a three-dimensional point group.

計測装置70は、ネットワーク3を介して情報処理装置1との間でデータの送受信が可能であり、情報処理装置1へネットワーク3を介して撮像画像データおよび3次元点群データなどを送信する。ネットワーク3は、例えば、インターネットなどのWAN(Wide Area Network)であるが、LAN(Local Area Network)であってもよく、その他のネットワークであってもよい。 The measuring device 70 can transmit and receive data to and from the information processing device 1 via the network 3 , and transmits captured image data, three-dimensional point cloud data, and the like to the information processing device 1 via the network 3 . The network 3 is, for example, a WAN (Wide Area Network) such as the Internet, but may be a LAN (Local Area Network) or other networks.

図2は、実施の形態1にかかる計測車両が備える計測装置の構成の一例を示す図である。図2に示すように、計測車両2が備える計測装置70は、撮像部71と、3次元計測部72と、位置検出部73と、処理部74と、通信部75とを備える。 FIG. 2 is a diagram illustrating an example of a configuration of a measurement device included in the measurement vehicle according to the first embodiment; As shown in FIG. 2 , the measurement device 70 included in the measurement vehicle 2 includes an imaging section 71 , a three-dimensional measurement section 72 , a position detection section 73 , a processing section 74 and a communication section 75 .

撮像部71は、車両本体60が走行中に周囲に存在する構造物を撮像し、撮像によって得られる構造物の撮像画像のデータを処理部74へ出力する。撮像部71は、例えば、全天球カメラ、半天球カメラ、またはパノラマカメラであるが、かかる例に限定されない。 The imaging unit 71 captures images of structures existing around the vehicle body 60 while the vehicle body 60 is running, and outputs data of captured images of the structures obtained by the imaging to the processing unit 74 . The imaging unit 71 is, for example, an omnidirectional camera, a semi-spherical camera, or a panorama camera, but is not limited to such examples.

全天球カメラは、360度カメラとも呼ばれ、全天球画像のデータを撮像画像のデータとして出力し、半天球カメラは、180度カメラとも呼ばれ、半天球画像のデータを撮像画像のデータとして出力する。パノラマカメラは、例えば、水平360度のパノラマ画像または水平180度のパノラマ画像を撮像画像のデータとして出力する。 An omnidirectional camera is also called a 360-degree camera, and outputs omnidirectional image data as captured image data. output as A panoramic camera outputs, for example, a horizontal 360-degree panoramic image or a horizontal 180-degree panoramic image as captured image data.

3次元計測部72は、車両本体60が走行中に周囲に存在する構造物を計測し、計測して得られる構造物の3次元点群のデータを含む3次元点群データを処理部74へ出力する。3次元計測部72は、例えば、レーザスキャナ装置を含んでおり、かかるレーザスキャナ装置によって得られる計測データから構造物の3次元点群データを生成する。 The three-dimensional measurement unit 72 measures structures existing around the vehicle body 60 while the vehicle body 60 is running, and sends three-dimensional point cloud data including three-dimensional point cloud data of the structures obtained by the measurement to the processing unit 74 . Output. The three-dimensional measurement unit 72 includes, for example, a laser scanner device, and generates three-dimensional point cloud data of a structure from measurement data obtained by such a laser scanner device.

図3は、実施の形態1にかかる計測車両が備える計測装置の3次元計測部によって計測された構造物の3次元点群の一例を示す図である。図3に示す3次元点群80は、道路4の3次元点群81、トンネル5の3次元点群82、ガードレール6の3次元点群83が含まれる。3次元計測部72から出力される3次元点群データには、3次元点群80を構成する複数の3次元点の各々の座標を示すデータが含まれる。 FIG. 3 is a diagram showing an example of a three-dimensional point group of a structure measured by a three-dimensional measurement unit of the measurement device provided in the measurement vehicle according to the first embodiment. A 3D point group 80 shown in FIG. 3 includes a 3D point group 81 of the road 4 , a 3D point group 82 of the tunnel 5 , and a 3D point group 83 of the guardrail 6 . The three-dimensional point group data output from the three-dimensional measurement unit 72 includes data indicating the coordinates of each of the plurality of three-dimensional points forming the three-dimensional point group 80 .

位置検出部73は、車両本体60が走行中に撮像部71が構造物を撮像したときの計測装置70の位置を検出し、検出した位置のデータである位置データを処理部74へ出力する。位置検出部73は、GNSS(Global Navigation Satellite System)における複数の測位衛星から送信される複数の測位信号を受信し、受信した複数の測位信号に基づいて、計測装置70の位置を検出する。 The position detection unit 73 detects the position of the measuring device 70 when the imaging unit 71 captures an image of the structure while the vehicle body 60 is running, and outputs position data, which is data of the detected position, to the processing unit 74 . The position detection unit 73 receives a plurality of positioning signals transmitted from a plurality of positioning satellites in GNSS (Global Navigation Satellite System), and detects the position of the measuring device 70 based on the received plurality of positioning signals.

位置検出部73から出力される位置データは、緯度、経度、および高度の各々のデータを含む。撮像部71の近くに配置されており、位置検出部73によって検出される計測装置70の位置は、撮像部71によって撮像された画像である撮像画像の視点位置として用いられる。 The position data output from position detection unit 73 includes latitude, longitude, and altitude data. The position of the measuring device 70 that is arranged near the imaging unit 71 and detected by the position detection unit 73 is used as the viewpoint position of the captured image that is the image captured by the imaging unit 71 .

処理部74は、撮像部71から出力される撮像画像のデータと、3次元計測部72から出力される3次元点群データと、位置検出部73から出力される位置データとを取得する。処理部74は、撮像部71から出力される撮像画像のデータと、位置検出部73から出力される車両本体60の位置とに基づいて、撮像画像データを生成する。撮像画像データには、撮像画像のデータと視点位置のデータとが含まれる。 The processing unit 74 acquires captured image data output from the imaging unit 71 , three-dimensional point cloud data output from the three-dimensional measurement unit 72 , and position data output from the position detection unit 73 . The processing unit 74 generates captured image data based on the captured image data output from the imaging unit 71 and the position of the vehicle body 60 output from the position detection unit 73 . The captured image data includes captured image data and viewpoint position data.

処理部74は、生成した撮像画像データと3次元計測部72から出力される3次元点群データとを通信部75へ出力する。通信部75は無線によってネットワーク3に接続されており、処理部74から取得した撮像画像データおよび3次元点群データを情報処理装置1へネットワーク3を介して送信する。なお、計測装置70と情報処理装置1との間のデータの受け渡しは、記録媒体を用いて行うこともできる。また、3次元点群データは、3次元計測部72から出力される計測データに基づいて処理部74によって生成されてもよい。 The processing unit 74 outputs the generated captured image data and the three-dimensional point cloud data output from the three-dimensional measurement unit 72 to the communication unit 75 . The communication unit 75 is wirelessly connected to the network 3 , and transmits captured image data and three-dimensional point cloud data acquired from the processing unit 74 to the information processing device 1 via the network 3 . Data transfer between the measuring device 70 and the information processing device 1 can also be performed using a recording medium. Also, the three-dimensional point cloud data may be generated by the processing section 74 based on the measurement data output from the three-dimensional measurement section 72 .

図4は、実施の形態1にかかる情報処理装置の構成の一例を示す図である。図4に示すように、情報処理装置1は、通信部10と、入力部11と、表示部12と、記憶部13と、処理部14とを備える。 4 is a diagram illustrating an example of a configuration of an information processing apparatus according to the first embodiment; FIG. As shown in FIG. 4 , the information processing device 1 includes a communication section 10 , an input section 11 , a display section 12 , a storage section 13 and a processing section 14 .

通信部10は、ネットワーク3に有線または無線によって通信可能に接続され、ネットワーク3を介して、計測装置70、不図示のプリンタ、または端末装置などの外部装置との間で情報の送受信を行う。 The communication unit 10 is communicably connected to the network 3 by wire or wirelessly, and transmits and receives information to and from an external device such as a measuring device 70 , a printer (not shown), or a terminal device via the network 3 .

入力部11は、例えば、マウスおよびキーボードなどを含むが、タッチパッドであってもよい。表示部12は、例えば、液晶ディスプレイ、有機EL(ElectroLuminescence)ディスプレイ、またはプロジェクタなどである。なお、図4に示す例では、入力部11と表示部12とが情報処理装置1に含まれるが、入力部11および表示部12は、情報処理装置1の外部装置として情報処理装置1に接続されてもよい。 The input unit 11 includes, for example, a mouse and a keyboard, but may also be a touch pad. The display unit 12 is, for example, a liquid crystal display, an organic EL (ElectroLuminescence) display, or a projector. In the example shown in FIG. 4, the input unit 11 and the display unit 12 are included in the information processing device 1. The input unit 11 and the display unit 12 are connected to the information processing device 1 as external devices of the information processing device 1. may be

記憶部13は、撮像画像データ記憶部20と、3次元点群データ記憶部21と、特定点データ記憶部22とを含む。撮像画像データ記憶部20は、計測装置70から送信される複数の撮像画像データを含む撮像画像データテーブルを記憶する。 The storage unit 13 includes a captured image data storage unit 20 , a three-dimensional point cloud data storage unit 21 and a specific point data storage unit 22 . The captured image data storage unit 20 stores a captured image data table including a plurality of captured image data transmitted from the measuring device 70 .

図5は、実施の形態1にかかる情報処理装置の撮像画像データ記憶部に記憶される撮像画像データテーブルの一例を示す図である。図5に示す撮像画像データテーブルは、「対象ID(IDentifier)」、「画像ID」、「視点位置」、および「データファイル」を撮像画像データ毎に含む。 5 is a diagram illustrating an example of a captured image data table stored in a captured image data storage unit of the information processing apparatus according to the first embodiment; FIG. The captured image data table shown in FIG. 5 includes “target ID (IDentifier)”, “image ID”, “viewpoint position”, and “data file” for each captured image data.

「対象ID」は、計測装置70による計測対象毎に固有の識別情報である。計測対象は、例えば、図1に示すような道路4、トンネル5、およびガードレール6などを含む複数の構造物であるが、道路4、トンネル5、およびガードレール6の各々を互いに異なる計測対象とすることもでき、道路4、トンネル5、およびガードレール6以外の構造物であってもよい。 “Target ID” is identification information unique to each target to be measured by the measuring device 70 . The objects to be measured are, for example, a plurality of structures including the road 4, the tunnel 5, and the guardrail 6 as shown in FIG. , and may be structures other than roads 4, tunnels 5, and guardrails 6.

「画像ID」は、撮像画像毎に固有の識別情報である。「視点位置」は、撮像画像の視点位置であり、緯度、経度、および高度で示される。撮像画像の視点位置は、撮像画像が計測装置70の撮像部71で得られたときの撮像部71の位置または撮像部71の位置に対応する位置である。 “Image ID” is unique identification information for each captured image. "Viewpoint position" is the viewpoint position of the captured image, and is indicated by latitude, longitude, and altitude. The viewpoint position of the captured image is the position of the imaging unit 71 when the captured image is obtained by the imaging unit 71 of the measuring device 70 or a position corresponding to the position of the imaging unit 71 .

「データファイル」は、撮像画像のデータであり、撮像画像に含まれる各画素の色を示す画素データと、視点位置から撮像画像までの距離を示す距離データとを含む。色のデータは、例えば、RGBデータであり、R,G,Bの階調は、例えば、256階調である。データファイルは、例えば、JPEG(Joint Photographic Experts Group)形式またはMP(Multi Picture)4形式などのデータであるが、かかる形式に限定されない。 A “data file” is data of a captured image, and includes pixel data indicating the color of each pixel included in the captured image and distance data indicating the distance from the viewpoint position to the captured image. Color data is, for example, RGB data, and R, G, and B gradations are, for example, 256 gradations. The data file is, for example, data in JPEG (Joint Photographic Experts Group) format or MP (Multi Picture) 4 format, but is not limited to these formats.

図5に示す撮像画像データテーブルでは、対象IDが「T001」であり且つ画像ID「IM1001」の撮像画像は、視点位置がP(x1,y1,z1)であり、データファイルが「IMGF1001」である。また、対象IDが「T001」であり且つ画像ID「IM1002」の撮像画像は、視点位置がP(x2,y2,z2)であり、データファイルが「IMGF1002」である。 In the captured image data table shown in FIG. 5, the captured image with the target ID of "T001" and the image ID of "IM1001" has a viewpoint position of P (x1, y1, z1) and a data file of "IMGF1001". be. The captured image with the target ID of "T001" and the image ID of "IM1002" has a viewpoint position of P(x2, y2, z2) and a data file of "IMGF1002".

図4に示す3次元点群データ記憶部21は、計測装置70から送信される複数の3次元点群データを含む3次元点群データテーブルを記憶する。図6は、実施の形態1にかかる情報処理装置の3次元点群データ記憶部に記憶される3次元点群データテーブルの一例を示す図である。 The 3D point cloud data storage unit 21 shown in FIG. 4 stores a 3D point cloud data table including a plurality of 3D point cloud data transmitted from the measuring device 70 . 6 is a diagram illustrating an example of a three-dimensional point cloud data table stored in a three-dimensional point cloud data storage unit of the information processing apparatus according to the first embodiment; FIG.

図6に示す3次元点群データテーブルは、「対象ID」および「データファイル」を3次元点群データ毎に含む。「対象ID」は、計測対象毎に固有の識別情報である。「データファイル」は、3次元点群のデータであり、3次元点群に含まれる各3次元点の輝度のデータと位置のデータとを含む。輝度のデータは、例えば、3次元計測部72がレーザスキャナ装置を含む場合、3次元点の反射強度のデータである。位置のデータは、3次元点の位置を示すデータであり、例えば、緯度、経度、および高度のデータを含む。 The three-dimensional point cloud data table shown in FIG. 6 includes “object ID” and “data file” for each three-dimensional point cloud data. “Object ID” is identification information unique to each measurement object. A “data file” is data of a three-dimensional point group, and includes brightness data and position data of each three-dimensional point included in the three-dimensional point group. For example, when the three-dimensional measurement unit 72 includes a laser scanner device, the brightness data is the reflection intensity data of the three-dimensional point. Position data is data indicating the position of a three-dimensional point, and includes, for example, latitude, longitude, and altitude data.

図6に示す3次元点群データテーブルでは、対象IDが「T001」の3次元点群は、データファイルが「DGF1001」であり、対象IDが「T002」の3次元点群は、データファイルが「DGF1002」である。 In the 3D point cloud data table shown in FIG. 6, the 3D point cloud with the target ID "T001" has the data file "DGF1001", and the 3D point cloud with the target ID "T002" has the data file It is "DGF1002".

図4に示す特定点データ記憶部22は、情報処理装置1の利用者によって指定された撮像画像内の点に対応する3次元点である特定点のデータを記憶する。以下において、情報処理装置1の利用者を単に利用者と記載する場合がある。 The specific point data storage unit 22 shown in FIG. 4 stores data of specific points, which are three-dimensional points corresponding to points in the captured image designated by the user of the information processing apparatus 1 . Hereinafter, the user of the information processing device 1 may be simply referred to as the user.

図7は、実施の形態1にかかる情報処理装置の特定点データ記憶部に記憶される特定点データテーブルの一例を示す図である。図7に示す特定点データテーブルは、「特定点ID」と「特定点位置」とを特定点毎に含む。「特定点ID」は、計測対象毎に固有の識別情報である。「特定点位置」は、特定点の位置を示すデータであり、特定点の緯度、経度、および高度のデータが含まれる。 7 is a diagram of an example of a specific point data table stored in a specific point data storage unit of the information processing apparatus according to the first embodiment; FIG. The specific point data table shown in FIG. 7 includes a "specific point ID" and a "specific point position" for each specific point. "Specific point ID" is identification information unique to each measurement target. "Specific point position" is data indicating the position of a specific point, and includes latitude, longitude, and altitude data of the specific point.

図7に示す特定点データテーブルでは、特定点IDが「S001」の特定点は、位置がP(x11,y11,z11)であり、特定点IDが「S002」の特定点は、位置がP(x12,y12,z12)である。 In the specific point data table shown in FIG. 7, the specific point with the specific point ID "S001" is located at P (x11, y11, z11), and the specific point with the specific point ID "S002" is located at P (x12, y12, z12).

図4に戻って、情報処理装置1の説明を続ける。図4に示す処理部14は、入力受付部30と、データ取得部31と、間引き部32と、表示処理部33と、特定部34と、距離算出部35と、データ出力部36とを備える。 Returning to FIG. 4, the description of the information processing apparatus 1 is continued. The processing unit 14 shown in FIG. 4 includes an input reception unit 30, a data acquisition unit 31, a thinning unit 32, a display processing unit 33, a specification unit 34, a distance calculation unit 35, and a data output unit 36. .

入力受付部30は、利用者による入力部11への入力操作を受け付ける。例えば、入力受付部30は、入力部11を介して利用者からの撮像画像の表示要求を受け付ける。撮像画像の表示要求には、例えば、表示対象となる計測対象の対象ID、視点位置、視線方向、および画角などの情報が含まれる。 The input reception unit 30 receives an input operation to the input unit 11 by the user. For example, the input reception unit 30 receives a display request for a captured image from the user via the input unit 11 . The captured image display request includes, for example, information such as the target ID of the measurement target to be displayed, the viewpoint position, the line-of-sight direction, and the angle of view.

また、入力受付部30は、入力部11を介して利用者からの指定操作を受け付ける。指定操作は、撮像画像内の任意の位置を利用者が指定する操作である。以下において、利用者が指定した撮像画像内の位置を指定点と記載する場合がある。また、入力受付部30は、入力部11を介して利用者からの出力要求を受け付ける。 The input reception unit 30 also receives a designation operation from the user via the input unit 11 . A designation operation is an operation by which a user designates an arbitrary position within a captured image. In the following description, a position within a captured image specified by a user may be referred to as a specified point. Also, the input reception unit 30 receives an output request from the user via the input unit 11 .

データ取得部31は、計測車両2の計測装置70から送信されネットワーク3を介して通信部10で受信される撮像画像データおよび3次元点群データを通信部10から取得する。データ取得部31は、通信部10から取得した撮像画像データを撮像画像データ記憶部20に記憶されている撮像画像データテーブルに追加し、通信部10から取得した3次元点群データを3次元点群データ記憶部21に記憶されている3次元点群データテーブルに追加する。 The data acquisition unit 31 acquires captured image data and three-dimensional point cloud data transmitted from the measurement device 70 of the measurement vehicle 2 and received by the communication unit 10 via the network 3 from the communication unit 10 . The data acquisition unit 31 adds the captured image data acquired from the communication unit 10 to the captured image data table stored in the captured image data storage unit 20, and converts the three-dimensional point cloud data acquired from the communication unit 10 into three-dimensional point data. Add to the three-dimensional point cloud data table stored in the cloud data storage unit 21 .

また、データ取得部31は、利用者からの撮像画像の表示要求が入力受付部30によって受け付けられた場合、入力受付部30によって受け付けられた表示要求に対応する撮像画像データおよび3次元点群データを記憶部13から取得する。また、データ取得部31は、特定部34によって特定された特定点のデータである特定点データを特定点データ記憶部22に記憶されている特定点データテーブルに追加したり、特定点データテーブルに含まれる特定点データを取得したりする。 Further, when the input reception unit 30 receives a display request for a captured image from the user, the data acquisition unit 31 acquires the captured image data and the three-dimensional point cloud data corresponding to the display request received by the input reception unit 30 . is obtained from the storage unit 13 . The data acquiring unit 31 also adds specific point data, which is data of the specific points specified by the specifying unit 34, to the specific point data table stored in the specific point data storage unit 22, or adds specific point data to the specific point data table. Acquire the included specific point data.

間引き部32は、表示要求に応じてデータ取得部31によって取得された3次元点群データに含まれる複数の3次元点の中から一部の3次元点を間引く処理を行う。視点位置は、表示要求に応じてデータ取得部31によって取得された撮像画像データに含まれる視点位置のデータによって特定される。 The thinning unit 32 thins out some of the three-dimensional points included in the three-dimensional point cloud data acquired by the data acquiring unit 31 in response to the display request. The viewpoint position is specified by viewpoint position data included in the captured image data acquired by the data acquisition unit 31 in response to the display request.

間引き部32は、例えば、指定点に対応する3次元点である特定点の判定処理に影響を与えないか影響が少ない間引き条件を満たす3次元点の一部または全部を削除することで、3次元点の間引きを行う。特定点の判定処理に影響を与えないか影響が少ない間引き条件は、例えば、視点位置からの距離が予め設定された距離以上離れた位置または3次元点の密集度が予め設定された密集度以上であるといった条件である。 The thinning unit 32, for example, deletes some or all of the three-dimensional points that satisfy the thinning conditions that do not or have little effect on the determination process of the specific point, which is the three-dimensional point corresponding to the designated point. Decimate dimension points. Thinning-out conditions that do not or have little effect on the determination processing of specific points are, for example, positions that are at a distance greater than or equal to a preset distance from the viewpoint position, or where the density of three-dimensional points is greater than or equal to a preset density. It is a condition that

例えば、間引き部32は、表示要求に応じてデータ取得部31によって取得された3次元点群データに含まれる複数の3次元点のうち、視点位置からの距離が予め設定された距離以上離れた位置にある3次元点を削除することで、3次元点の間引きを行う。 For example, the thinning unit 32 selects, among a plurality of 3D points included in the 3D point cloud data acquired by the data acquisition unit 31 in response to a display request, 3D points whose distance from the viewpoint position is a preset distance or more. 3D points are thinned out by deleting the 3D points at their positions.

また、間引き部32は、表示要求に応じてデータ取得部31によって取得された3次元点群データに含まれる複数の3次元点であって互いに距離が予め設定された距離内に複数の3次元点が存在する場合、これら複数の3次元点の一部を削除することで、3次元点の間引きを行う。なお、間引き部32による3次元点の間引き条件は、特定点の判定処理に影響を与えないか影響が少ない間引き条件であればよく、上述した例に限定されない。 In addition, the thinning unit 32 selects a plurality of three-dimensional points included in the three-dimensional point cloud data acquired by the data acquisition unit 31 in response to a display request, and divides a plurality of three-dimensional points within a predetermined distance from each other. If points exist, the 3D points are thinned out by deleting some of the plurality of 3D points. Note that the thinning condition for the three-dimensional points by the thinning unit 32 is not limited to the above example, as long as the thinning condition does not or has little effect on the specific point determination process.

このように、間引き部32は、特定点の判定処理に影響がないまたは少ない3次元点を削除して3次元点の間引きするため、表示処理部33で扱う3次元点の数を低減することができ、表示処理部33での処理負荷を軽減することができる。 In this way, the thinning unit 32 thins out the three-dimensional points by deleting the three-dimensional points that have little or no influence on the determination processing of the specific points. , and the processing load on the display processing unit 33 can be reduced.

なお、間引き部32は、例えば、表示要求に応じてデータ取得部31によって取得された3次元点群データに含まれる複数の3次元点が予め設定された数未満である場合に間引き処理を行わないこともできる。また、間引き部32は、情報処理装置1の処理負荷が予め設定された負荷未満である場合に間引き処理を行わないこともできる。 Note that the thinning unit 32 performs thinning processing when, for example, the number of three-dimensional points included in the three-dimensional point cloud data acquired by the data acquiring unit 31 in response to a display request is less than a preset number. You can do nothing. Further, the thinning unit 32 may not perform the thinning process when the processing load of the information processing apparatus 1 is less than a preset load.

また、間引き部32は、計測対象に応じて間引き処理を行うか否かの設定データが記憶部13に記憶されている場合、かかる設定データに基づいて、間引き処理を行うか否かを決定することもできる。また、間引き部32は、利用者の設定に応じて間引き処理を行うか否かを決定することもできる。 Further, when the storage unit 13 stores setting data as to whether or not to perform the thinning process according to the object to be measured, the thinning part 32 determines whether to perform the thinning process based on the setting data. can also The thinning unit 32 can also determine whether or not to perform the thinning process according to user settings.

表示処理部33は、表示要求に応じてデータ取得部31によって取得された撮像画像データおよび3次元点群データに基づいて、2次元画像を生成し、生成した2次元画像を表示部12に表示させる。表示処理部33は、間引き部32で間引き処理が行われた場合、表示要求に応じてデータ取得部31によって取得された3次元点群データに代えて、間引き部32で一部の3次元点の間引き処理が行われた3次元点群データを用いて、2次元画像を生成する。 The display processing unit 33 generates a two-dimensional image based on the captured image data and the three-dimensional point cloud data obtained by the data obtaining unit 31 in response to a display request, and displays the generated two-dimensional image on the display unit 12. Let When the thinning processing is performed by the thinning unit 32, the display processing unit 33 replaces the 3D point cloud data acquired by the data acquiring unit 31 in response to the display request with the thinning unit 32. A two-dimensional image is generated using the three-dimensional point cloud data that has undergone the thinning process.

表示処理部33は、第1の表示処理部40と、第2の表示処理部41と、第3の表示処理部42とを備える。表示処理部33は、動作モードとして、第1のモードと第2のモードとを有する。 The display processing section 33 includes a first display processing section 40 , a second display processing section 41 and a third display processing section 42 . The display processing unit 33 has a first mode and a second mode as operation modes.

動作モードは、利用者によって変更が可能であり、利用者は、入力部11への特定操作を行うことによって、動作モードを変更することができる。この場合、利用者は、動作モードを計測対象毎に設定することもできる。 The operation mode can be changed by the user, and the user can change the operation mode by performing a specific operation on the input unit 11 . In this case, the user can also set the operation mode for each measurement target.

また、表示処理部33は、3次元点群データに含まれる3次元点の数に応じて動作モードを変更することができる。例えば、表示処理部33は、3次元点群データに含まれる3次元点の数が閾値以下の場合に第1の動作モードで動作し、そうでない場合には、第2の動作モードで動作する。 Moreover, the display processing unit 33 can change the operation mode according to the number of three-dimensional points included in the three-dimensional point cloud data. For example, the display processing unit 33 operates in the first operation mode when the number of 3D points included in the 3D point cloud data is equal to or less than the threshold, and operates in the second operation mode otherwise. .

まず、動作モードが第1のモードである場合の第1の表示処理部40の処理について説明する。動作モードが第1のモードである場合、第1の表示処理部40は、撮像画像データで示される撮像画像と3次元点群データで示される3次元点群とを同一の3次元座標系に配置する。撮像画像は、3次元座標系において、撮像画像データで特定される視点位置を球面中心とし撮像画像データの距離データで特定される距離を半径とする球面状に配置される。また、第1の表示処理部40は、3次元点群の色を無色化して透明にする。 First, the processing of the first display processing unit 40 when the operation mode is the first mode will be described. When the operation mode is the first mode, the first display processing unit 40 converts the captured image represented by the captured image data and the 3D point group represented by the 3D point cloud data into the same 3D coordinate system. Deploy. The captured image is arranged in a spherical shape in a three-dimensional coordinate system, with the viewpoint position specified by the captured image data as the center of the sphere and the distance specified by the distance data of the captured image data as the radius. Also, the first display processing unit 40 renders the three-dimensional point group colorless and transparent.

そして、第1の表示処理部40は、同一の3次元座標系に配置した撮像画像と3次元点群とを視点位置から見た画像であって表示要求で特定される画角の2次元画像のデータを生成し、生成した2次元画像のデータを表示部12に出力することで、表示部12に撮像画像を含む2次元画像を表示させる。3次元点群は色が透明にされるため、第1の表示処理部40によって生成される2次元画像において、利用者は3次元点群を視認することができない。以下において、視点位置から見た画像であって表示要求で特定される画角の2次元画像を視点位置から見た2次元画像と記載する場合がある。 Then, the first display processing unit 40 generates a two-dimensional image of the captured image and the three-dimensional point group arranged in the same three-dimensional coordinate system, viewed from the viewpoint position and having the angle of view specified by the display request. and outputs the generated two-dimensional image data to the display unit 12 to display the two-dimensional image including the captured image on the display unit 12 . Since the color of the 3D point group is made transparent, the user cannot visually recognize the 3D point group in the 2D image generated by the first display processing unit 40 . In the following description, a two-dimensional image viewed from a viewpoint position and having an angle of view specified by a display request may be referred to as a two-dimensional image viewed from the viewpoint position.

図8は、実施の形態1にかかる情報処理装置の第1の表示処理部によって表示部に表示される撮像画像の一例を示す図である。図8に示すように、第1の表示処理部40は、表示部12に撮像画像を含む2次元画像90を表示させることができる。3次元点群は、色が透明にされるため、2次元画像90において、利用者は3次元点群を視認することができない。 8 is a diagram illustrating an example of a captured image displayed on the display unit by the first display processing unit of the information processing apparatus according to the first embodiment; FIG. As shown in FIG. 8, the first display processing section 40 can cause the display section 12 to display a two-dimensional image 90 including a captured image. Since the color of the 3D point group is made transparent, the user cannot visually recognize the 3D point group in the 2D image 90 .

次に、動作モードが第2のモードである場合の第1の表示処理部40の処理について説明する。動作モードが第2のモードである場合、第1の表示処理部40は、撮像画像データで示される撮像画像と3次元点群データで示される3次元点群とを同一の3次元座標系に配置し、3次元点群を撮像画像よりも視点位置から遠い位置に移動させる。 Next, processing of the first display processing unit 40 when the operation mode is the second mode will be described. When the operation mode is the second mode, the first display processing unit 40 converts the captured image represented by the captured image data and the 3D point group represented by the 3D point cloud data to the same 3D coordinate system. The three-dimensional point group is moved to a position farther from the viewpoint position than the captured image.

図9は、実施の形態1にかかる情報処理装置の第1の表示処理部による3次元点群の移動方法を説明するための図である。図9に示す例では、説明の便宜上、同一の3次元座標系に配置された撮像画像と3次元点群との平面図を示している。図9において、Z軸方向は上下方向であり、Y軸正方向は、視線方向である。 9 is a diagram for explaining a method of moving a three-dimensional point cloud by the first display processing unit of the information processing apparatus according to the first embodiment; FIG. In the example shown in FIG. 9, for convenience of explanation, a plan view of a captured image and a three-dimensional point group arranged in the same three-dimensional coordinate system is shown. In FIG. 9, the Z-axis direction is the vertical direction, and the Y-axis positive direction is the viewing direction.

第1の表示処理部40は、撮像画像データに含まれる距離データに基づいて、視点位置から撮像画像までの距離の情報を取得する。なお、第1の表示処理部40は、例えば、3次元座標系に球面状に配置された撮像画像の球面形状から球面の半径を視点位置から撮像画像までの距離として算出することもできる。第1の表示処理部40によって取得または算出される視点位置から撮像画像までの距離は、3次元座標系におけるユークリッド距離であるが、かかる例に限定されない。 The first display processing unit 40 acquires information on the distance from the viewpoint position to the captured image based on the distance data included in the captured image data. Note that the first display processing unit 40 can, for example, calculate the radius of the spherical surface from the spherical shape of the captured image that is spherically arranged in the three-dimensional coordinate system as the distance from the viewpoint position to the captured image. The distance from the viewpoint position to the captured image acquired or calculated by the first display processing unit 40 is the Euclidean distance in the three-dimensional coordinate system, but is not limited to this example.

第1の表示処理部40は、3次元座標系において、視点位置から3次元点群の各3次元点までの距離が、視点位置から撮像画像までの距離よりも長くなるように、3次元点群を移動させる距離である移動距離を算出する。第1の表示処理部40は、3次元座標系において、図9に示すように、算出した移動距離だけ3次元点群を視点位置からの距離が撮像画像よりも遠くなるように移動させる。これにより、視点位置から見た3次元点群は、撮像画像の裏側になり、視点位置からは視認できない位置になる。 The first display processing unit 40 arranges the 3D points so that the distance from the viewpoint position to each 3D point of the 3D point group is longer than the distance from the viewpoint position to the captured image in the 3D coordinate system. A moving distance, which is the distance to move the group, is calculated. The first display processing unit 40 moves the three-dimensional point group by the calculated moving distance so that the distance from the viewpoint position becomes farther than the captured image in the three-dimensional coordinate system, as shown in FIG. As a result, the three-dimensional point group seen from the viewpoint position is on the back side of the captured image and cannot be visually recognized from the viewpoint position.

第1の表示処理部40は、同一の3次元座標系に配置した撮像画像と3次元点群とを視点位置から見た2次元画像のデータを生成し、生成した2次元画像のデータを表示部12に出力することで、表示部12に撮像画像を含む2次元画像を表示させる。 The first display processing unit 40 generates data of a two-dimensional image in which the captured image and the three-dimensional point group arranged in the same three-dimensional coordinate system are viewed from the viewpoint position, and displays the data of the generated two-dimensional image. By outputting to the unit 12, the display unit 12 is caused to display a two-dimensional image including the captured image.

視点位置から見た3次元点群は、撮像画像の裏側になるため、第1の表示処理部40によって生成される2次元画像において、利用者は3次元点群を視認することができない。これにより、第1の表示処理部40は、3次元点群を無色化して透明にすることなく、撮像画像のみを利用者に視認させることができる。そのため、第1の表示処理部40は、3次元点群の色情報を変更する処理を行うことがなく、処理負荷を軽減することができる。 Since the 3D point cloud seen from the viewpoint position is on the back side of the captured image, the user cannot visually recognize the 3D point cloud in the 2D image generated by the first display processing unit 40 . Thereby, the first display processing unit 40 can allow the user to visually recognize only the captured image without making the three-dimensional point group colorless and transparent. Therefore, the first display processing unit 40 does not need to change the color information of the three-dimensional point group, and can reduce the processing load.

第2の表示処理部41は、動作モードが第1のモードである場合、第1の表示処理部40によって撮像画像と同一の3次元座標系に配置された3次元点群に含まれる複数の3次元点のうち特定点と周辺点とを撮像画像と区別可能に強調表示する。強調表示は、例えば、特定点および周辺点の色、大きさ、模様、形状を目立つように変更することによって行われる。 When the operation mode is the first mode, the second display processing unit 41 displays a plurality of points included in the three-dimensional point group arranged in the same three-dimensional coordinate system as the captured image by the first display processing unit 40. Among the three-dimensional points, the specific points and peripheral points are highlighted so as to be distinguishable from the captured image. The highlighting is performed, for example, by conspicuously changing the color, size, pattern, and shape of the specific point and peripheral points.

特定点は、特定部34によって特定された3次元点であり、周辺点は、特定点の周辺の3次元点である。特定点の周辺の3次元点は、例えば、特定点から予め設定された距離範囲内にある3次元点である。予め設定された距離範囲は、視点位置からの距離が遠くなればなるほど大きくなるが、視点位置からの距離にかかわらず、同一であってもよい。 A specific point is a three-dimensional point specified by the specifying unit 34, and a peripheral point is a three-dimensional point around the specific point. The three-dimensional points around the specific point are, for example, three-dimensional points within a preset distance range from the specific point. The preset distance range increases as the distance from the viewpoint position increases, but may be the same regardless of the distance from the viewpoint position.

第2の表示処理部41は、特定点と周辺点とを撮像画像と区別可能に強調表示した後、同一の3次元座標系に配置した撮像画像と3次元点群とを視点位置から見た2次元画像のデータを生成する。そして、第2の表示処理部41は、生成した2次元画像のデータを表示部12に出力することで、表示部12に撮像画像と強調表示した特定点および周辺点とを含む2次元画像を表示させる。 The second display processing unit 41 highlights the specific point and the surrounding points so as to be distinguishable from the captured image, and then displays the captured image and the three-dimensional point group arranged in the same three-dimensional coordinate system from the viewpoint position. 2D image data is generated. Then, the second display processing unit 41 outputs the generated two-dimensional image data to the display unit 12 so that the two-dimensional image including the captured image and the highlighted specific points and peripheral points is displayed on the display unit 12. display.

図10は、実施の形態1にかかる情報処理装置の第2の表示処理部によって表示部に表示される撮像画像の一例を示す図である。図10に示すように、第2の表示処理部41は、撮像画像91と強調表示した特定点93および周辺点94とを含む2次元画像90を表示部12に表示させる。利用者は、入力部11への入力操作によって、カーソル92を移動させて図10に示す2次元画像90上の点を特定することで、第2の表示処理部41に図10に示す2次元画像90を表示部12に表示させることができる。 10 is a diagram illustrating an example of a captured image displayed on the display unit by the second display processing unit of the information processing apparatus according to the first embodiment; FIG. As shown in FIG. 10 , the second display processing unit 41 causes the display unit 12 to display a two-dimensional image 90 including a captured image 91 and highlighted specific points 93 and peripheral points 94 . 10 by moving the cursor 92 and specifying a point on the two-dimensional image 90 shown in FIG. The image 90 can be displayed on the display unit 12 .

第2の表示処理部41は、動作モードが第2のモードである場合、第1の表示処理部40によって撮像画像と同一の3次元座標系に配置された3次元点群のうち特定点と周辺点とを第1の表示処理部40による移動前の位置に戻す。そして、第2の表示処理部41は、同一の3次元座標系に配置した撮像画像と3次元点群とを視点位置から見た2次元画像のデータを生成する。このときの3次元点群は、複数の3次元点のうち特定点と周辺点とを元の位置に戻した3次元点群であり、特定点および周辺点以外の3次元点は元の位置に戻されていない。 When the operation mode is the second mode, the second display processing unit 41 selects specific points among the three-dimensional point group arranged in the same three-dimensional coordinate system as the captured image by the first display processing unit 40 . The peripheral points are returned to the positions before the movement by the first display processing unit 40 . Then, the second display processing unit 41 generates data of a two-dimensional image in which the picked-up image and the three-dimensional point group arranged in the same three-dimensional coordinate system are viewed from the viewpoint position. The 3D point group at this time is a 3D point group in which specific points and peripheral points among a plurality of 3D points are returned to their original positions. not returned to

第2の表示処理部41は、生成した2次元画像のデータを表示部12に出力することで、表示部12に撮像画像と強調表示した特定点および周辺点とを含む2次元画像を表示させる。なお、第2の表示処理部41は、各3次元点が同じ大きさで表示部12に表示されるように、視点位置からの距離に応じて3次元点の大きさを大きくすることができる。 The second display processing unit 41 outputs the generated two-dimensional image data to the display unit 12, thereby causing the display unit 12 to display the two-dimensional image including the captured image and the highlighted specific points and peripheral points. . The second display processing unit 41 can increase the size of the three-dimensional points according to the distance from the viewpoint position so that each three-dimensional point is displayed on the display unit 12 with the same size. .

第3の表示処理部42は、距離算出部35によって算出された距離を表示部12に表示させる。例えば、第3の表示処理部42は、距離算出部35によって算出された2つの特定点間の距離である特定点間距離を表示部12に表示させる。 The third display processing unit 42 causes the display unit 12 to display the distance calculated by the distance calculation unit 35 . For example, the third display processing unit 42 causes the display unit 12 to display the distance between specific points, which is the distance between two specific points calculated by the distance calculation unit 35 .

特定点間距離の表示位置は、例えば、2つの特定点間を結んだ線の近くの位置、または距離計測の始点または終点のどちらかの近くの位置などであるが、利用者が容易に視認できる位置であればよく、かかる例に限定されない。距離計測の始点は、後述する第1の特定点であり、距離計測の終点は、後述する第2の特定点である。 The display position of the distance between specific points is, for example, a position near the line connecting two specific points, or a position near either the start point or the end point of distance measurement, but it is easy for the user to visually recognize it. Any position is acceptable as long as it is possible, and it is not limited to such an example. The starting point of distance measurement is a first specific point described later, and the end point of distance measurement is a second specific point described later.

図11は、実施の形態1にかかる情報処理装置の第3の表示処理部によって表示部に表示される特定点間距離の一例を示す図である。図11に示すように、第3の表示処理部42は、2つの特定点93間を結んだ直線95と、直線95の近くの位置に配置した特定点間距離96とを撮像画像91に重畳させた2次元画像90を表示部12に表示させることができる。 11 is a diagram illustrating an example of distances between specific points displayed on the display unit by the third display processing unit of the information processing apparatus according to the first embodiment; FIG. As shown in FIG. 11, the third display processing unit 42 superimposes a straight line 95 connecting two specific points 93 and a distance 96 between specific points arranged near the straight line 95 on a captured image 91. The two-dimensional image 90 thus obtained can be displayed on the display unit 12 .

また、第3の表示処理部42は、距離算出部35によって算出された3つ以上の特定点を利用者の指定順に直線で繋いで形成される線の距離である接続線総距離を表示部12に表示させる。接続線総距離の表示位置は、例えば、3つ以上の特定点を利用者の指定順に直線で繋いだ線の近くの位置、または距離計測の始点または終点のどちらかの近くの位置である。 In addition, the third display processing unit 42 displays the total connection line distance, which is the distance of the line formed by connecting the three or more specific points calculated by the distance calculation unit 35 in the order designated by the user. 12 is displayed. The display position of the connection line total distance is, for example, a position near a line connecting three or more specific points with a straight line in the order specified by the user, or a position near either the start point or the end point of distance measurement.

図12は、実施の形態1にかかる情報処理装置の第3の表示処理部によって表示部に表示される接続線総距離の一例を示す図である。図12に示すように、第3の表示処理部42は、3つ以上の特定点を利用者の指定順に直線で繋いで形成される線97と、線97の近くの位置に配置した接続線総距離98とを撮像画像91に重畳させた2次元画像90を表示部12に表示させることができる。 12 is a diagram illustrating an example of a total connection line distance displayed on the display unit by the third display processing unit of the information processing apparatus according to the first embodiment; FIG. As shown in FIG. 12, the third display processing unit 42 generates a line 97 formed by connecting three or more specific points with a straight line in the order specified by the user, and a connection line arranged at a position near the line 97. A two-dimensional image 90 in which the total distance 98 is superimposed on the captured image 91 can be displayed on the display unit 12 .

図4に戻って、情報処理装置1の説明を続ける。処理部14の特定部34は、撮像画像91のうち利用者によって指定された点である指定点が入力受付部30によって受け付けられた場合、3次元点群を構成する複数の3次元点の中から指定点に対応する3次元点を特定する。特定部34は、特定した3次元点のデータを特定点のデータとして特定点データ記憶部22に記憶させる処理をデータ取得部31に実行させる。 Returning to FIG. 4, the description of the information processing apparatus 1 is continued. When the input receiving unit 30 receives a specified point, which is a point specified by the user in the captured image 91, the specifying unit 34 of the processing unit 14 selects a point among a plurality of three-dimensional points forming the three-dimensional point cloud. A three-dimensional point corresponding to the designated point is specified from the . The specifying unit 34 causes the data obtaining unit 31 to perform a process of storing the specified three-dimensional point data as the specified point data in the specified point data storage unit 22 .

特定部34は、例えば、表示処理部33によって撮像画像と3次元群が配置される3次元座標系において、視点位置を視点位置Aとし、指定点を指定点Bとすると、視点位置Aを起点とし指定点Bに向けて直線Lを伸ばしていき、直線Lからの距離が距離d内にある最初の3次元点を特定点として決定する。特定部34は、指定点Bまで直線Lを伸ばしても直線Lからの距離が距離d内にある3次元点が見つからない場合、指定点Bを通過して直線Lをさらに伸ばしていき直線Lからの距離が距離d内にある最初の3次元点を特定点として決定する。 For example, in a three-dimensional coordinate system in which the captured image and the three-dimensional group are arranged by the display processing unit 33, the specifying unit 34 assumes that the viewpoint position is a viewpoint position A and the specified point is a specified point B, and the viewpoint position A is the starting point. Then, the straight line L is extended toward the specified point B, and the first three-dimensional point within the distance d from the straight line L is determined as the specified point. If a three-dimensional point within the distance d from the straight line L is not found even if the straight line L is extended to the specified point B, the specifying unit 34 passes through the specified point B and further extends the straight line L. The first three-dimensional point whose distance from is within the distance d is determined as the specific point.

距離dは、パラメータとして設定されるものであり、入力部11への入力操作によって変更可能である。距離dに小さな値を設定することで、直線Lにより近い位置にある3次元点を特定点として絞り込むことができ、一方、距離dを大きな値に設定することで、3次元点が疎な状況で直線Lから多少離れていても特定点として特定することができる。 The distance d is set as a parameter and can be changed by an input operation to the input section 11 . By setting the distance d to a small value, the 3D points closer to the straight line L can be narrowed down as specific points. can be specified as a specific point even if it is somewhat away from the straight line L.

なお、特定部34は、表示処理部33によって撮像画像と同一の3次元座標系に配置した3次元点の数が多いほど距離dを短くしたり、指定点から予め設定された範囲内の3次元点の数が多いほど距離dを短くしたりすることができる。 Note that the identification unit 34 shortens the distance d as the number of three-dimensional points arranged in the same three-dimensional coordinate system as that of the captured image by the display processing unit 33 increases, or adjusts the distance d to the distance d within a preset range from the designated point. The distance d can be shortened as the number of dimensional points increases.

図13は、実施の形態1にかかる情報処理装置の特定部による特定点の判定方法の一例を示す図である。図13に示す例では、説明の便宜上、同一の3次元座標系に配置された撮像画像と3次元点群との平面図を示している。図13において、Z軸方向は上下方向であり、Y軸正方向は、視線方向である。 13 is a diagram illustrating an example of a specific point determination method by the specifying unit of the information processing apparatus according to the first embodiment; FIG. In the example shown in FIG. 13, for convenience of explanation, a plan view of a captured image and a three-dimensional point group arranged in the same three-dimensional coordinate system is shown. In FIG. 13, the Z-axis direction is the vertical direction, and the Y-axis positive direction is the viewing direction.

図13に示すように、特定部34は、視点位置Aを起点とし指定点Bを通過する直線Lからの距離が距離d内にあり且つ視点位置Aに最も近い3次元点を特定点として決定する。 As shown in FIG. 13, the specifying unit 34 determines a three-dimensional point that is within the distance d from a straight line L starting at the viewpoint position A and passing through the designated point B and that is closest to the viewpoint position A as a specific point. do.

また、特定部34は、3次元点群を構成する複数の3次元点の中から指定点に対応する3次元点を新たに特定した場合、新たに特定した3次元点がすでに特定している特定点から予め設定された範囲内であるか否かを判定する。予め設定された範囲は、例えば、すでに特定している特定点から予め設定された範囲、またはすでに特定している特定点を中心とした予め設定された大きさの立方体内の範囲である。 Further, when the specifying unit 34 newly specifies a three-dimensional point corresponding to the designated point from among the plurality of three-dimensional points forming the three-dimensional point group, the newly specified three-dimensional point has already been specified. It is determined whether or not it is within a preset range from the specific point. The preset range is, for example, a preset range from an already specified specific point, or a range within a cube of a preset size centering on the already specified specific point.

特定部34は、新たに特定した3次元点がすでに特定している特定点から予め設定された範囲内であると判定した場合、すでに特定している特定点であって新たに特定した3次元点が予め設定された範囲内にある特定点を対象特定点とする。 When determining that the newly specified three-dimensional point is within a preset range from the already specified specific point, the specifying unit 34 determines that the already specified specific point is the newly specified three-dimensional point. A specific point within a preset range is defined as a target specific point.

そして、特定部34は、対象特定点のデータを特定点データ記憶部22から消去する処理をデータ取得部31に実行させ、さらに、新たに特定した3次元点のデータを特定点のデータとして特定点データ記憶部22に記憶させる処理をデータ取得部31に実行させる修正処理を行う。かかる修正処理は、特定点データ記憶部22に記憶される特定点の上書きによる処理である。 Then, the specifying unit 34 causes the data acquisition unit 31 to execute a process of deleting the data of the target specified point from the specified point data storage unit 22, and further specifies the data of the newly specified three-dimensional point as the data of the specified point. Correction processing is performed to cause the data acquisition unit 31 to execute the processing to be stored in the point data storage unit 22 . Such correction processing is processing by overwriting the specific points stored in the specific point data storage unit 22 .

このように、特定部34は、指定点に対応する3次元点を特定した場合に、上述した対象特定点があると判定すると、対象特定点を特定点から削除して新たな特定点に置き換える修正処理を行う。これにより、特定部34は、すでに特定した3次元点の特定を解除することができ、利用者は、距離測定の対象となる特定点の位置の微調整または特定点の誤りの修正を行うことができ、特定点の修正を容易に行うことができる。そのため、情報処理装置1では、距離測定の精度を向上させることができる。 In this way, when the specifying unit 34 determines that there is the above-described target specific point when specifying the three-dimensional point corresponding to the specified point, the target specific point is deleted from the specified point and replaced with a new specified point. Take corrective action. As a result, the identifying unit 34 can cancel the identification of the already identified three-dimensional point, and the user can fine-tune the position of the specific point to be distance-measured or correct the error of the specific point. and correction of specific points can be easily performed. Therefore, the information processing device 1 can improve the accuracy of distance measurement.

特定部34は、例えば、クリック操作またはタップ操作が行われた場合に撮像画像91上の位置を指定点として仮特定し、その後、仮特定した指定点をダブルクリック操作またはダブルタップ操作が行われた場合に、仮特定した指定点を本特定することもできる。 For example, when a click operation or a tap operation is performed, the specifying unit 34 provisionally specifies a position on the captured image 91 as a specified point, and then, when a double-click operation or a double-tap operation is performed on the provisionally specified specified point. In this case, the tentatively identified designated point can also be actually identified.

第2の表示処理部41は、指定点の仮特定が行われた場合に、特定部34によってすでに特定している特定点のうち仮特定が行われた指定点が予め設定された範囲内にある特定点の色、大きさ、および模様のうちの少なくとも1つを変更することによって特定点の強調表示を行うことができる。これにより、第2の表示処理部41は、指定点の仮特定が行われた場合に、特定部34によってすでに特定している特定点のうち仮特定が行われた指定点が予め設定された範囲内にあって修正対象となっている特定点を利用者に容易に把握させることができる。なお、強調表示の方法はかかる例に限定されない。 When the specified point is temporarily specified, the second display processing unit 41 determines whether the specified point temporarily specified among the specified points already specified by the specifying unit 34 is within a preset range. A particular point can be highlighted by changing at least one of the color, size, and pattern of the particular point. As a result, when the specified point is temporarily specified, the second display processing unit 41 sets in advance the specified point temporarily specified among the specified points already specified by the specifying unit 34. The user can easily grasp the specific point to be corrected within the range. Note that the method of highlighting is not limited to this example.

特定部34は、新たに指定点に対応する3次元点を特定した場合に、上述した対象特定点がないと判定した場合、新たに特定した指定点に対応する3次元点のデータを特定点のデータとして特定点データ記憶部22に記憶させる処理をデータ取得部31に実行させる登録処理を行う。 When the identifying unit 34 determines that there is no target specific point when a three-dimensional point corresponding to the newly specified point is specified, the specifying unit 34 stores the data of the three-dimensional point corresponding to the newly specified specified point as the specified point. A registration process for causing the data acquisition unit 31 to store the data in the specific point data storage unit 22 as the data of .

図4に示す距離算出部35は、測定モードとして、特定点間距離を算出する特定点間距離測定モードと、接続線総距離を算出する接続線総距離測定モードとを有し、利用者の入力部11への入力操作に応じて選択された動作モードで距離の算出を行う。 The distance calculation unit 35 shown in FIG. 4 has, as measurement modes, a specific point distance measurement mode for calculating the distance between specific points and a connection line total distance measurement mode for calculating the connection line total distance. The distance is calculated in the operation mode selected according to the input operation to the input unit 11 .

距離算出部35は、動作モードが特定点間距離測定モードである場合に、特定点データ記憶部22に記憶されたデータに基づいて、利用者によって指定された2つの点に各々対応する2つの特定点が特定部34によって特定されたか否かを判定する。2つの特定点は、第1の特定点および第2の特定点である。第1の特定点は、最初に利用者に指定された点に対応する特定点であり、第2の特定点は、次に利用者に指定された点に対応する特定点である。 When the operation mode is the distance measurement mode between specific points, the distance calculation unit 35 calculates two points corresponding to two points specified by the user based on the data stored in the specific point data storage unit 22. It is determined whether or not the specific point has been specified by the specifying unit 34 . The two specific points are a first specific point and a second specific point. The first specific point is the specific point corresponding to the point designated by the user first, and the second specific point is the specific point corresponding to the point designated by the user next.

距離算出部35は、第1の特定点および第2の特定点が特定部34によって特定されたと判定した場合、特定部34によって特定された第1の特定点および第2の特定点の座標に基づいて、第1の特定点と第2の特定点との間の距離を算出する。 When determining that the first specific point and the second specific point are specified by the specifying unit 34, the distance calculating unit 35 calculates the coordinates of the first specific point and the second specific point specified by the specifying unit 34. Based on this, the distance between the first specific point and the second specific point is calculated.

距離算出部35は、動作モードが接続線総距離測定モードである場合に、特定点データ記憶部22に記憶されたデータに基づいて、利用者によって指定された3つ以上の点に各々対応する3つ以上の特定点が特定部34によって特定されたか否かを判定する。 When the operation mode is the connection line total distance measurement mode, the distance calculation unit 35 corresponds to three or more points specified by the user based on the data stored in the specific point data storage unit 22. It is determined whether or not three or more specific points have been specified by the specifying unit 34 .

距離算出部35は、3つ以上の特定点が特定部34によって特定されたと判定した場合、距離算出条件を満たすか否かを判定する。距離算出条件は、表示処理部33によって表示部12に表示されたGUI(Graphical User Interface)ボタンである不図示の距離算出ボタンが利用者の入力部11への入力操作によって操作されるという条件である。 When determining that three or more specific points have been identified by the identifying unit 34, the distance calculating unit 35 determines whether or not the distance calculation condition is satisfied. The distance calculation condition is that a distance calculation button (not shown), which is a GUI (Graphical User Interface) button displayed on the display unit 12 by the display processing unit 33, is operated by the user's input operation to the input unit 11. be.

なお、距離算出条件は、上述した例に限定されない。例えば、距離算出条件は、特定部34によって特定された特定点の数が予め設定された数に到達するという条件、または、特定部34によって3つ以上の特定点のうち最後に特定された特定点が特定されてから予め設定された時間が経過するまでに次の特定点がないという条件などであってもよい。 Note that the distance calculation conditions are not limited to the examples described above. For example, the distance calculation condition may be a condition that the number of specific points specified by the specifying unit 34 reaches a preset number, or a condition that the specified points last specified among three or more specific points by the specifying unit 34. The condition may be such that there is no next specific point after the point is specified until a preset time elapses.

距離算出部35は、動作モードが接続線総距離測定モードである場合、3つ以上の特定点を対応する指定点が利用者に指定された順に直線で結び、それぞれの直線で結ばれた特定点間の距離を算出し、特定点間の距離の総計を接続線総距離として算出する。 When the operation mode is the connection line total distance measurement mode, the distance calculation unit 35 connects the three or more specific points with straight lines in the order in which the corresponding designated points are designated by the user, and the specific points connected by the straight lines are connected. The distance between the points is calculated, and the sum of the distances between the specific points is calculated as the total connecting line distance.

例えば、特定点が第1の特定点、第2の特定点、および第3の特定点の3つであり、対応する指定点が指定された順番が第1の特定点、第2の特定点、および第3の特定点の順であるとする。この場合、距離算出部35は、第1の特定点と第2の特定点との間の距離と、第2の特定点と第3の特定点との間の距離とを各々算出し、これらの2つの距離を合計することで接続線総距離を算出する。 For example, the specified points are the first specified point, the second specified point, and the third specified point, and the order in which the corresponding specified points are specified is the first specified point and the second specified point. , and the third particular point. In this case, the distance calculator 35 calculates the distance between the first specific point and the second specific point and the distance between the second specific point and the third specific point, The total distance of the connection line is calculated by summing the two distances of .

このように、距離算出部35は、3つ以上の特定点を指定順に直線で繋ぎ、直線で繋がれた特定点間の距離の総計を接続線総距離として算出することができるため、複雑な距離の計測を行うことができる。 In this way, the distance calculation unit 35 can connect three or more specific points with a straight line in the specified order, and calculate the total distance between the specific points connected with the straight line as the total connection line distance. Distance measurements can be made.

図4に示すデータ出力部36は、入力受付部30によって利用者からの出力要求が受け付けられた場合、特定部34によって判定された特定点の座標を示すデータおよび距離算出部35によって算出された距離を示すデータを含むデータファイルを算出結果データとして出力する。距離算出部35によって算出された距離は、上述した特定点間距離または接続線総距離などである。 When the input reception unit 30 receives an output request from the user, the data output unit 36 shown in FIG. A data file containing data indicating the distance is output as calculation result data. The distance calculated by the distance calculator 35 is the above-described distance between specific points or total distance of connection lines.

データ出力部36から出力される算出結果データは、例えば、csv形式のデータファイルであるが、かかる例に限定されない。例えば、算出結果データは、csv形式以外の形式のテキストデータであってもよく、図11または図12に示すような表示部12に表示される画像をキャプチャして得られるキャプチャ画像のデータなどであってもよい。 The calculation result data output from the data output unit 36 is, for example, a csv format data file, but is not limited to such an example. For example, the calculation result data may be text data in a format other than the csv format, such as captured image data obtained by capturing an image displayed on the display unit 12 as shown in FIG. 11 or FIG. There may be.

データ出力部36は、データ取得部31を介して記憶部13に記憶されたデータを取得し、取得したデータをcsv形式などのデータに整形するデータ整形を行う。例えば、2つの特定点の各々座標と、特定点間距離とをカンマ区切りで繋ぎ合わせたり、3つ以上の特定点の各々座標と、接続線総距離とをカンマ区切りで繋ぎ合わせたりして、データ整形を行う。なお、データ整形は、座標情報と距離情報とを利用者が有用なかたちで利用できる形式に整形できればよく、csv形式のデータ整形に限定されない。 The data output unit 36 acquires the data stored in the storage unit 13 via the data acquisition unit 31, and performs data shaping to format the acquired data into data such as csv format. For example, by connecting the coordinates of two specific points and the distance between the specific points separated by commas, or by connecting the coordinates of three or more specific points and the total distance of connecting lines separated by commas, data shaping. Note that data shaping is not limited to csv format data shaping as long as the coordinate information and distance information can be shaped into a format that can be used by the user in a useful manner.

データ出力部36は、例えば、算出結果データを通信部10およびネットワーク3を介して外部装置へ送信することで算出結果データを出力したり、不図示のメモリインタフェイスを介して外部メモリに算出結果データを出力したりすることができる。外部装置は、例えば、端末装置またはプリンタなどであり、外部メモリは、USB(Universal Serial Bus)メモリまたはメモリカードなどである。 For example, the data output unit 36 outputs calculation result data by transmitting the calculation result data to an external device via the communication unit 10 and the network 3, or outputs the calculation result data to an external memory via a memory interface (not shown). data can be output. The external device is, for example, a terminal device or a printer, and the external memory is a USB (Universal Serial Bus) memory or memory card.

つづいて、フローチャートを用いて情報処理装置1の処理部14による処理を説明する。図14は、実施の形態1にかかる情報処理装置の処理部による処理の一例を示すフローチャートである。 Next, processing by the processing unit 14 of the information processing device 1 will be described using a flowchart. 14 is a flowchart illustrating an example of processing by a processing unit of the information processing apparatus according to the first embodiment; FIG.

図14に示すように、情報処理装置1の処理部14は、表示要求があるか否かを判定する(ステップS10)。処理部14は、表示要求があると判定した場合(ステップS10:Yes)、撮像画像表示処理を行う(ステップS11)。ステップS11の撮像画像表示処理は、図15に示すステップS20~S26の処理であり、後で詳述する。 As shown in FIG. 14, the processing unit 14 of the information processing device 1 determines whether or not there is a display request (step S10). If the processing unit 14 determines that there is a display request (step S10: Yes), it performs captured image display processing (step S11). The picked-up image display processing of step S11 is the processing of steps S20 to S26 shown in FIG. 15, and will be described in detail later.

処理部14は、ステップS11の処理が終了した場合、または表示要求がないと判定した場合(ステップS10:No)、測定モードが特定点間距離測定モードであるか否かを判定する(ステップS12)。 When the processing of step S11 is completed, or when it is determined that there is no display request (step S10: No), the processing unit 14 determines whether the measurement mode is the distance measurement mode between specific points (step S12). ).

処理部14は、測定モードが特定点間距離測定モードであると判定した場合(ステップS12:Yes)、特定点間距離測定処理を行う(ステップS13)。ステップS13の特定点間距離測定処理は、図16に示すステップS30~S40の処理であり、後で詳述する。 When the processing unit 14 determines that the measurement mode is the distance measurement mode between specific points (step S12: Yes), it performs distance measurement processing between specific points (step S13). The distance measurement process between specific points in step S13 is the process of steps S30 to S40 shown in FIG. 16, and will be described in detail later.

処理部14は、ステップS13の処理が終了した場合、または測定モードが特定点間距離測定モードではないと判定した場合(ステップS12:No)、測定モードが接続線総距離測定モードであるか否かを判定する(ステップS14)。 When the processing of step S13 is completed, or when it is determined that the measurement mode is not the distance measurement mode between specific points (step S12: No), the processing unit 14 determines whether the measurement mode is the connection line total distance measurement mode. (step S14).

処理部14は、測定モードが接続線総距離測定モードであると判定した場合(ステップS14:Yes)、接続線総距離測定処理を行う(ステップS15)。ステップS15の接続線総距離測定処理は、図19に示すステップS70~S77の処理であり、後で詳述する。 When the processing unit 14 determines that the measurement mode is the connection line total distance measurement mode (step S14: Yes), the processing unit 14 performs connection line total distance measurement processing (step S15). The connection line total distance measurement process of step S15 is the process of steps S70 to S77 shown in FIG. 19, and will be described in detail later.

処理部14は、ステップS15の処理が終了した場合、または測定モードが接続線総距離測定モードではないと判定した場合(ステップS14:No)、出力要求があるか否かを判定する(ステップS16)。 When the processing of step S15 is completed, or when it is determined that the measurement mode is not the connection line total distance measurement mode (step S14: No), the processing unit 14 determines whether or not there is an output request (step S16). ).

処理部14は、出力要求があると判定した場合(ステップS16:Yes)、出力処理を行う(ステップS17)。ステップS17の出力処理において、処理部14は、例えば、特定部34によって判定された特定点の座標を示すデータおよび距離算出部35によって算出された距離を示すデータを含むデータファイルを算出結果データとして出力する。 When determining that there is an output request (step S16: Yes), the processing unit 14 performs output processing (step S17). In the output process of step S17, the processing unit 14 uses, for example, a data file containing data indicating the coordinates of the specific point determined by the identifying unit 34 and data indicating the distance calculated by the distance calculating unit 35 as calculation result data. Output.

処理部14は、ステップS17の処理が終了した場合、または出力要求がないと判定した場合(ステップS16:No)、動作終了のタイミングになったか否かを判定する(ステップS18)。処理部14は、例えば、情報処理装置1の不図示の電源がオフされたと判定した場合または入力部11への動作終了の操作が行われたと判定した場合に、動作終了のタイミングになったと判定する。 When the process of step S17 is finished, or when it is determined that there is no output request (step S16: No), the processing unit 14 determines whether or not it is time to end the operation (step S18). For example, when the processing unit 14 determines that the power supply (not shown) of the information processing device 1 is turned off or determines that an operation end operation has been performed on the input unit 11, the processing unit 14 determines that it is time to end the operation. do.

処理部14は、動作終了のタイミングになっていないと判定した場合(ステップS18:No)、処理をステップS10へ移行し、動作終了のタイミングになったと判定した場合(ステップS18:Yes)、図14に示す処理を終了する。 If the processing unit 14 determines that it is not the time to end the operation (step S18: No), the process proceeds to step S10. 14 ends.

図15は、実施の形態1にかかる情報処理装置の処理部による撮像画像表示処理の一例を示すフローチャートである。図15に示すように、処理部14は、記憶部13の撮像画像データ記憶部20から表示要求に応じた撮像画像データを取得し(ステップS20)、記憶部13の3次元点群データ記憶部21から表示要求に応じた3次元点群データを取得する(ステップS21)。 15 is a flowchart illustrating an example of captured image display processing by the processing unit of the information processing apparatus according to the first embodiment; FIG. As shown in FIG. 15, the processing unit 14 acquires captured image data corresponding to the display request from the captured image data storage unit 20 of the storage unit 13 (step S20), and stores the three-dimensional point cloud data storage unit of the storage unit 13. 21 acquires the three-dimensional point group data corresponding to the display request (step S21).

そして、処理部14は、ステップS20で取得した撮像画像データで示される撮像画像とステップS21で取得した3次元点群データで示される3次元点群とを同一の3次元座標系に配置する(ステップS22)。 Then, the processing unit 14 arranges the captured image represented by the captured image data acquired in step S20 and the three-dimensional point group represented by the three-dimensional point cloud data acquired in step S21 in the same three-dimensional coordinate system ( step S22).

次に、処理部14は、動作モードが第1のモードであるか否かを判定する(ステップS23)。処理部14は、動作モードが第1のモードであると判定した場合(ステップS23:Yes)、撮像画像と同一の3次元座標系に配置した3次元点群の色を無色化して透明にする(ステップS24)。 Next, the processing unit 14 determines whether or not the operation mode is the first mode (step S23). When the processing unit 14 determines that the operation mode is the first mode (step S23: Yes), the 3D point group arranged in the same 3D coordinate system as the captured image is colorless and made transparent. (Step S24).

また、処理部14は、動作モードが第1のモードでなく第2のモードであると判定した場合(ステップS23:No)、撮像画像と同一の3次元座標系に配置した3次元点群の視点位置からの位置を撮像画像よりも遠くに移動する(ステップS25)。 In addition, when the processing unit 14 determines that the operation mode is not the first mode but the second mode (step S23: No), the processing unit 14 stores the three-dimensional point group arranged in the same three-dimensional coordinate system as the captured image. The position from the viewpoint position is moved farther than the captured image (step S25).

処理部14は、ステップS24の処理が終了した場合、またはステップS25の処理が終了した場合、2次元画像のデータを生成し、生成した2次元画像のデータを表示部12に出力し(ステップS26)、図15に示す処理を終了する。ステップS26で生成される2次元画像のデータは、同一の3次元座標系に配置した撮像画像と3次元点群とを視点位置から見た2次元画像のデータである。 When the process of step S24 or the process of step S25 ends, the processing unit 14 generates data of a two-dimensional image, and outputs the data of the generated two-dimensional image to the display unit 12 (step S26 ), the process shown in FIG. 15 is terminated. The two-dimensional image data generated in step S26 is two-dimensional image data obtained by viewing the picked-up image and the three-dimensional point group arranged in the same three-dimensional coordinate system from the viewpoint position.

図16は、実施の形態1にかかる情報処理装置の処理部による特定点間距離測定処理の一例を示すフローチャートである。図16に示すように、処理部14は、利用者の指定操作があるか否かを判定する(ステップS30)。 16 is a flowchart illustrating an example of distance measurement processing between specific points by the processing unit of the information processing apparatus according to the first embodiment; FIG. As shown in FIG. 16, the processing unit 14 determines whether or not there is a user's designation operation (step S30).

処理部14は、利用者の指定操作があると判定した場合(ステップS30:Yes)、特定点判定処理を行う(ステップS31)。ステップS31の処理は、図17に示すステップS50~S52の処理であり、後で詳述する。 When the processing unit 14 determines that there is a user's designation operation (step S30: Yes), the processing unit 14 performs specific point determination processing (step S31). The process of step S31 is the process of steps S50 to S52 shown in FIG. 17, and will be described in detail later.

次に、処理部14は、第1の特定点があるか否かを判定する(ステップS32)。処理部14は、第1の特定点があると判定した場合(ステップS32:Yes)、ステップS31で判定した特定点が第1の特定点から予め設定された範囲内であるか否かを判定する(ステップS33)。 Next, the processing unit 14 determines whether or not there is a first specific point (step S32). If the processing unit 14 determines that there is a first specific point (step S32: Yes), it determines whether the specific point determined in step S31 is within a preset range from the first specific point. (step S33).

処理部14は、第1の特定点がないと判定した場合(ステップS32:No)、またはステップS31で判定した特定点が第1の特定点から予め設定された範囲内であると判定した場合(ステップS33:Yes)、ステップS31で判定した新たな特定点を第1の特定点にして第1の特定点を修正する(ステップS34)。 When the processing unit 14 determines that there is no first specific point (step S32: No), or determines that the specific point determined in step S31 is within a preset range from the first specific point (Step S33: Yes), the new specific point determined in step S31 is used as the first specific point, and the first specific point is corrected (step S34).

また、処理部14は、ステップS31で判定した特定点が第1の特定点から予め設定された範囲内ではないと判定した場合(ステップS33:No)、ステップS31で判定した新たな特定点を第2の特定点に決定する(ステップS35)。 Further, when the processing unit 14 determines that the specific point determined in step S31 is not within the preset range from the first specific point (step S33: No), the new specific point determined in step S31 is A second specific point is determined (step S35).

処理部14は、ステップS34の処理が終了した場合、またはステップS35の処理が終了した場合、3次元点群処理を行う(ステップS36)。ステップS36の3次元点群処理は、図18に示すステップS60~S65の処理であり、後で詳述する。 The processing unit 14 performs three-dimensional point group processing when the process of step S34 is finished or when the process of step S35 is finished (step S36). The three-dimensional point group processing of step S36 is the processing of steps S60 to S65 shown in FIG. 18, and will be described in detail later.

次に、処理部14は、同一の3次元座標系に配置した撮像画像と3次元点群とを視点位置から見た2次元画像であって特定点および周辺点を強調表示した2次元画像のデータを生成し、生成した2次元画像のデータを表示部12に出力する(ステップS37)。 Next, the processing unit 14 generates a two-dimensional image in which the captured image and the three-dimensional point group arranged in the same three-dimensional coordinate system are viewed from the viewpoint position, and in which the specific point and the peripheral points are highlighted. Data is generated, and the generated two-dimensional image data is output to the display unit 12 (step S37).

次に、処理部14は、第2の特定点があるか否かを判定する(ステップS38)。処理部14は、第2の特定点があると判定した場合(ステップS38:Yes)、第1の特定点と第2の特定点との間の距離を算出する(ステップS39)。そして、処理部14は、ステップS39で算出した距離を表示部12に表示させる(ステップS40)。 Next, the processing unit 14 determines whether or not there is a second specific point (step S38). If the processing unit 14 determines that there is a second specific point (step S38: Yes), it calculates the distance between the first specific point and the second specific point (step S39). Then, the processing unit 14 causes the display unit 12 to display the distance calculated in step S39 (step S40).

処理部14は、ステップS40の処理が終了した場合、利用者の指定操作がないと判定した場合(ステップS30:No)、または第2の特定点がないと判定した場合(ステップS38:No)、図16に示す処理を終了する。 When the process of step S40 ends, the processing unit 14 determines that there is no designation operation by the user (step S30: No), or determines that there is no second specific point (step S38: No). , the processing shown in FIG. 16 ends.

図17は、実施の形態1にかかる情報処理装置の処理部による特定点判定処理の一例を示すフローチャートである。図17に示すように、処理部14は、動作モードが第1のモードであるか否かを判定する(ステップS50)。 17 is a flowchart illustrating an example of specific point determination processing by the processing unit of the information processing apparatus according to the first embodiment; FIG. As shown in FIG. 17, the processing unit 14 determines whether or not the operation mode is the first mode (step S50).

処理部14は、動作モードが第1のモードではなく第2のモードであると判定した場合(ステップS50:No)、3次元点群の位置をステップS25で移動する前の位置に一時的に戻す(ステップS51)。 When the processing unit 14 determines that the operation mode is not the first mode but the second mode (step S50: No), the position of the three-dimensional point group is temporarily changed to the position before being moved in step S25. return (step S51).

処理部14は、ステップS51の処理が終了した場合、または動作モードが第1のモードであると判定した場合(ステップS50:Yes)、指定点に対応する3次元点を特定し(ステップS52)、図17に示す処理を終了する。なお、図示していないが、処理部14は、ステップS52が終了した後、3次元点群の位置をステップS25で移動する前の位置に一時的に戻した場合、3次元点群の位置をステップS25で移動した後の位置に戻す。 When the process of step S51 is completed, or when the operation mode is determined to be the first mode (step S50: Yes), the processing unit 14 specifies a three-dimensional point corresponding to the specified point (step S52). , the process shown in FIG. 17 ends. Although not shown, when the processing unit 14 temporarily returns the position of the three-dimensional point cloud to the position before the movement in step S25 after step S52 is completed, the position of the three-dimensional point cloud is changed to It is returned to the position after it was moved in step S25.

図18は、実施の形態1にかかる情報処理装置の処理部による3次元点群処理の一例を示すフローチャートである。図18に示すように、処理部14は、動作モードが第1のモードであるか否かを判定する(ステップS60)。 18 is a flowchart illustrating an example of three-dimensional point cloud processing by the processing unit of the information processing apparatus according to the first embodiment; FIG. As shown in FIG. 18, the processing unit 14 determines whether or not the operation mode is the first mode (step S60).

処理部14は、動作モードが第1のモードであると判定した場合(ステップS60:Yes)、特定点からの距離が予め設定された範囲内にある3次元点を周辺点として特定する(ステップS61)。 When the processing unit 14 determines that the operation mode is the first mode (step S60: Yes), the processing unit 14 identifies three-dimensional points within a range in which the distance from the specific point is set in advance as peripheral points (step S61).

また、処理部14は、動作モードが第1のモードではなく第2のモードであると判定した場合(ステップS60:No)、3次元点群の位置をステップS25で移動する前の位置に戻す(ステップS62)。そして、処理部14は、特定点からの距離が予め設定された範囲内にある3次元点を周辺点として特定し(ステップS63)、3次元点群のうち特定点および周辺点以外の3次元点をステップS25で移動した位置である移動後の位置に戻す(ステップS64)。 Further, when the processing unit 14 determines that the operation mode is not the first mode but the second mode (step S60: No), the position of the three-dimensional point group is returned to the position before being moved in step S25. (Step S62). Then, the processing unit 14 identifies, as peripheral points, three-dimensional points whose distance from the specific point is within a preset range (step S63). The point is returned to the post-movement position to which it was moved in step S25 (step S64).

処理部14は、ステップS61の処理が終了した場合、またはステップS64の処理が終了した場合、特定点と周辺点とを着色し(ステップS65)、図18に示す処理を終了する。 When the process of step S61 or the process of step S64 ends, the processing unit 14 colors the specific point and the surrounding points (step S65), and ends the process shown in FIG.

図19は、実施の形態1にかかる情報処理装置の処理部による接続線総距離測定処理の一例を示すフローチャートである。図19に示すように、処理部14は、利用者の指定操作があるか否かを判定する(ステップS70)。 19 is a flowchart illustrating an example of connection line total distance measurement processing by the processing unit of the information processing apparatus according to the first embodiment; FIG. As shown in FIG. 19, the processing unit 14 determines whether or not there is a user's designation operation (step S70).

処理部14は、利用者の指定操作があると判定した場合(ステップS70:Yes)、特定点判定処理を行う(ステップS71)。ステップS71の処理は、上述したステップS50~S52の処理と同じである。そして、処理部14は、3次元点群処理を行う(ステップS72)。ステップS72の処理は、上述したステップS60~S65の処理と同じである。 When the processing unit 14 determines that there is a user's designation operation (step S70: Yes), the processing unit 14 performs specific point determination processing (step S71). The processing of step S71 is the same as the processing of steps S50 to S52 described above. Then, the processing unit 14 performs three-dimensional point group processing (step S72). The processing of step S72 is the same as the processing of steps S60 to S65 described above.

次に、処理部14は、同一の3次元座標系に配置した撮像画像と3次元点群とを視点位置から見た2次元画像であって特定点および周辺点を強調表示した2次元画像のデータを生成し、生成した2次元画像のデータを表示部12に出力する(ステップS73)。 Next, the processing unit 14 generates a two-dimensional image in which the captured image and the three-dimensional point group arranged in the same three-dimensional coordinate system are viewed from the viewpoint position, and in which the specific point and the peripheral points are highlighted. Data is generated, and the generated two-dimensional image data is output to the display unit 12 (step S73).

次に、処理部14は、3つ以上の特定点があるか否かを判定する(ステップS74)。処理部14は、3つ以上の特定点があると判定した場合(ステップS74:Yes)、距離算出条件を満たすか否かを判定する(ステップS75)。 Next, the processing unit 14 determines whether or not there are three or more specific points (step S74). When determining that there are three or more specific points (step S74: Yes), the processing unit 14 determines whether or not the distance calculation condition is satisfied (step S75).

処理部14は、距離算出条件を満たすと判定した場合(ステップS75:Yes)、特定点を指定順に直線で繋いで形成される線の距離を算出する(ステップS76)。そして、処理部14は、ステップS76で算出した距離を表示部12に表示させる(ステップS77)。 If the processing unit 14 determines that the distance calculation condition is satisfied (step S75: Yes), the processing unit 14 calculates the distance of a line formed by connecting the specific points with straight lines in the designated order (step S76). Then, the processing unit 14 causes the display unit 12 to display the distance calculated in step S76 (step S77).

処理部14は、ステップS77の処理が終了した場合、利用者の指定操作がないと判定した場合(ステップS70:No)、3つ以上の特定点がないと判定した場合(ステップS74:No)、または距離算出条件を満たさないと判定した場合(ステップS75:No)、図19に示す処理を終了する。 When the process of step S77 is completed, the processing unit 14 determines that there is no designation operation by the user (step S70: No), or determines that there are no three or more specific points (step S74: No). , or when it is determined that the distance calculation condition is not satisfied (step S75: No), the process shown in FIG. 19 is terminated.

図20は、実施の形態1にかかる情報処理装置のハードウェア構成の一例を示す図である。図20に示すように、情報処理装置1は、プロセッサ101と、メモリ102と、通信装置103と、入力装置104と、表示装置105と、バス106とを備えるコンピュータを含む。 20 is a diagram illustrating an example of a hardware configuration of an information processing apparatus according to the first embodiment; FIG. As shown in FIG. 20, the information processing apparatus 1 includes a computer having a processor 101, a memory 102, a communication device 103, an input device 104, a display device 105, and a bus .

プロセッサ101、メモリ102、通信装置103、入力装置104、および表示装置105は、例えば、バス106によって互いに情報の送受信が可能である。記憶部13は、メモリ102によって実現される。通信部10は、通信装置103で実現される。入力部11は、入力装置104によって実現される。表示部12は、表示装置105によって実現される。 Processor 101 , memory 102 , communication device 103 , input device 104 , and display device 105 can send and receive information from each other, eg, via bus 106 . Storage unit 13 is implemented by memory 102 . The communication unit 10 is implemented by the communication device 103 . The input unit 11 is implemented by the input device 104 . The display unit 12 is implemented by the display device 105 .

プロセッサ101は、記録媒体ドライブにセットされた記録媒体から情報処理プログラムを読み出し、読み出した情報処理プログラムをメモリ102にインストールする。記録媒体ドライブは、例えば、CD(Compact Disc)-ROMドライブ、DVD(Digital Versatile Disc)-ROMドライブ、またはUSBドライブであり、記録媒体は、例えば、CD-ROM、DVD-ROM、または不揮発性の半導体メモリなどである。 The processor 101 reads an information processing program from a recording medium set in a recording medium drive and installs the read information processing program in the memory 102 . The recording medium drive is, for example, a CD (Compact Disc)-ROM drive, a DVD (Digital Versatile Disc)-ROM drive, or a USB drive, and the recording medium is, for example, a CD-ROM, a DVD-ROM, or a non-volatile Such as semiconductor memory.

プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、処理部14の機能を実行する。プロセッサ101は、例えば、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびシステムLSI(Large Scale Integration)のうち1つ以上を含む。 The processor 101 executes the functions of the processing unit 14 by reading and executing programs stored in the memory 102 . The processor 101 is an example of a processing circuit, for example, and includes one or more of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a system LSI (Large Scale Integration).

メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、およびEEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)のうち1つ以上を含む。なお、情報処理装置1は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)などの集積回路を含んでいてもよい。 The memory 102 includes one or more of RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Registered Trademark) (Electrically Erasable Programmable Read Only Memory). include. The information processing apparatus 1 may include integrated circuits such as ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array).

なお、情報処理装置1は、クライアント装置で構成されてもよく、サーバ装置で構成されてもよく、クライアント装置とサーバ装置とで構成されてもよい。情報処理装置1が2以上の装置で構成される場合、2以上の装置の各々は、例えば、図20に示すハードウェア構成を有する。なお、2以上の装置間の通信は、通信装置103を介して行われる。また、情報処理装置1は、2以上のサーバ装置で構成されてもよい。例えば、情報処理装置1は、処理サーバと、データサーバとで構成されてもよい。 The information processing apparatus 1 may be configured by a client device, may be configured by a server device, or may be configured by a client device and a server device. When the information processing apparatus 1 is composed of two or more devices, each of the two or more devices has the hardware configuration shown in FIG. 20, for example. Note that communication between two or more devices is performed via the communication device 103 . Further, the information processing device 1 may be composed of two or more server devices. For example, the information processing device 1 may be configured with a processing server and a data server.

以上のように、実施の形態1にかかる情報処理装置1は、データ取得部31と、第1の表示処理部40と、特定部34と、第2の表示処理部41と、距離算出部35とを備える。データ取得部31は、構造物を撮像して得られる撮像画像のデータと構造物を3次元座標系の複数の3次元点で表す3次元点群のデータとを取得する。第1の表示処理部40は、撮像画像のデータに基づいて、撮像画像を表示部12に表示させる。特定部34は、表示部12に表示された撮像画像のうち利用者によって指定された点に対応する3次元点を複数の3次元点の中から特定する。第2の表示処理部41は、特定部34によって特定された3次元点を撮像画像上に重畳させた状態で表示部12に表示させる。距離算出部35は、利用者によって指定された2つの点に対応する3次元点が特定部34によって特定された場合、特定部34によって特定された2つの点に対応する2つの3次元点間の距離を算出する。これにより、情報処理装置1は、撮像画像内で利用者に指定された点に対応する3次元点を用いて利用者が指定する点間の距離を算出するため、精度よく距離計測を行うことができる。 As described above, the information processing apparatus 1 according to the first embodiment includes the data acquisition unit 31, the first display processing unit 40, the specifying unit 34, the second display processing unit 41, the distance calculation unit 35, and the and The data acquisition unit 31 acquires captured image data obtained by imaging a structure and three-dimensional point group data representing the structure with a plurality of three-dimensional points in a three-dimensional coordinate system. The first display processing unit 40 causes the display unit 12 to display the captured image based on the data of the captured image. The specifying unit 34 specifies a three-dimensional point corresponding to the point specified by the user in the captured image displayed on the display unit 12 from among a plurality of three-dimensional points. The second display processing unit 41 causes the display unit 12 to display the three-dimensional point specified by the specifying unit 34 in a state in which it is superimposed on the captured image. When the specifying unit 34 specifies the three-dimensional points corresponding to the two points specified by the user, the distance calculating unit 35 calculates the distance between the two three-dimensional points corresponding to the two points specified by the specifying unit 34. Calculate the distance of As a result, the information processing apparatus 1 calculates the distance between the points specified by the user using the three-dimensional points corresponding to the points specified by the user in the captured image, so that the distance can be accurately measured. can be done.

第2の表示処理部41は、特定部34によって特定された3次元点を撮像画像と区別可能に強調して撮像画像上に重畳させた状態で表示部12に表示させる。これにより、情報処理装置1は、利用者によって指定された点に対応する3次元点を利用者に容易に把握させることができることから、精度よく距離計測を行うことができる。 The second display processing unit 41 causes the display unit 12 to display the three-dimensional point specified by the specifying unit 34 in a state of being superimposed on the captured image while emphasizing it so as to be distinguishable from the captured image. As a result, the information processing apparatus 1 can allow the user to easily grasp the three-dimensional point corresponding to the point specified by the user, so that distance measurement can be performed with high accuracy.

また、撮像画像は、全天球画像、半天球画像、またはパノラマ画像である。特定部34は、3次元座標系における撮像画像の視点位置と指定された点とを通る直線からの複数の3次元点の各々の距離に基づいて、複数の3次元点の中から指定された点に対応する3次元点を特定する。これにより、情報処理装置1は、精度よく距離計測を行うことができる。 Also, the captured image is an omnidirectional image, a hemispherical image, or a panoramic image. The specifying unit 34 selects the specified point from among the plurality of three-dimensional points based on the distance of each of the plurality of three-dimensional points from a straight line passing through the viewpoint position of the captured image and the specified point in the three-dimensional coordinate system. Identify the 3D point that corresponds to the point. As a result, the information processing device 1 can accurately measure the distance.

また、第2の表示処理部41は、3次元点群の色を透明にした後、特定部34によって特定された3次元点を着色して表示部12に表示させる。これにより、情報処理装置1は、撮像画像が3次元点群によって視認が困難になることを防止することができるため、精度よく距離計測を行うことができる。 Further, the second display processing unit 41 makes the color of the three-dimensional point group transparent, and then colors the three-dimensional points specified by the specifying unit 34 and causes the display unit 12 to display them. As a result, the information processing apparatus 1 can prevent the captured image from becoming difficult to visually recognize due to the three-dimensional point cloud, so that distance measurement can be performed with high accuracy.

また、第2の表示処理部41は、3次元座標系における撮像画像の位置を3次元点群よりも視点位置から遠い位置に移動させた後、特定部34によって特定された3次元点の位置を移動前の状態に戻すことで特定部34によって特定された3次元点を表示部12に表示させる。これにより、情報処理装置1は、3次元点群の色情報を変更する処理を行うことがなく、処理負荷を軽減することができる。 Further, the second display processing unit 41 moves the position of the captured image in the three-dimensional coordinate system to a position farther from the viewpoint position than the three-dimensional point cloud, and then moves the position of the three-dimensional point specified by the specifying unit 34. is returned to the state before the movement, the three-dimensional point specified by the specifying unit 34 is displayed on the display unit 12 . Thereby, the information processing apparatus 1 can reduce the processing load without performing the process of changing the color information of the three-dimensional point group.

また、情報処理装置1は、視点位置からの距離または3次元点間の距離に基づいて、複数の3次元点の中から一部の3次元点を間引く間引き部32を備える。特定部34は、間引き部32によって一部の3次元点が間引かれた複数の3次元点の中から利用者によって指定された点に対応する3次元点を特定する。これにより、情報処理装置1は、複雑な距離の計測を行うことができる。 The information processing apparatus 1 also includes a thinning unit 32 that thins out some of the three-dimensional points from among the plurality of three-dimensional points based on the distance from the viewpoint position or the distance between the three-dimensional points. The specifying unit 34 specifies a 3D point corresponding to the point specified by the user from among a plurality of 3D points from which some of the 3D points are thinned out by the thinning unit 32 . Thereby, the information processing device 1 can perform complicated distance measurement.

また、特定部34は、利用者によって指定された点に対応する3次元点として新たに特定した3次元点がすでに特定した3次元点からの予め設定された範囲にある場合、すでに特定した3次元点の特定を解除する。これにより、情報処理装置1では、距離測定の精度を向上させることができる。 Further, when the 3D point newly specified as the 3D point corresponding to the point specified by the user is within a preset range from the already specified 3D point, the specifying unit 34 determines the already specified 3D point. Unidentify dimension points. As a result, the information processing device 1 can improve the accuracy of distance measurement.

また、距離算出部35は、利用者によって指定された3つ以上の点に対応する3次元点の座標が特定部34によって特定された場合、特定部34によって特定された3つ以上の点に対応する3次元点を利用者に指定された順に直線で繋いで形成される線の距離を算出する。これにより、利用者は、距離測定の対象となる特定点の位置の微調整または特定点の誤りの修正を行うことができ、特定点の修正を容易に行うことができる。そのため、情報処理装置1では、距離測定の精度を向上させることができる。 Further, when the specifying unit 34 specifies the coordinates of the three-dimensional points corresponding to the three or more points specified by the user, the distance calculating unit 35 calculates the coordinates of the three or more points specified by the specifying unit 34. The distance of a line formed by connecting the corresponding three-dimensional points with straight lines in the order specified by the user is calculated. Thereby, the user can finely adjust the position of the specific point to be distance-measured or correct the error of the specific point, and can easily correct the specific point. Therefore, the information processing device 1 can improve the accuracy of distance measurement.

また、情報処理装置1は、特定部34によって特定された3次元点の座標を示すデータおよび距離算出部35によって算出された距離を示すデータを含むデータファイルを出力するデータ出力部36を備える。これにより、利用者は、情報処理装置1から出力されるデータファイルを用いて、距離の算出結果の保存または解析を行うことができる。 The information processing apparatus 1 also includes a data output unit 36 that outputs a data file including data representing the coordinates of the three-dimensional point specified by the specifying unit 34 and data representing the distance calculated by the distance calculation unit 35 . Thereby, the user can use the data file output from the information processing apparatus 1 to save or analyze the distance calculation result.

以上の実施の形態に示した構成は、一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。 The configuration shown in the above embodiment is an example, and can be combined with another known technique, and part of the configuration can be omitted or changed without departing from the scope of the invention. It is possible.

1 情報処理装置、2 計測車両、3 ネットワーク、4 道路、5 トンネル、6 ガードレール、10,75 通信部、11 入力部、12 表示部、13 記憶部、14,74 処理部、20 撮像画像データ記憶部、21 3次元点群データ記憶部、22 特定点データ記憶部、30 入力受付部、31 データ取得部、32 間引き部、33 表示処理部、34 特定部、35 距離算出部、36 データ出力部、40 第1の表示処理部、41 第2の表示処理部、42 第3の表示処理部、60 車両本体、70 計測装置、71 撮像部、72 3次元計測部、73 位置検出部、80,81,82,83 3次元点群、90 2次元画像、91 撮像画像、92 カーソル、93 特定点、94 周辺点、95,L 直線、96 特定点間距離、97 線、98 接続線総距離、100 計測処理システム、101 プロセッサ、102 メモリ、103 通信装置、104 入力装置、105 表示装置、106 バス。 1 information processing device, 2 measurement vehicle, 3 network, 4 road, 5 tunnel, 6 guardrail, 10, 75 communication unit, 11 input unit, 12 display unit, 13 storage unit, 14, 74 processing unit, 20 captured image data storage 21 three-dimensional point cloud data storage unit 22 specific point data storage unit 30 input reception unit 31 data acquisition unit 32 thinning unit 33 display processing unit 34 identification unit 35 distance calculation unit 36 data output unit , 40 first display processing unit, 41 second display processing unit, 42 third display processing unit, 60 vehicle body, 70 measurement device, 71 imaging unit, 72 three-dimensional measurement unit, 73 position detection unit, 80, 81, 82, 83 three-dimensional point group, 90 two-dimensional image, 91 captured image, 92 cursor, 93 specific point, 94 peripheral point, 95, L straight line, 96 distance between specific points, 97 line, 98 connection line total distance, 100 measurement processing system, 101 processor, 102 memory, 103 communication device, 104 input device, 105 display device, 106 bus.

Claims (11)

構造物を撮像して得られる撮像画像のデータと前記構造物を3次元座標系の複数の3次元点で表す3次元点群のデータとを取得するデータ取得部と、
前記撮像画像のデータに基づいて、前記撮像画像を表示部に表示させる第1の表示処理部と、
前記表示部に表示された前記撮像画像のうち利用者によって指定された点に対応する3次元点を前記複数の3次元点の中から特定する特定部と、
前記特定部によって特定された前記3次元点を前記撮像画像上に重畳させた状態で前記表示部に表示させる第2の表示処理部と、
前記利用者によって指定された2つの点に対応する3次元点が前記特定部によって特定された場合、前記特定部によって特定された前記2つの点に対応する2つの3次元点間の距離を算出する距離算出部と、を備える
ことを特徴とする情報処理装置。
a data acquisition unit that acquires captured image data obtained by imaging a structure and three-dimensional point group data representing the structure with a plurality of three-dimensional points in a three-dimensional coordinate system;
a first display processing unit for displaying the captured image on a display unit based on the data of the captured image;
a specifying unit that specifies, from among the plurality of three-dimensional points, a three-dimensional point corresponding to a point specified by a user in the captured image displayed on the display unit;
a second display processing unit that causes the display unit to display the three-dimensional point specified by the specifying unit in a state of being superimposed on the captured image;
When the specifying unit specifies three-dimensional points corresponding to the two points specified by the user, calculating the distance between the two three-dimensional points corresponding to the two points specified by the specifying unit. an information processing apparatus comprising: a distance calculation unit that
前記第2の表示処理部は、
前記特定部によって特定された前記3次元点を前記撮像画像と区別可能に強調して前記撮像画像上に重畳させた状態で前記表示部に表示させる
ことを特徴とする請求項1に記載の情報処理装置。
The second display processing unit
2. The information according to claim 1, wherein the three-dimensional point specified by the specifying unit is displayed on the display unit in a state of being emphasized so as to be distinguishable from the captured image and superimposed on the captured image. processing equipment.
前記撮像画像は、
全天球画像、半天球画像、またはパノラマ画像であり、
前記特定部は、
3次元座標系における前記撮像画像の視点位置と前記指定された点とを通る直線からの前記複数の3次元点の各々の距離に基づいて、前記複数の3次元点の中から前記指定された点に対応する3次元点を特定する
ことを特徴とする請求項1または2に記載の情報処理装置。
The captured image is
Spherical image, hemispherical image, or panoramic image,
The identification unit
the designated point out of the plurality of three-dimensional points based on the distance of each of the plurality of three-dimensional points from a straight line passing through the viewpoint position of the captured image and the designated point in a three-dimensional coordinate system; 3. The information processing apparatus according to claim 1, wherein a three-dimensional point corresponding to the point is specified.
前記第2の表示処理部は、
前記3次元点群の色を透明にした後、前記特定部によって特定された前記3次元点を着色して前記表示部に表示させる
ことを特徴とする請求項3に記載の情報処理装置。
The second display processing unit
4. The information processing apparatus according to claim 3, wherein after making the color of the three-dimensional point group transparent, the three-dimensional points specified by the specifying unit are colored and displayed on the display unit.
前記第2の表示処理部は、
前記3次元座標系における前記3次元点群の位置を前記撮像画像よりも前記視点位置から遠い位置に移動させた後、前記特定部によって特定された前記3次元点の位置を移動前の状態に戻すことで前記特定部によって特定された前記3次元点を前記表示部に表示させる
ことを特徴とする請求項3に記載の情報処理装置。
The second display processing unit
After moving the position of the three-dimensional point group in the three-dimensional coordinate system to a position farther from the viewpoint position than the captured image , the position of the three-dimensional point specified by the specifying unit is returned to the state before the movement. 4. The information processing apparatus according to claim 3, wherein the three-dimensional point specified by the specifying unit is displayed on the display unit by returning.
前記視点位置からの距離または3次元点間の距離に基づいて、前記複数の3次元点の中から一部の3次元点を間引く間引き部を備え、
前記特定部は、
前記間引き部によって前記一部の3次元点が間引かれた複数の3次元点の中から前記利用者によって指定された点に対応する3次元点を特定する
ことを特徴とする請求項3から5のいずれか1つに記載の情報処理装置。
a thinning unit that thins out some of the three-dimensional points from among the plurality of three-dimensional points based on the distance from the viewpoint position or the distance between the three-dimensional points;
The identification unit
from claim 3, wherein a three-dimensional point corresponding to the point specified by the user is specified from among a plurality of three-dimensional points from which the partial three-dimensional points are thinned out by the thinning unit. 6. The information processing apparatus according to any one of 5.
前記特定部は、
前記利用者によって指定された点に対応する3次元点として新たに特定した3次元点がすでに特定した3次元点からの予め設定された範囲にある場合、すでに特定した3次元点の特定を解除する
ことを特徴とする請求項1から5のいずれか1つに記載の情報処理装置。
The identification unit
If the newly specified 3D point as the 3D point corresponding to the point specified by the user is within a preset range from the already specified 3D point, the already specified 3D point is canceled. The information processing apparatus according to any one of claims 1 to 5, characterized in that:
前記距離算出部は、
前記利用者によって指定された3つ以上の点に対応する3次元点の座標が前記特定部によって特定された場合、前記特定部によって特定された前記3つ以上の点に対応する3次元点を前記利用者に指定された順に直線で繋いで形成される線の距離を算出する
ことを特徴とする請求項1から7のいずれか1つに記載の情報処理装置。
The distance calculation unit
When coordinates of three-dimensional points corresponding to three or more points specified by the user are specified by the specifying unit, three-dimensional points corresponding to the three or more points specified by the specifying unit are specified. 8. The information processing apparatus according to any one of claims 1 to 7, wherein a distance of a line formed by connecting straight lines in the order designated by the user is calculated.
前記特定部によって特定された前記3次元点の座標を示すデータおよび前記距離算出部によって算出された前記距離を示すデータを含むデータファイルを出力するデータ出力部を備える
ことを特徴とする請求項1から8のいずれか1つに記載の情報処理装置。
2. A data output unit for outputting a data file including data indicating the coordinates of the three-dimensional point specified by the specifying unit and data indicating the distance calculated by the distance calculating unit. 9. The information processing device according to any one of 8 to 8.
構造物を撮像して得られる撮像画像のデータと前記構造物を3次元座標系の複数の3次元点で表す3次元点群のデータとを取得するデータ取得ステップと、
前記撮像画像のデータに基づいて、前記撮像画像を表示部に表示させる第1の表示処理ステップと、
前記表示部に表示された前記撮像画像のうち利用者によって指定された点に対応する3次元点を前記複数の3次元点の中から特定する特定ステップと、
前記特定ステップによって特定された前記3次元点を前記撮像画像上に重畳させた状態で前記表示部に表示させる第2の表示処理ステップと、
前記利用者によって指定された2つの点に対応する3次元点が前記特定ステップによって特定された場合、前記特定ステップによって特定された前記2つの点に対応する2つの3次元点間の距離を算出する距離算出ステップと、を含む
ことを特徴とする情報処理方法。
a data acquisition step of acquiring captured image data obtained by imaging a structure and three-dimensional point group data representing the structure with a plurality of three-dimensional points in a three-dimensional coordinate system;
a first display processing step of displaying the captured image on a display unit based on the data of the captured image;
a specifying step of specifying, from among the plurality of three-dimensional points, a three-dimensional point corresponding to a point specified by a user in the captured image displayed on the display unit;
a second display processing step of causing the display unit to display the three-dimensional point specified by the specifying step in a state of being superimposed on the captured image;
When three-dimensional points corresponding to the two points specified by the user are specified by the specifying step, calculating the distance between the two three-dimensional points corresponding to the two points specified by the specifying step. and a distance calculation step for calculating the distance.
構造物を撮像して得られる撮像画像のデータと前記構造物を3次元座標系の複数の3次元点で表す3次元点群のデータとを取得するデータ取得ステップと、
前記撮像画像のデータに基づいて、前記撮像画像を表示部に表示させる第1の表示処理ステップと、
前記表示部に表示された前記撮像画像のうち利用者によって指定された点に対応する3次元点を前記複数の3次元点の中から特定する特定ステップと、
前記特定ステップによって特定された前記3次元点を前記撮像画像上に重畳させた状態で前記表示部に表示させる第2の表示処理ステップと、
前記利用者によって指定された2つの点に対応する3次元点が前記特定ステップによって特定された場合、前記特定ステップによって特定された前記2つの点に対応する2つの3次元点間の距離を算出する距離算出ステップと、をコンピュータに実行させる
ことを特徴とする情報処理プログラム。
a data acquisition step of acquiring captured image data obtained by imaging a structure and three-dimensional point group data representing the structure with a plurality of three-dimensional points in a three-dimensional coordinate system;
a first display processing step of displaying the captured image on a display unit based on the data of the captured image;
a specifying step of specifying, from among the plurality of three-dimensional points, a three-dimensional point corresponding to a point specified by a user in the captured image displayed on the display unit;
a second display processing step of causing the display unit to display the three-dimensional point specified by the specifying step in a state of being superimposed on the captured image;
When three-dimensional points corresponding to the two points specified by the user are specified by the specifying step, calculating the distance between the two three-dimensional points corresponding to the two points specified by the specifying step. and a step of calculating a distance to be calculated.
JP2022510165A 2021-11-09 2021-11-09 Information processing device, information processing method, and information processing program Active JP7113997B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/041188 WO2023084602A1 (en) 2021-11-09 2021-11-09 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP7113997B1 true JP7113997B1 (en) 2022-08-05
JPWO2023084602A1 JPWO2023084602A1 (en) 2023-05-19

Family

ID=82740441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022510165A Active JP7113997B1 (en) 2021-11-09 2021-11-09 Information processing device, information processing method, and information processing program

Country Status (2)

Country Link
JP (1) JP7113997B1 (en)
WO (1) WO2023084602A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099915A1 (en) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data
KR20190061791A (en) * 2017-11-28 2019-06-05 네이버시스템(주) Algorithm and tool development for side-image analysis captured by Unmanned Aerial Vehicle
WO2021181464A1 (en) * 2020-03-09 2021-09-16 オリンパス株式会社 Measurement method, measurement device, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099915A1 (en) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data
KR20190061791A (en) * 2017-11-28 2019-06-05 네이버시스템(주) Algorithm and tool development for side-image analysis captured by Unmanned Aerial Vehicle
WO2021181464A1 (en) * 2020-03-09 2021-09-16 オリンパス株式会社 Measurement method, measurement device, and recording medium

Also Published As

Publication number Publication date
WO2023084602A1 (en) 2023-05-19
JPWO2023084602A1 (en) 2023-05-19

Similar Documents

Publication Publication Date Title
CN108665536B (en) Three-dimensional and live-action data visualization method and device and computer readable storage medium
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
WO2021140886A1 (en) Three-dimensional model generation method, information processing device, and program
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
US20230419661A1 (en) Input apparatus, input method of input apparatus, and output apparatus
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
JP6589636B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
WO2017090426A1 (en) Physical-object measurement device and physical-object measurement method
US20110235898A1 (en) Matching process in three-dimensional registration and computer-readable storage medium storing a program thereof
CN112907727A (en) Calibration method, device and system of relative transformation matrix
JP4077385B2 (en) Global coordinate acquisition device using image processing
CN111508020B (en) Cable three-dimensional position calculation method and device for fusing image and laser radar
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JP7113997B1 (en) Information processing device, information processing method, and information processing program
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
JP7020418B2 (en) Information processing equipment, information processing methods, and programs
JPWO2020145004A1 (en) Shooting guide device
KR101356172B1 (en) Apparatus and method for producing three-dimensional image for remote control
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
WO2019093062A1 (en) Measuring device, method for controlling measuring device, measuring program, and recording medium
CN114051627A (en) Camera calibration method
JP6340113B2 (en) Measuring device and program thereof
JP6741154B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220726

R150 Certificate of patent or registration of utility model

Ref document number: 7113997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150