[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7107015B2 - Point cloud processing device, point cloud processing method and program - Google Patents

Point cloud processing device, point cloud processing method and program Download PDF

Info

Publication number
JP7107015B2
JP7107015B2 JP2018116202A JP2018116202A JP7107015B2 JP 7107015 B2 JP7107015 B2 JP 7107015B2 JP 2018116202 A JP2018116202 A JP 2018116202A JP 2018116202 A JP2018116202 A JP 2018116202A JP 7107015 B2 JP7107015 B2 JP 7107015B2
Authority
JP
Japan
Prior art keywords
point cloud
background
integrated
point
point group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018116202A
Other languages
Japanese (ja)
Other versions
JP2019219248A (en
Inventor
真隆 福泉
美智代 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018116202A priority Critical patent/JP7107015B2/en
Publication of JP2019219248A publication Critical patent/JP2019219248A/en
Application granted granted Critical
Publication of JP7107015B2 publication Critical patent/JP7107015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、点群処理装置、点群処理方法およびプログラムに関する。 The present invention relates to a point cloud processing device, a point cloud processing method, and a program.

近年、実空間の3次元計測および計測データの3次元モデル化の需要が高まっている。実空間の3次元計測および計測データの3次元モデル化を実現する方法には、例えばLIDAR(Laser Imaging Detection and Ranging)のように、アクティブ光(近赤外光)に対する反応を検知する3次元レーザーセンサを利用する方法が挙げられる。 In recent years, there has been an increasing demand for three-dimensional measurement of real space and three-dimensional modeling of measurement data. Methods for realizing three-dimensional measurement of real space and three-dimensional modeling of measurement data include three-dimensional lasers that detect reactions to active light (near-infrared light), such as LIDAR (Laser Imaging Detection and Ranging). A method using a sensor is mentioned.

3次元計測に関し、特許文献1には、LIDARを用いて得られた点群において点密度が希薄な領域に対して、画像センサから得られた情報を処理して生成した新たな点群を追加することで、点群の高解像度化を行う技術が開示されている。また、赤外線ドットによりデプスマップを得る方法では、赤外線を十分に反射しない領域がデプスマップにおける欠損領域になる。この点に関し、特許文献2には、RGBの色情報を持つ画像を用いて欠損領域を補間する方法が開示されている。なお、当該デプスマップは点群の生成に用いられることがある。 Regarding three-dimensional measurement, Patent Document 1 adds a new point cloud generated by processing information obtained from an image sensor for areas where the point density is sparse in the point cloud obtained using LIDAR. A technique for increasing the resolution of a point group by doing so is disclosed. Also, in the method of obtaining a depth map using infrared dots, a region that does not reflect infrared rays sufficiently becomes a missing region in the depth map. Regarding this point, Patent Document 2 discloses a method of interpolating a missing area using an image having RGB color information. Note that the depth map may be used to generate a point group.

特許第5778237号Patent No. 5778237 特表2016-522923号公報Japanese Patent Publication No. 2016-522923

特許文献1および特許文献2に記載の技術によれば、ある時点での実空間を表現する点群またはデプスマップを得ることができる。しかし、特許文献1および特許文献2には、実空間の床または壁などの背景領域に属する背景点群を全体の点群から抽出する技術は開示されていない。ある時点での測定により得られた全体の点群から背景点群を抽出する技術があったとしても、一部の背景領域が物体に隠れている場合、背景点群の一部が欠損してしまう。 According to the techniques described in Patent Documents 1 and 2, it is possible to obtain a point cloud or depth map that expresses the real space at a certain point in time. However, Patent Literature 1 and Patent Literature 2 do not disclose a technique for extracting a background point cloud belonging to a background area such as a floor or a wall in real space from the entire point cloud. Even if there is a technique to extract the background point cloud from the entire point cloud obtained by the measurement at a certain point, if part of the background region is hidden by the object, part of the background point cloud will be lost. put away.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、実空間の背景領域に属する背景点群をより高精度に得ることが可能な、新規かつ改良された点群処理装置、点群処理方法およびプログラムを提供することにある。 Accordingly, the present invention has been made in view of the above problems. It is an object of the present invention to provide a point cloud processing device, a point cloud processing method, and a program.

上記課題を解決するために、本発明のある観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備え、前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除する、点群処理装置が提供される。また、上記課題を解決するために、本発明のある観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備え、前記背景統合部は、前記背景抽出部により抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新する、点群処理装置が提供される。
In order to solve the above problems, according to an aspect of the present invention, from a three-dimensional point group corresponding to each timing obtained by measuring the real space from the same point at each of a plurality of timings with LIDAR , a background extraction unit for extracting a background point group, which is a point group belonging to a background region, based on the distribution of the three-dimensional point group corresponding to each timing; a background integration unit that generates an integrated background point cloud by integrating at least a part of each background point cloud extracted by the background extraction unit; By repeatedly extracting a new partial point group and integrating the new partial point group into the integrated background point group, the integrated background point group is repeatedly updated, and points constituting the integrated background point group are determined. A point cloud processing device is provided that deletes some of the points that make up the integrated background point cloud when the number exceeds an upper limit . Further, in order to solve the above problems, according to an aspect of the present invention, a three-dimensional point corresponding to each timing obtained by measuring the real space from the same point at each of a plurality of timings with LIDAR a background extracting unit for extracting a background point group, which is a point group belonging to a background region, from the group based on the distribution of the three-dimensional point group corresponding to each timing; a background integration unit that generates an integrated background point cloud by integrating at least part of each extracted background point cloud, the background integration unit adding new background points extracted by the background extraction unit. A point cloud processing device is provided, which repeatedly updates the integrated background point cloud by repeatedly extracting a new partial point cloud from the group at random and integrating the new partial point cloud into the integrated background point cloud. be done.

前記統合背景点群を構成する一部の点は、前記統合背景点群を構成するランダムな点であってもよい。 Some of the points forming the integrated background point group may be random points forming the integrated background point group.

前記背景統合部は、前記新たな背景点群からランダムに前記新たな部分点群を抽出してもよい。 The background integration unit may randomly extract the new partial point cloud from the new background point cloud.

前記背景統合部は、複数の前記新たな背景点群の各々で異なる範囲内からランダムに前記新たな部分点群を抽出してもよい。 The background integration unit may randomly extract the new partial point clouds from different ranges for each of the plurality of new background point clouds.

前記点群処理装置は、ある点群と前記統合背景点群の差分を計算することにより、物体が存在する領域を検出する物体検出部をさらに備えてもよい。 The point cloud processing device may further include an object detection unit that detects an area in which an object exists by calculating a difference between a certain point cloud and the integrated background point cloud.

前記物体検出部は、第1のタイミングに対応する点群と、前記第1のタイミングより前の第2のタイミングに対応する点群から抽出された部分点群の統合により得られた統合背景点群との差分を計算することにより、物体が存在する領域を検出してもよい。 The object detection unit includes an integrated background point obtained by integrating a point cloud corresponding to a first timing and a partial point cloud extracted from a point cloud corresponding to a second timing before the first timing. A region in which an object is present may be detected by calculating the difference with the group.

前記背景領域は、床面領域および壁面領域の少なくともいずれかを含んでもよい。 The background area may include at least one of a floor area and a wall area.

また、上記課題を解決するために、本発明の別の観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出することと、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、を含み、前記統合背景点群を生成することは、抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除することを含む、点群処理方法が提供される。また、上記課題を解決するために、本発明の別の観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出することと、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、を含み、前記統合背景点群を生成することは、抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新することを含む、点群処理方法が提供される。
Further, in order to solve the above problems, according to another aspect of the present invention, a three-dimensional image corresponding to each timing obtained by measuring the real space from the same point at each of a plurality of timings with LIDAR extracting a background point group, which is a point group belonging to a background region, from the point group based on the distribution of the three-dimensional point group corresponding to each timing; and extracting from the point group corresponding to each of the plurality of timings. and generating an integrated background point cloud by integrating at least a portion of each extracted background point cloud, wherein the generating the integrated background point cloud comprises a new extracted background point cloud; by repeatedly extracting a partial point cloud and integrating the new partial point cloud with the integrated background point cloud, the integrated background point cloud is repeatedly updated, and the number of points constituting the integrated background point cloud A point cloud processing method is provided , including deleting a part of the points constituting the integrated background point cloud when is above an upper limit value . Further, in order to solve the above problems, according to another aspect of the present invention, a three-dimensional image corresponding to each timing obtained by measuring the real space from the same point at each of a plurality of timings with LIDAR extracting a background point group, which is a point group belonging to a background region, from the point group based on the distribution of the three-dimensional point group corresponding to each timing; and extracting from the point group corresponding to each of the plurality of timings. and generating a merged background point cloud by integrating at least a portion of each extracted background point cloud, said generating a merged background point cloud randomly selected from the extracted new background point cloud. and repeatedly updating the integrated background point cloud by extracting a new partial point cloud and integrating the new partial point cloud into the integrated background point cloud. be done.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備え、前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除する、点群処理装置として機能させるための、プログラムが提供される。また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備え、前記背景統合部は、前記背景抽出部により抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新する、点群処理装置として機能させるための、プログラムが提供される。
Further, in order to solve the above problems, according to another aspect of the present invention, the computer measures the real space from the same point at each of a plurality of timings with LIDAR, and corresponds to each timing. a background extraction unit for extracting a background point group, which is a point group belonging to a background region, from the three-dimensional point group based on the distribution of the three-dimensional point group corresponding to each timing; and corresponding to each of the plurality of timings. a background integration unit configured to generate an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud extracted from the background extraction unit; By repeatedly extracting a new partial point cloud from a new background point cloud and integrating the new partial point cloud into the integrated background point cloud, the integrated background point cloud is repeatedly updated, and the integrated background point A program is provided for functioning as a point cloud processing device that deletes some of the points that make up the integrated background point cloud when the number of points that make up the group exceeds an upper limit . Further, in order to solve the above problems, according to another aspect of the present invention, the computer measures the real space from the same point at each of a plurality of timings with LIDAR, and corresponds to each timing. a background extraction unit for extracting a background point group, which is a point group belonging to a background region, from the three-dimensional point group based on the distribution of the three-dimensional point group corresponding to each timing; and corresponding to each of the plurality of timings. a background integration unit configured to generate an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud extracted from the background extraction unit; randomly extracting a new partial point cloud from a new background point cloud, and repeatedly integrating the new partial point cloud into the integrated background point cloud, thereby repeatedly updating the integrated background point cloud. A program is provided for functioning as a processing device.

以上説明した本発明によれば、実空間の背景領域に属する背景点群をより高精度に得ることが可能である。 According to the present invention described above, it is possible to obtain the background point group belonging to the background area of the real space with higher accuracy.

本発明の実施形態による点群処理システムを示す説明図である。1 is an explanatory diagram showing a point cloud processing system according to an embodiment of the present invention; FIG. 実空間の具体例を示す説明図である。FIG. 4 is an explanatory diagram showing a specific example of real space; 図2に示した実空間の点群から抽出された背景点群を示す説明図である。FIG. 3 is an explanatory diagram showing a background point group extracted from the point group in the real space shown in FIG. 2; 本発明の実施形態による点群処理装置200の構成を示す説明図である。It is an explanatory view showing composition of point group processing device 200 by an embodiment of the present invention. 部分点群Piの抽出の具体例を示す説明図である。FIG. 4 is an explanatory diagram showing a specific example of extraction of partial point group Pi; 統合背景点群の具体例を示す説明図である。FIG. 4 is an explanatory diagram showing a specific example of an integrated background point cloud; 本発明の実施形態による点群処理装置200の動作を示すフローチャートである。It is a flow chart which shows operation of point group processing device 200 by an embodiment of the present invention. 第1の変形例を示す説明図である。It is an explanatory view showing the 1st modification. 第2の変形例を示す説明図である。It is an explanatory view showing a second modification. 点群処理装置200のハードウェア構成を示したブロック図である。2 is a block diagram showing the hardware configuration of the point cloud processing device 200; FIG.

以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。 In addition, in this specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different alphabets after the same reference numerals. However, when there is no particular need to distinguish between a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given to each of the plurality of constituent elements.

<点群処理システムの概要>
本発明の実施形態は、LIDAR(Laser Imaging Detection and Ranging)による実空間の測定により得られた点群を処理することで実空間に存在する物体を検出する点群処理システムに関する。本発明の実施形態の詳細な説明に先立ち、本発明の実施形態による点群処理システムの概要を説明する。
<Overview of point cloud processing system>
An embodiment of the present invention relates to a point cloud processing system that detects an object existing in a real space by processing a point cloud obtained by measuring the real space using LIDAR (Laser Imaging Detection and Ranging). Prior to detailed description of embodiments of the present invention, an overview of a point cloud processing system according to embodiments of the present invention will be described.

図1は、本発明の実施形態による点群処理システムを示す説明図である。図1に示したように、本発明の実施形態による点群処理システムは、LIDAR100および点群処理装置200を有する。LIDAR100と点群処理装置200は、有線で接続されてもよいし、無線で接続されてもよいし、ネットワークを介して接続されてもよい。 FIG. 1 is an explanatory diagram showing a point cloud processing system according to an embodiment of the present invention. As shown in FIG. 1, a point cloud processing system according to an embodiment of the present invention has a LIDAR 100 and a point cloud processing device 200 . The LIDAR 100 and the point cloud processing device 200 may be connected by wire, may be connected wirelessly, or may be connected via a network.

(LIDAR)
LIDAR100は、実空間の3次元環境を測定する測定装置である。LIDAR100は、例えば図1に示したように三脚110により支持されることである地点に設置される。LIDAR100は、設置された同一地点から複数フレームに亘ってレーザーを用いた測定を繰り返し、各フレームの3次元の点群を得る。LIDAR100は、測定により得た点群を点群処理装置200に出力する。
(LIDAR)
The LIDAR 100 is a measuring device that measures a three-dimensional environment in real space. The LIDAR 100 is installed at a point, for example being supported by a tripod 110 as shown in FIG. The LIDAR 100 repeats measurements using a laser over a plurality of frames from the same installed point to obtain a three-dimensional point cloud for each frame. The LIDAR 100 outputs the point cloud obtained by measurement to the point cloud processing device 200 .

なお、LIDAR100に設けられるレーザー送受信センサの数、レーザーの走査方式および測定可能範囲は特に限定されない。例えば、レーザー送受信センサの数は、8個、16個、32個、64個または128個などであってもよい。また、レーザーの走査方式は、水平方向に沿ってレーザーの向きを変化させる方式であってもよいし、垂直方向に沿ってレーザーの向きを変化させる方式であってもよい。また、測定可能範囲は、水平視野において120°または全方位などであり、垂直視野角において20°、30°または40°などであってもよい。 The number of laser transmission/reception sensors provided in the LIDAR 100, the laser scanning method, and the measurable range are not particularly limited. For example, the number of laser transmitting and receiving sensors may be 8, 16, 32, 64, 128, and so on. Further, the laser scanning method may be a method of changing the direction of the laser along the horizontal direction, or a method of changing the direction of the laser along the vertical direction. Also, the measurable range may be 120° or omnidirectional in the horizontal field of view, and may be 20°, 30° or 40° in the vertical field of view.

(点群処理装置)
点群処理装置200は、LIDAR100から入力される点群に基づき、実空間で物体が存在する物体領域を検出する。物体領域の検出は、LIDAR100から入力される点群から、背景領域(床および壁などの固定物)に属する点群を分離(セグメンテーション)することにより実現され得る。このため、点群処理装置200は、LIDAR100から入力される点群から背景領域に属する点群である背景点群を抽出する機能も有する。なお、点群処理装置200が検出対象とする物体は特に限定されず、例えば、点群処理装置200は人または車両などの動物体を検出対象としてもよい。ここで、図2および図3を参照し、点群処理装置200による背景点群の抽出の具体例を説明する。
(Point cloud processing device)
The point cloud processing device 200 detects an object area where an object exists in real space based on the point cloud input from the LIDAR 100 . Object region detection can be achieved by segmenting point clouds belonging to background regions (fixed objects such as floors and walls) from the point cloud input from the LIDAR 100 . Therefore, the point cloud processing device 200 also has a function of extracting a background point cloud, which is a point cloud belonging to the background region, from the point cloud input from the LIDAR 100 . The object to be detected by the point group processing device 200 is not particularly limited. For example, the point group processing device 200 may detect a moving object such as a person or a vehicle. A specific example of background point cloud extraction by the point cloud processing device 200 will now be described with reference to FIGS. 2 and 3. FIG.

図2は、実空間の具体例を示す説明図である。図2に示した実空間は、床面Fおよび壁面Wで囲まれる空間であり、床面Fには物体Oが存在する。なお、本明細書においては、XY平面が床面Fに水平な面であり、XZ平面またはYZ平面が壁面Wに水平な面となるようにLIDAR100が設置されたものとする。 FIG. 2 is an explanatory diagram showing a specific example of real space. The real space shown in FIG. 2 is a space surrounded by a floor surface F and a wall surface W, and an object O exists on the floor surface F. As shown in FIG. In this specification, it is assumed that the LIDAR 100 is installed such that the XY plane is horizontal to the floor surface F, and the XZ plane or YZ plane is horizontal to the wall surface W.

図3は、図2に示した実空間の点群から抽出された背景点群を示す説明図である。図3に示したように、背景点群は、床面Fおよび壁面Wにおいて物体Oに遮蔽された部分以外の領域に散在する。なお、図3は背景点群を簡易的に示しているに過ぎず、実際には、より多くの点からなる背景点群が得られてもよいし、円弧状に点が分布してもよい。 FIG. 3 is an explanatory diagram showing a background point group extracted from the point group in the real space shown in FIG. As shown in FIG. 3, the background point group is scattered in the areas of the floor surface F and the wall surface W other than the portions shielded by the object O. As shown in FIG. Note that FIG. 3 merely shows the background point group in a simplified manner, and in reality, the background point group may be obtained with a larger number of points, or the points may be distributed in an arc shape. .

(課題の整理)
上記の物体検出は、不足の無い背景点群を用いることにより、正確に行うことが可能である。一方、図3に示したように、物体Оに遮蔽された部分の点群が欠損している背景点群では、背景領域として扱われるべき点群の一部が物体として検出される恐れがある。
(Organization of issues)
The above object detection can be performed accurately by using a sufficient background point group. On the other hand, as shown in FIG. 3, in the background point cloud in which the point cloud of the portion occluded by the object O is missing, there is a possibility that part of the point cloud that should be treated as the background area will be detected as the object. .

そこで、本件発明者は上記事情を着眼点にして本発明の実施形態を創作するに至った。本発明の実施形態による点群処理装置200は、実空間の背景領域に属する背景点群をより高精度に得ることが可能である。以下、このような本発明の実施形態による点群処理装置200の構成および動作を順次詳細に説明する。 Therefore, the inventor of the present invention has created an embodiment of the present invention with the above circumstances as a point of view. The point cloud processing device 200 according to the embodiment of the present invention can obtain a background point cloud belonging to the background area of the real space with higher accuracy. Hereinafter, the configuration and operation of the point cloud processing apparatus 200 according to the embodiment of the present invention will be sequentially described in detail.

<点群処理装置の構成>
図4は、本発明の実施形態による点群処理装置200の構成を示す説明図である。図4に示したように、本発明の実施形態による点群処理装置200は、点群記憶部220、背景抽出部230、背景点群記憶部240、背景統合部250、物体検出部260、表示制御部270および表示部280を有する。
<Configuration of point cloud processing device>
FIG. 4 is an explanatory diagram showing the configuration of the point cloud processing device 200 according to the embodiment of the present invention. As shown in FIG. 4, the point cloud processing device 200 according to the embodiment of the present invention includes a point cloud storage unit 220, a background extraction unit 230, a background point cloud storage unit 240, a background integration unit 250, an object detection unit 260, a display It has a control unit 270 and a display unit 280 .

(点群記憶部)
点群記憶部220は、LIDAR100から入力された各フレームの点群を記憶する。当該点群には、背景領域に属する背景点群、および物体領域に属する物体点群が区別されずに混在していることが想定される。LIDAR100から入力された点群を以下では点群Poと称する場合がある。
(Point cloud memory)
The point cloud storage unit 220 stores the point cloud of each frame input from the LIDAR 100 . It is assumed that the background point group belonging to the background area and the object point group belonging to the object area are mixed in the point group without distinction. The point group input from the LIDAR 100 may be hereinafter referred to as point group Po.

(背景抽出部)
背景抽出部230は、点群記憶部220に記憶された点群Poから背景領域に属する背景点群を抽出する。背景領域には例えば床面および壁面が該当し、背景点群には、図3に示したように、床面に属する床面点群Pofおよび壁面に属する壁面点群Powが含まれ得る。床面は、XY平面と水平な点群Poにおいて最も巨大な平面であり、壁面はXZ平面またはYZ平面と水平な点群Poにおいて最も巨大な平面であると推定される。このため、背景抽出部230は、RANSAC(Random Sampling Consensus)を実行することにより床面点群Pofおよび壁面点群Powを得る。以下、平面形状を構成する点群のRANSACによる点群の推定手順を説明した後に、RANSACにより床面点群Pofおよび壁面点群Powを得る具体的な方法を説明する。
(Background extraction part)
The background extraction unit 230 extracts a background point group belonging to the background region from the point cloud Po stored in the point cloud storage unit 220 . The background area corresponds to, for example, a floor surface and a wall surface, and the background point group can include a floor surface point group Pof belonging to the floor surface and a wall surface point group Pow belonging to the wall surface, as shown in FIG. It is estimated that the floor surface is the largest plane in the point group Po horizontal to the XY plane, and the wall surface is the largest plane in the point group Po horizontal to the XZ plane or the YZ plane. Therefore, the background extraction unit 230 obtains the floor point group Pof and the wall point group Pow by executing RANSAC (Random Sampling Consensus). Hereinafter, after explaining the procedure for estimating the point group by RANSAC of the point group forming the planar shape, a specific method for obtaining the floor point group Pof and the wall surface point group Pow by RANSAC will be explained.

点群Poに対して3つのパラメータを用いてRANSACを実行することにより、平面形状を構成する点群P_planeが出力される。3つのパラメータには、推定したい平面形状の法線方向vpl、平面を構成する点群と平面との距離の誤差しきい値dist_pl、平面を構成する点群と平面との角度の誤差しきい値angle_plが該当する。これらパラメータは人的に設定され得る。上記を要すると、点群P_planeは以下のように表現される。
P_plane:=RANSAC(Po,vpl,dist_pl,angle_pl)
By executing RANSAC on the point group Po using three parameters, a point group P_plane that forms a planar shape is output. The three parameters include the normal direction vpl of the plane shape to be estimated, the error threshold dist_pl of the distance between the point group forming the plane and the plane, and the error threshold of the angle between the point group forming the plane and the plane. angle_pl is applicable. These parameters can be set manually. Summarizing the above, the point cloud P_plane is expressed as follows.
P_plane:=RANSAC(Po, vpl, dist_pl, angle_pl)

そして、背景抽出部230は、上述したvplにZ軸方向を適用することにより、床面点群Pofを得ることができる。当該床面点群Pofを得る処理は、以下のように表現される。
Pof:=RANSAC(Po,Z,dist_pl,angle_pl)
Then, the background extraction unit 230 can obtain the floor point group Pof by applying the Z-axis direction to the vpl described above. The processing for obtaining the floor point group Pof is expressed as follows.
Pof := RANSAC(Po, Z, dist_pl, angle_pl)

さらに、背景抽出部230は、上述したvplにY軸方向を適用することにより、XZ平面と水平な壁面に属する壁面点群Pow_Yを得ることができる。また、背景抽出部230は、上述したvplにX軸方向を適用することにより、YZ平面と水平な壁面に属する壁面点群Pow_Xを得ることができる。これら壁面点群Pow_Yおよび壁面点群Pow_Xが組み合わされた点群が壁面点群Powである。当該壁面点群Powを得る処理は、以下のように表現される。
Pow_Y:=RANSAC(Po,Y,dist_pl,angle_pl)
Pow_X:=RANSAC(Po,X,dist_pl,angle_pl)
Pow:= Pow_Y+Pow_X
Furthermore, the background extraction unit 230 can obtain the wall surface point group Pow_Y belonging to the wall surface parallel to the XZ plane by applying the Y-axis direction to the vpl described above. In addition, the background extraction unit 230 can obtain the wall point group Pow_X belonging to the wall surface horizontal to the YZ plane by applying the X-axis direction to vpl described above. A point group in which the wall surface point group Pow_Y and the wall surface point group Pow_X are combined is the wall surface point group Pow. The process of obtaining the wall surface point group Pow is expressed as follows.
Pow_Y:=RANSAC(Po, Y, dist_pl, angle_pl)
Pow_X:=RANSAC(Po, X, dist_pl, angle_pl)
Pow:= Pow_Y + Pow_X

(背景点群記憶部)
背景点群記憶部240は、背景点群を記憶する。具体的には、上述した処理により背景抽出部230により抽出された床面点群Pofおよび壁面点群Powが1フレーム目の点群Poから抽出された点群である場合、背景点群記憶部240は、これら床面点群Pofおよび壁面点群Powを初期背景点群として記憶する。また、背景点群記憶部240は、後述する背景統合部250により得られる統合背景点群を記憶する。
(Background point cloud memory)
The background point cloud storage unit 240 stores the background point cloud. Specifically, when the floor point group Pof and the wall surface point group Pow extracted by the background extraction unit 230 by the above-described processing are point groups extracted from the point group Po of the first frame, the background point group storage unit 240 stores these floor point group Pof and wall point group Pow as an initial background point group. The background point cloud storage unit 240 also stores an integrated background point cloud obtained by the background integration unit 250, which will be described later.

(背景統合部)
背景統合部250は、背景点群記憶部240に記憶された初期背景点群と、新たなフレームから抽出された背景点群(床面点群Pofおよび壁面点群Pow)の部分点群Piを統合することにより、統合背景点群Pbを生成する。また、背景統合部250は、既に統合背景点群Pbが背景点群記憶部240に記憶されている場合には、当該統合背景点群Pbと新たなフレームから抽出された背景点群の部分点群Piを統合することにより、統合背景点群Pbを更新する。
(Background Integration Department)
The background integration unit 250 combines the initial background point cloud stored in the background point cloud storage unit 240 and the partial point cloud Pi of the background point cloud (floor point cloud Pof and wall surface point cloud Pow) extracted from the new frame. By integrating, an integrated background point group Pb is generated. Further, when the integrated background point group Pb is already stored in the background point cloud storage unit 240, the background integration unit 250 combines the partial points of the integrated background point group Pb and the background point cloud extracted from the new frame. By integrating the group Pi, the integrated background point cloud Pb is updated.

ここで、新たなフレームから抽出された床面点群Pofおよび壁面点群Powの部分点群Piは、床面点群Pofおよび壁面点群Powからランダムに抽出された点群であってもよいし、ユーザにより指定されたルールに従って抽出された点群であってもよい。このような当該部分点群Piを背景統合部250が抽出する処理は以下のように表現される。Pi_sizeは部分点群Piに含まれる点の数であり、ユーザにより与えられるパラメータである。Pi_sizeの数は、例えば、新たなフレームから抽出された床面点群Pofおよび壁面点群Powの点の数の0.3%~1.0%であってもよい。
Pi:=Extract_pi(Pow+Pof,random or user rule,Pi_size)
Here, the partial point group Pi of the floor point group Pof and the wall point group Pow extracted from the new frame may be a point group randomly extracted from the floor point group Pof and the wall point group Pow. Alternatively, it may be a point cloud extracted according to a rule specified by the user. The process by which the background integration unit 250 extracts such a partial point group Pi is expressed as follows. Pi_size is the number of points contained in the sub-point cloud Pi and is a parameter given by the user. The number of Pi_size may be, for example, 0.3% to 1.0% of the number of points of the floor point cloud Pof and the wall point cloud Pow extracted from the new frame.
Pi:=Extract_pi(Pow+Pof, random or user rule, Pi_size)

そして、背景統合部250は、初期背景点群または統合背景点群Pbに上述した部分点群Piを追加することで、統合背景点群Pbを生成または更新する。当該処理は以下のように表現される。
Pb:=Pb+Pi
Then, the background integration unit 250 generates or updates the integrated background point group Pb by adding the partial point group Pi described above to the initial background point group or the integrated background point group Pb. The processing is expressed as follows.
Pb:=Pb+Pi

上述した部分点群Piの抽出、および統合背景点群Pbの生成について、図5および図6を参照してより具体的に説明する。 The extraction of the partial point group Pi and the generation of the integrated background point group Pb will be described in more detail with reference to FIGS. 5 and 6. FIG.

図5は、部分点群Piの抽出の具体例を示す説明図である。図5には、図3に示したフレームの次のフレームで背景抽出部230により抽出された床面点群Pofおよび壁面点群Powが示されている。図3と図5を比較すると、物体Oが移動しており、物体Oに遮蔽されて点群が欠損している位置が異なる。 FIG. 5 is an explanatory diagram showing a specific example of extraction of the partial point group Pi. FIG. 5 shows the floor point group Pof and the wall point group Pow extracted by the background extraction unit 230 in the frame next to the frame shown in FIG. Comparing FIG. 3 and FIG. 5, the object O is moving, and the positions where the point cloud is missing due to the object O being blocked are different.

背景統合部250は、図5に示した床面点群Pofおよび壁面点群Powから、図5において太線で示した例えば6つの部分点群Piを抽出する。そして、背景統合部250は、図3に示した初期背景点群に部分点群Piを追加することにより、図6に示した統合背景点群Pbを生成する。図6に示した統合背景点群Pbでは、図3において物体Oにより遮蔽されて点群が欠損していた位置に点群が追加されている。このような部分点群Piの追加を複数フレームに亘って繰り返して統合背景点群Pbを更新することにより、統合背景点群Pbの精度を向上していくことが可能である。 The background integration unit 250 extracts, for example, six partial point groups Pi indicated by thick lines in FIG. 5 from the floor point group Pof and the wall point group Pow shown in FIG. Then, the background integration unit 250 generates the integrated background point group Pb shown in FIG. 6 by adding the partial point group Pi to the initial background point group shown in FIG. In the integrated background point cloud Pb shown in FIG. 6, a point cloud is added to the position where the point cloud was missing due to being blocked by the object O in FIG. It is possible to improve the accuracy of the integrated background point group Pb by repeating the addition of such a partial point group Pi over a plurality of frames to update the integrated background point group Pb.

ただし、部分点群Piの追加が繰り返されていくと、統合背景点群Pbの点数が増加し過ぎて、記憶領域および計算資源が圧迫されてしまう。そこで、統合背景点群Pbの点数の上限値として最大点数Npbmaxを設定し、背景統合部250は、統合背景点群Pbの点数と最大点数Npbmaxの関係に応じて統合背景点群Pbに関する処理を実行してもよい。 However, if the addition of the partial point cloud Pi is repeated, the number of points of the integrated background point cloud Pb will increase excessively, and the storage area and computational resources will be squeezed. Therefore, the maximum score Npbmax is set as the upper limit of the score of the integrated background point group Pb, and the background integration unit 250 performs processing on the integrated background point group Pb according to the relationship between the score of the integrated background point group Pb and the maximum score Npbmax. may be executed.

具体的には、統合背景点群Pbの点数が最大点数Npbmax未満である場合、背景統合部250は、統合背景点群Pbに部分点群Piを追加することにより統合背景点群Pbを更新する。 Specifically, when the score of the integrated background point group Pb is less than the maximum score Npbmax, the background integration unit 250 updates the integrated background point group Pb by adding the partial point group Pi to the integrated background point group Pb. .

一方、統合背景点群Pbの点数が最大点数Npbmax以上である場合、背景統合部250は、統合背景点群Pbから部分点群Piと同数の点P_dをランダムに消去する。そして、背景統合部250は、点Pb_dの消去後の統合背景点群Pbに対して部分点群Piを追加することにより統合背景点群Pbを更新する。 On the other hand, when the score of the integrated background point group Pb is equal to or greater than the maximum score Npbmax, the background integration unit 250 randomly deletes the same number of points P_d as the partial point group Pi from the integrated background point group Pb. Then, the background integration unit 250 updates the integrated background point group Pb by adding the partial point group Pi to the integrated background point group Pb after the point Pb_d is erased.

上記の処理は、以下のように整理される。
Pb:=Pb+Pi(最大点数Npbmax>Pbの点数である場合)
Pb:=Pb-Pb_d+Pi(最大点数Npbmax≦Pbの点数である場合)
The above processing is organized as follows.
Pb:=Pb+Pi (when maximum score Npbmax>Pb score)
Pb:=Pb-Pb_d+Pi (when the maximum score Npbmax≤Pb)

(物体検出部)
物体検出部260は、点群Poおよび統合背景点群Pbを用いて、物体が存在する領域(物体領域)を検出する。そのために、物体検出部260は、点群Poおよび統合背景点群Pbの差分を計算する。当該差分を高速に計算するために、物体検出部260は、点群Poおよび統合背景点群PbをOctree構造に変換してOct_PoおよびOct_Pbを得る。そして、物体検出部260は、Oct_PoとOct_Pbの差分の点群情報Diff_Po_Pbを得る。さらに、物体検出部260は、Diff_Po_Pbを点群Poに適用することで、点群Poおよび統合背景点群Pbの差分である差分点群Pdを得る。
(Object detection unit)
The object detection unit 260 uses the point group Po and the integrated background point group Pb to detect an area in which an object exists (object area). Therefore, the object detection unit 260 calculates the difference between the point group Po and the integrated background point group Pb. In order to calculate the difference at high speed, the object detection unit 260 converts the point group Po and integrated background point group Pb into an Octree structure to obtain Oct_Po and Oct_Pb. Then, the object detection unit 260 obtains point group information Diff_Po_Pb of the difference between Oct_Po and Oct_Pb. Further, the object detection unit 260 applies Diff_Po_Pb to the point group Po to obtain a difference point group Pd, which is the difference between the point group Po and the integrated background point group Pb.

上述した差分点群Pdを得るための処理は以下のように表現される。
Oct_Po:=Octree(Po)
Oct_Pb:=Octree(Pb)
Diff_Po_Pb:=Octdiff(Oct_Po,Oct_Pb)
Pd:=Octindice(Po,Diff_Po_Pb)
The processing for obtaining the difference point group Pd described above is expressed as follows.
Oct_Po := Octree(Po)
Oct_Pb:=Octree(Pb)
Diff_Po_Pb:=Octdiff(Oct_Po, Oct_Pb)
Pd:=Octindice(Po, Diff_Po_Pb)

そして、物体検出部260は、差分点群Pdに対してクラスタリングを行うことにより物体領域Region_dを得る。具体的には、物体検出部260は、まずクラスタリングを行うために差分点群PdをKdtree構造に変換して、Kd_Pdを得る。そして、物体検出部260は、Kd_Pd、各クラスタ間の許容距離dist_c、最小のクラスタ点群点数Ncmin、および最大のクラスタ点群点数Ncmaxを用いてクラスタリングを行い、物体を構成する点群のクラスタPcを得る。当該クラスタリングによって、0個から複数個のPcが得られる。なお、dist_c、NcminおよびNcmaxはユーザにより指定されるパラメータであってもよい。 Then, the object detection unit 260 obtains an object region Region_d by clustering the difference point group Pd. Specifically, the object detection unit 260 first converts the difference point group Pd into a Kdtree structure for clustering, and obtains Kd_Pd. Then, the object detection unit 260 performs clustering using Kd_Pd, the permissible distance dist_c between each cluster, the minimum number of cluster point cloud points Ncmin, and the maximum number of cluster point cloud points Ncmax. get 0 to a plurality of Pc are obtained by the clustering. Note that dist_c, Ncmin and Ncmax may be parameters specified by the user.

さらに、物体検出部260は、Pc群から物体が存在する物体領域Region_dを計算する。Region_dはリスト構造になっており、各要素には各Pcの点群数、クラスタの最大・最小座標、クラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、物体の種類などが格納される。物体検出部260は、Pcの点群を探索することで、点群数とクラスタの座標を計算し、点群数およびクラスタの座標からクラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、および物体の種類などを計算可能である。 Furthermore, the object detection unit 260 calculates an object region Region_d in which the object exists from the Pc group. Region_d has a list structure, and each element stores the number of points of each Pc, the maximum and minimum coordinates of the cluster, the cluster size, the center of gravity of the cluster, the distance from the cluster to the LIDAR 100, the type of object, and the like. The object detection unit 260 calculates the number of point groups and the coordinates of the cluster by searching the point group of Pc, and from the number of point groups and the coordinates of the cluster, the cluster size, the center of gravity of the cluster, the distance from the cluster to the LIDAR 100, and It is possible to calculate the type of object and so on.

上述したクラスタリングから物体領域Region_dの検出までの処理は以下のように表現される。なお、KdtreeはKdtree構造に引数を変換する関数であり、Clusteringは点群中の物体を構成するクラスタ群を出力する関数であり、Region_fは各クラスタの点群数、クラスタの最大・最小座標、クラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、および物体の種類を含む構造体のリストを出力する関数である。
Kd_Pd:=Kdtree(Pd)
Pc:=Clustering(Kd_Pd,dist_c,Ncmin,Ncmax)
Region_d:=Region_f(Pc)
The above-described processing from clustering to detection of the object region Region_d is expressed as follows. Note that Kdtree is a function that converts an argument to a Kdtree structure, Clustering is a function that outputs a cluster group that constitutes an object in a point group, Region_f is the number of point groups in each cluster, the maximum and minimum coordinates of the cluster, A function that outputs a list of structures containing cluster size, cluster centroid, distance from cluster to LIDAR 100, and object type.
Kd_Pd:=Kdtree(Pd)
Pc:=Clustering(Kd_Pd, dist_c, Ncmin, Ncmax)
Region_d := Region_f(Pc)

(表示制御部)
表示制御部270は、点群記憶部220から読み出した点群Poと物体領域Region_dを用いて、点群Poにおける物体の検出結果を示す検出結果画面を生成する。検出結果画面の生成方法は、点群Poを配置すること、Region_dより得られるクラスタの最大・最小座標を用いたクラスタの領域(立方体)を配置すること、および、最大・最小座標を用いることで立方体の各頂点を計算し、立方体の辺となるように各立方体の頂点間で線を描画すること、をRegion_dに存在する各物体に対して行うこと、を含む。
(Display control unit)
The display control unit 270 uses the point cloud Po read from the point cloud storage unit 220 and the object region Region_d to generate a detection result screen showing the detection result of the object in the point cloud Po. The detection result screen is generated by arranging the point group Po, arranging a cluster region (cube) using the maximum and minimum coordinates of the cluster obtained from Region_d, and using the maximum and minimum coordinates. For each object present in Region_d, compute each cube vertex and draw a line between each cube vertex to be an edge of the cube.

(表示部)
表示部280は、表示制御部270により生成された検出結果画面を表示する。これにより、点群Poに存在する全ての物体領域が可視化される。
(Display part)
The display unit 280 displays the detection result screen generated by the display control unit 270. FIG. This makes all object regions present in the point cloud Po visible.

<点群処理装置の動作>
以上、本発明の実施形態による点群処理装置200の構成を説明した。続いて、図7を参照し、本発明の実施形態による点群処理装置200の動作を説明する。
<Operation of point cloud processing device>
The configuration of the point group processing device 200 according to the embodiment of the present invention has been described above. Next, the operation of the point cloud processing device 200 according to the embodiment of the present invention will be described with reference to FIG.

図7は、本発明の実施形態による点群処理装置200の動作を示すフローチャートである。図7に示したように、まず、点群記憶部220はLIDAR100から入力された1フレーム目の点群Poを記憶する(S304)。 FIG. 7 is a flow chart showing the operation of the point cloud processing device 200 according to the embodiment of the present invention. As shown in FIG. 7, first, the point cloud storage unit 220 stores the point cloud Po of the first frame input from the LIDAR 100 (S304).

そして、背景抽出部230は、点群記憶部220に記憶された点群Poから背景領域に属する背景点群(床面点群Pofおよび壁面点群Pow)を抽出する(S308)。背景点群記憶部240は、背景抽出部230により抽出された背景点群を初期背景点群として記憶する(S312)。 Then, the background extraction unit 230 extracts a background point group (floor point group Pof and wall point group Pow) belonging to the background region from the point group Po stored in the point cloud storage unit 220 (S308). The background point cloud storage unit 240 stores the background point cloud extracted by the background extraction unit 230 as an initial background point cloud (S312).

その後、LIDAR100から新たなフレームの点群Poが入力されると、点群記憶部220は当該新たなフレームの点群Poを記憶する(S316)。続いて、背景抽出部230が新たなフレームの点群Poから背景点群を抽出し(S320)、背景統合部250が、当該背景点群から部分点群Piを抽出する(S324)。 After that, when the point cloud Po of a new frame is input from the LIDAR 100, the point cloud storage unit 220 stores the point cloud Po of the new frame (S316). Subsequently, the background extraction unit 230 extracts a background point group from the point group Po of the new frame (S320), and the background integration unit 250 extracts a partial point group Pi from the background point group (S324).

ここで、背景点群記憶部240に統合背景点群Pbが記憶されている場合、背景統合部250は、統合背景点群Pbの点数が最大点数Npbmax以上であるか否かを判断する(S328)。統合背景点群Pbの点数が最大点数Npbmax以上である場合、または背景点群記憶部240に統合背景点群Pbが記憶されていない場合(S328/No)、処理はS336に進む。一方、統合背景点群Pbの点数が最大点数Npbmax以上である場合(S328/Yes)、背景統合部250は、統合背景点群Pbから部分点群Piと同数の点群を消去する(S332)。 Here, when the integrated background point cloud Pb is stored in the background point cloud storage unit 240, the background integration unit 250 determines whether or not the score of the integrated background point cloud Pb is equal to or greater than the maximum score Npbmax (S328 ). If the score of the integrated background point cloud Pb is equal to or greater than the maximum score Npbmax, or if the integrated background point cloud Pb is not stored in the background point cloud storage unit 240 (S328/No), the process proceeds to S336. On the other hand, when the score of the integrated background point cloud Pb is equal to or greater than the maximum score Npbmax (S328/Yes), the background integration unit 250 deletes the same number of point clouds as the partial point cloud Pi from the integrated background point cloud Pb (S332). .

続いて、背景統合部250は、統合背景点群Pb(1周目は初期背景点群)に部分点群Piを統合して統合背景点群Pbを更新(生成)する(S336)。そして、物体検出部260が新たなフレームの点群Poおよび統合背景点群Pbの差分を計算して物体領域を検出し(S340)、表示部280が新たなフレームの点群Poに物体領域を重畳して表示する(S344)。 Subsequently, the background integration unit 250 updates (generates) the integrated background point group Pb by integrating the partial point group Pi into the integrated background point group Pb (initial background point group in the first round) (S336). Then, the object detection unit 260 calculates the difference between the point group Po of the new frame and the integrated background point group Pb to detect the object area (S340), and the display unit 280 detects the object area in the point group Po of the new frame. It is superimposed and displayed (S344).

その後、S316~S344の処理がLIDAR100による計測が終了するまで繰り返される(S348)。 After that, the processing of S316 to S344 is repeated until the measurement by the LIDAR 100 is completed (S348).

<作用効果>
以上説明した本発明の実施形態によれば、多様な作用効果が得られる。
<Effect>
According to the embodiments of the present invention described above, various effects can be obtained.

例えば、背景統合部250は、新たなフレームの背景点群から一部の部分点群Piを抽出し、当該部分点群Piを追加することで統合背景点群Pbを更新する。対比的に、新たなフレームの全ての背景点群を追加していき、統合背景点群Pbの点数が最大点数Npbmaxに達した後は統合背景点群Pbの一部の点群を新たなフレームの全ての背景点群に入れ替える方法も考えられる。しかし、当該方法では、物体が移動すると、移動前の物体の位置における背景点群の欠損は補えるものの、移動後の物体の位置において、元々はあった背景点群が急速に欠損していってしまう。これに対し、本発明の実施形態によれば、物体の移動に対する統合背景領域Pbのロバスト性を向上することが可能である。 For example, the background integration unit 250 extracts a partial point cloud Pi from the background point cloud of the new frame and adds the partial point cloud Pi to update the integrated background point cloud Pb. In contrast, all the background point clouds of the new frame are added, and after the number of points of the integrated background point cloud Pb reaches the maximum number of points Npbmax, a part of the point cloud of the integrated background point cloud Pb is added to the new frame. A method of replacing all the background point groups in . However, in this method, when the object moves, although the loss of the background point cloud at the position of the object before movement can be compensated, the background point cloud that was originally present at the position of the object after movement rapidly disappears. put away. In contrast, according to the embodiment of the present invention, it is possible to improve the robustness of the integrated background region Pb against object movement.

また、背景統合部250は、新たなフレームの背景点群から部分点群Piをランダムに(確率的に)抽出する。かかる構成によれば、背景点群において点群が欠損している場所を特定することなく、点群の欠損を補間することが可能である。 The background integration unit 250 also randomly (probabilistically) extracts a partial point cloud Pi from the background point cloud of the new frame. According to such a configuration, it is possible to interpolate missing points in the background point cloud without specifying a place where the point group is missing.

また、背景統合部250は、統合背景点群Pbの点数が最大点数Npbmaxに達した後は、統合背景点群Pbに含まれる点をランダムに消去する。かかる構成によれば、仮に統合背景点群Pbに背景領域に属さない点群が含まれてしまった場合でも、当該点群を次第に淘汰することが可能であり、結果、統合背景点群Pbの精度を向上することが可能である。 Further, after the number of points of the integrated background point group Pb reaches the maximum score Npbmax, the background integration unit 250 randomly deletes the points included in the integrated background point group Pb. According to this configuration, even if the integrated background point group Pb includes a point group that does not belong to the background area, it is possible to gradually eliminate the point group, and as a result, the integrated background point group Pb It is possible to improve the accuracy.

<変形例>
以上、本発明の実施形態を説明した。以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
<Modification>
The embodiments of the present invention have been described above. Several variations of the embodiments of the present invention are described below. In addition, each modification described below may be applied to the embodiment of the present invention independently, or may be applied to the embodiment of the present invention in combination. Further, each modification may be applied instead of the configuration described in the embodiment of the invention, or may be additionally applied to the configuration described in the embodiment of the invention.

(第1の変形例)
上記では、背景統合部250が背景点群の全体からランダムに部分点群Piを抽出する例を説明した。第1の変形例は、この部分点群Piの抽出に関する変形例である。背景統合部250は、フレームごとに異なる範囲内からランダムに部分点群Piを抽出してもよい。図8を参照し、当該第1の変形例をより具体的に説明する。
(First modification)
An example has been described above in which the background integration unit 250 randomly extracts the partial point group Pi from the entire background point group. A first modified example is a modified example relating to the extraction of this partial point group Pi. The background integration unit 250 may randomly extract the partial point cloud Pi from within a different range for each frame. The first modified example will be described more specifically with reference to FIG.

図8は、第1の変形例を示す説明図である。図8に示したように、背景統合部250は、背景点群を複数の領域D1~D3に区分し、1のフレームの背景点群では領域D1~D3のいずれかに含まれる点群からランダムに部分点群Piを抽出してもよい。例えば、背景統合部250は、第nフレームにおいては、太線で示した5個の点群のように、領域D1に含まれる点群からランダムに部分点群Piを抽出してもよい。そして、背景統合部250は、第n+1フレームにおいては領域D2に含まれる点群からランダムに部分点群Piを抽出し、第n+2フレームにおいては領域D3に含まれる点群からランダムに部分点群Piを抽出してもよい。 FIG. 8 is an explanatory diagram showing a first modified example. As shown in FIG. 8, the background integration unit 250 divides the background point cloud into a plurality of regions D1 to D3. , the partial point group Pi may be extracted. For example, in the n-th frame, the background integration unit 250 may randomly extract a partial point cloud Pi from the point cloud included in the region D1, such as the five point clouds indicated by the thick lines. Then, the background integration unit 250 randomly extracts the partial point cloud Pi from the point cloud included in the region D2 in the n+1th frame, and randomly extracts the partial point cloud Pi from the point cloud included in the region D3 in the n+2th frame. may be extracted.

(第2の変形例)
上記では、新たなフレームの点群Poを用いて統合背景点群Pbを更新し、統合背景点群Pbの更新後に、統合背景点群Pbを用いて物体検出を行う例を説明した。第2の変形例は、統合背景点群Pbの更新と物体検出の関係に関する変形例である。第2の変形例では、物体検出部260は、フレームnの点群Po(n)と、以前に得られたフレームn-1の点群Po(n-1)から抽出された部分点群Pi(n-1)の統合により得られた統合背景点群Pb(n-1)との差分を計算することにより、物体領域を検出する。以下、図9を参照し、第2の変形例をより具体的に説明する。
(Second modification)
An example has been described above in which the integrated background point group Pb is updated using the point group Po of a new frame, and object detection is performed using the integrated background point group Pb after updating the integrated background point group Pb. A second modification relates to the relationship between the update of the integrated background point group Pb and object detection. In the second modification, the object detection unit 260 extracts the point cloud Po(n) of the frame n and the partial point cloud Pi The object area is detected by calculating the difference from the integrated background point group Pb(n-1) obtained by integrating (n-1). Hereinafter, the second modified example will be described more specifically with reference to FIG.

図9は、第2の変形例を示す説明図である。S304~S316の処理は図7を参照して説明した通りである。図9に示したように、背景統合部250は新たなフレームの点群Poを用いて統合背景点群Pbを更新する(S320、S324、S328、S332、S336)。物体検出部260は、背景統合部250による統合背景点群Pbの更新と並行して物体領域の検出を行う。 FIG. 9 is an explanatory diagram showing a second modified example. The processing of S304 to S316 is as described with reference to FIG. As shown in FIG. 9, the background integration unit 250 updates the integrated background point cloud Pb using the new frame point cloud Po (S320, S324, S328, S332, S336). The object detection unit 260 detects an object region in parallel with the update of the integrated background point group Pb by the background integration unit 250 .

すなわち、物体検出部260は、新たなフレームの点群Poと、前フレームで更新された統合背景点群Pbとの差分を計算し、物体領域を検出する(S322)。そして、表示部280が新たなフレームの点群Poに物体領域を重畳して表示する(S326)。 That is, the object detection unit 260 calculates the difference between the point group Po of the new frame and the integrated background point group Pb updated in the previous frame, and detects the object area (S322). Then, the display unit 280 superimposes and displays the object region on the point group Po of the new frame (S326).

かかる構成によれば、新たなフレームの点群Poを用いて統合背景点群Pbが更新されることを待たずに物体検出を行うことができるので、物体領域の表示に関する応答性および即時性を向上することが可能である。 With such a configuration, object detection can be performed without waiting for the integrated background point group Pb to be updated using the point group Po of a new frame. can be improved.

<ハードウェア構成>
以上、本発明の実施形態を説明した。上述した背景点群の抽出および統合背景点群の更新などの情報処理は、ソフトウェアと、以下に説明する点群処理装置200のハードウェアとの協働により実現される。
<Hardware configuration>
The embodiments of the present invention have been described above. Information processing such as extraction of the background point cloud and updating of the integrated background point cloud described above is realized by cooperation between software and hardware of the point cloud processing device 200 described below.

図10は、点群処理装置200のハードウェア構成を示したブロック図である。点群処理装置200は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、点群処理装置200は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、表示装置209と、音声出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、ネットワークインタフェース215とを備える。 FIG. 10 is a block diagram showing the hardware configuration of the point cloud processing device 200. As shown in FIG. The point group processing device 200 includes a CPU (Central Processing Unit) 201 , a ROM (Read Only Memory) 202 , a RAM (Random Access Memory) 203 and a host bus 204 . Further, the point cloud processing device 200 includes a bridge 205, an external bus 206, an interface 207, an input device 208, a display device 209, an audio output device 210, a storage device (HDD) 211, a drive 212, and a network interface 215 .

CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って点群処理装置200内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。これらCPU201、ROM202およびRAM203とソフトウェアとの協働により、上述した背景抽出部230、背景統合部250、物体検出部260および表示制御部270などの機能が実現され得る。 The CPU 201 functions as an arithmetic processing device and a control device, and controls general operations within the point cloud processing device 200 according to various programs. Alternatively, the CPU 201 may be a microprocessor. The ROM 202 stores programs, calculation parameters, and the like used by the CPU 201 . The RAM 203 temporarily stores programs used in the execution of the CPU 201, parameters that change as appropriate during the execution, and the like. These are interconnected by a host bus 204 comprising a CPU bus or the like. Functions of the above-described background extraction unit 230, background integration unit 250, object detection unit 260, display control unit 270, and the like can be realized by cooperation of the CPU 201, ROM 202, RAM 203, and software.

ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。 The host bus 204 is connected via a bridge 205 to an external bus 206 such as a PCI (Peripheral Component Interconnect/Interface) bus. It should be noted that the host bus 204, bridge 205 and external bus 206 do not necessarily have to be configured separately, and these functions may be implemented in one bus.

入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。点群処理装置200のユーザは、該入力装置208を操作することにより、点群処理装置200に対して各種のデータを入力したり処理動作を指示したりすることができる。 The input device 208 includes input means for the user to input information, such as a mouse, keyboard, touch panel, button, microphone, sensor, switch, and lever. It consists of a control circuit and the like. A user of the point cloud processing device 200 can input various data to the point cloud processing device 200 and instruct processing operations by operating the input device 208 .

表示装置209は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、音声出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。 The display device 209 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, a projector device, an OLED (Organic Light Emitting Diode) device and a lamp. Also, the audio output device 210 includes audio output devices such as speakers and headphones.

ストレージ装置211は、本実施形態にかかる点群処理装置200の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置211は、ストレージを駆動し、CPU201が実行するプログラムや各種データを格納する。 The storage device 211 is a data storage device configured as an example of a storage unit of the point cloud processing device 200 according to this embodiment. The storage device 211 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 211 is configured by, for example, a HDD (Hard Disk Drive), an SSD (Solid Storage Drive), or a memory having equivalent functions. The storage device 211 drives storage and stores programs executed by the CPU 201 and various data.

ドライブ212は、記憶媒体用リーダライタであり、点群処理装置200に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203またはストレージ装置211に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。 The drive 212 is a reader/writer for storage media, and is built in or externally attached to the point cloud processing apparatus 200 . The drive 212 reads out information recorded in the attached removable storage medium 24 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs it to the RAM 203 or the storage device 211 . Drive 212 can also write information to removable storage medium 24 .

ネットワークインタフェース215は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース215は、無線LAN(Local Area Network)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。 The network interface 215 is, for example, a communication interface configured with a communication device or the like for connecting to a network. The network interface 215 may be a wireless LAN (Local Area Network) compatible communication device or a wired communication device that performs wired communication.

<補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<Supplement>
Although the preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention belongs can conceive of various modifications or modifications within the scope of the technical idea described in the claims. It is understood that these also naturally belong to the technical scope of the present invention.

例えば、本明細書の点群処理装置200の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、点群処理装置200の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。 For example, each step in the processing of the point cloud processing device 200 of this specification does not necessarily have to be processed in chronological order according to the order described as the flowchart. For example, each step in the processing of the point cloud processing device 200 may be processed in an order different from the order described as the flowchart, or may be processed in parallel.

また、上記では初期背景点群に対して部分点群を追加することにより統合背景点群Pbを生成する例を説明したが、複数のフレームの背景点群から抽出された各部分点群Piを統合することにより統合背景点群Pbを生成してもよい。 In the above description, an example of generating the integrated background point cloud Pb by adding partial point clouds to the initial background point cloud has been described. An integrated background point group Pb may be generated by integration.

また、本発明の実施形態によるLIDAR100により計測される対象は特に限定されない。例えば、LIDAR100により計測される対象は、屋内であってもよいし、屋外であってもよいし、建設現場であってもよい。 Also, the object measured by the LIDAR 100 according to the embodiment of the present invention is not particularly limited. For example, the object measured by the LIDAR 100 may be indoors, outdoors, or a construction site.

また、点群処理装置200に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した点群処理装置200の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。 It is also possible to create a computer program for causing hardware such as the CPU, ROM, and RAM built into the point cloud processing device 200 to exhibit functions equivalent to the components of the point cloud processing device 200 described above. A storage medium storing the computer program is also provided.

100 LIDAR
110 三脚
200 点群処理装置
220 点群記憶部
230 背景抽出部
240 背景点群記憶部
250 背景統合部
260 物体検出部
270 表示制御部
280 表示部


100 LIDAR
110 Tripod 200 Point cloud processing device 220 Point cloud storage unit 230 Background extraction unit 240 Background point cloud storage unit 250 Background integration unit 260 Object detection unit 270 Display control unit 280 Display unit


Claims (12)

複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、
を備え、
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除する、 点群処理装置。
Based on the distribution of the three-dimensional point cloud corresponding to each timing, from the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, a background extracting unit that extracts a background point cloud that is a point cloud belonging to a background region;
a background integration unit that generates an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
with
The background integration unit extracts a new partial point cloud from the new background point cloud extracted by the background extraction unit, and repeats integrating the new partial point cloud into the integrated background point cloud, repeatedly updating the integrated background point cloud, and deleting some points that make up the integrated background point cloud when the number of points that make up the integrated background point cloud exceeds an upper limit; Point cloud processor.
複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、 From the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, based on the distribution of the three-dimensional point cloud corresponding to each timing, a background extracting unit that extracts a background point cloud that is a point cloud belonging to a background region;
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、 a background integration unit that generates an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
を備え、with
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新する、点群処理装置。 The background integration unit randomly extracts a new partial point cloud from the new background point cloud extracted by the background extraction unit, and repeats integrating the new partial point cloud into the integrated background point cloud. A point cloud processing device that repeatedly updates the integrated background point cloud by:
前記統合背景点群を構成する一部の点は、前記統合背景点群を構成するランダムな点である、請求項1に記載の点群処理装置。 2. The point cloud processing device according to claim 1 , wherein some of the points forming said integrated background point group are random points forming said integrated background point group. 前記背景統合部は、前記新たな背景点群からランダムに前記新たな部分点群を抽出する、請求項1または3に記載の点群処理装置。 4. The point cloud processing device according to claim 1 , wherein said background integration unit randomly extracts said new partial point cloud from said new background point cloud. 前記背景統合部は、複数の前記新たな背景点群の各々で異なる範囲内からランダムに前記新たな部分点群を抽出する、請求項2に記載の点群処理装置。 3. The point cloud processing device according to claim 2 , wherein the background integration unit randomly extracts the new partial point clouds from different ranges for each of the plurality of new background point clouds. 前記点群処理装置は、
ある点群と前記統合背景点群の差分を計算することにより、物体が存在する領域を検出する物体検出部をさらに備える、請求項1~5のいずれか一項に記載の点群処理装置。
The point cloud processing device is
The point cloud processing device according to any one of claims 1 to 5 , further comprising an object detection unit that detects an area in which an object exists by calculating a difference between a certain point cloud and the integrated background point cloud.
前記物体検出部は、第1のタイミングに対応する点群と、前記第1のタイミングより前の第2のタイミングに対応する点群から抽出された部分点群の統合により得られた統合背景点群との差分を計算することにより、物体が存在する領域を検出する、請求項6に記載の点群処理装置。 The object detection unit includes an integrated background point obtained by integrating a point cloud corresponding to a first timing and a partial point cloud extracted from a point cloud corresponding to a second timing before the first timing. 7. The point cloud processing device according to claim 6 , wherein an area in which an object exists is detected by calculating a difference with the group. 前記背景領域は、床面領域および壁面領域の少なくともいずれかを含む、請求項1~7のいずれか一項に記載の点群処理装置。 The point cloud processing apparatus according to any one of claims 1 to 7 , wherein the background area includes at least one of a floor area and a wall area. 複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出することと、
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、
を含み、
前記統合背景点群を生成することは、抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除することを含む、点群処理方法。
From the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, based on the distribution of the three-dimensional point cloud corresponding to each timing, extracting a background point cloud, which is a point cloud belonging to the background region;
generating an integrated background point cloud by integrating at least a portion of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
including
Generating the integrated background point cloud includes extracting a new partial point cloud from the extracted new background point cloud and integrating the new partial point cloud into the integrated background point cloud, repeatedly updating the integrated background point cloud, and deleting some points constituting the integrated background point cloud when the number of points constituting the integrated background point cloud exceeds an upper limit value. Processing method.
複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出することと、 From the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, based on the distribution of the three-dimensional point cloud corresponding to each timing, extracting a background point cloud, which is a point cloud belonging to the background region;
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、 generating an integrated background point cloud by integrating at least a portion of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
を含み、including
前記統合背景点群を生成することは、抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新することを含む、点群処理方法。 Generating the integrated background point cloud includes randomly extracting a new partial point cloud from the extracted new background point cloud, and repeating the process of integrating the new partial point cloud into the integrated background point cloud. A point cloud processing method, comprising iteratively updating the integrated background point cloud by:
コンピュータを、
複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、
を備え、
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除する、点群処理装置 として機能させるための、プログラム。
the computer,
From the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, based on the distribution of the three-dimensional point cloud corresponding to each timing, a background extracting unit that extracts a background point cloud that is a point cloud belonging to a background region;
a background integration unit that generates an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
with
The background integration unit extracts a new partial point cloud from the new background point cloud extracted by the background extraction unit, and repeats integrating the new partial point cloud into the integrated background point cloud, A point cloud processing device that repeatedly updates the integrated background point cloud, and deletes some points that make up the integrated background point cloud when the number of points that make up the integrated background point cloud exceeds an upper limit value. A program to function as
コンピュータを、 the computer,
複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、 From the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, based on the distribution of the three-dimensional point cloud corresponding to each timing, a background extracting unit that extracts a background point cloud that is a point cloud belonging to a background region;
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、 a background integration unit that generates an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
を備え、with
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新する、点群処理装置として機能させるための、プログラム。 The background integration unit randomly extracts a new partial point cloud from the new background point cloud extracted by the background extraction unit, and repeats integrating the new partial point cloud into the integrated background point cloud. A program for functioning as a point cloud processing device that repeatedly updates the integrated background point cloud by.
JP2018116202A 2018-06-19 2018-06-19 Point cloud processing device, point cloud processing method and program Active JP7107015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018116202A JP7107015B2 (en) 2018-06-19 2018-06-19 Point cloud processing device, point cloud processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116202A JP7107015B2 (en) 2018-06-19 2018-06-19 Point cloud processing device, point cloud processing method and program

Publications (2)

Publication Number Publication Date
JP2019219248A JP2019219248A (en) 2019-12-26
JP7107015B2 true JP7107015B2 (en) 2022-07-27

Family

ID=69096315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116202A Active JP7107015B2 (en) 2018-06-19 2018-06-19 Point cloud processing device, point cloud processing method and program

Country Status (1)

Country Link
JP (1) JP7107015B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7436633B2 (en) 2020-03-23 2024-02-21 ファナック株式会社 Image processing device and image processing method
WO2022254602A1 (en) * 2021-06-02 2022-12-08 日本電気株式会社 Emergency-route deciding system, emergency-route deciding method, and non-transitory computer-readable medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123074A (en) 2001-10-11 2003-04-25 Sanyo Electric Co Ltd Moving object detector, moving object detection method and moving object detection program
JP2009126660A (en) 2007-11-27 2009-06-11 Toshiba Tec Corp Article management system and information processing apparatus
JP2013156718A (en) 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program
JP2017006577A (en) 2015-06-26 2017-01-12 株式会社アナリティックウェア Composite object and method for manufacturing composite object
JP2017207365A (en) 2016-05-18 2017-11-24 株式会社デンソーアイティーラボラトリ Computation processing device, computation processing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017006577A1 (en) * 2015-07-03 2017-01-12 三菱電機株式会社 Device for selecting three-dimensional point group, and method for selecting three-dimensional point group

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123074A (en) 2001-10-11 2003-04-25 Sanyo Electric Co Ltd Moving object detector, moving object detection method and moving object detection program
JP2009126660A (en) 2007-11-27 2009-06-11 Toshiba Tec Corp Article management system and information processing apparatus
JP2013156718A (en) 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program
JP2017006577A (en) 2015-06-26 2017-01-12 株式会社アナリティックウェア Composite object and method for manufacturing composite object
JP2017207365A (en) 2016-05-18 2017-11-24 株式会社デンソーアイティーラボラトリ Computation processing device, computation processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小倉且也 山田遊馬 梶田宗吾 山口弘純 東野輝夫 高井峰生,複数の立体物で構成された三次元点群の切り分け手法の検討,マルチメディア,分散,協調とモバイル(DICOMO2018)シンポジウム論文集 情報処理学会シンポジウムシリーズ[CD-ROM],日本,一般社団法人情報処理学会,2018年06月27日,第2018巻 第1号,Pages: 236-246,ISSN: 1882-0840

Also Published As

Publication number Publication date
JP2019219248A (en) 2019-12-26

Similar Documents

Publication Publication Date Title
US11010965B2 (en) Virtual object placement for augmented reality
US10268917B2 (en) Pre-segment point cloud data to run real-time shape extraction faster
JP5592011B2 (en) Multi-scale 3D orientation
JP6203406B2 (en) System and method for determining plane spread in an augmented reality environment
US9940720B2 (en) Camera and sensor augmented reality techniques
JP6359868B2 (en) 3D data display device, 3D data display method, and 3D data display program
US9262950B2 (en) Augmented reality extrapolation techniques
US20200068188A1 (en) Generating apparatus, generating method, and storage medium
US20140168215A1 (en) Stereo Correspondence Model Fitting
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP2019526956A (en) Digital camera with audio, visual and motion analysis
CN111882632B (en) Surface detail rendering method, device, equipment and storage medium
CN105913481B (en) Shadow rendering apparatus and control method thereof
US20230169686A1 (en) Joint Environmental Reconstruction and Camera Calibration
JP7107015B2 (en) Point cloud processing device, point cloud processing method and program
US11816854B2 (en) Image processing apparatus and image processing method
TWI671543B (en) Heavy rain forecasting method, heavy rain forecasting device, system suitable for rain forecasting device, and rain forecasting program
CN110286906B (en) User interface display method and device, storage medium and mobile terminal
JP7519462B2 (en) Method, apparatus and program for generating floorplans
JP2020509505A (en) Method, apparatus and computer program for providing augmented reality
US20240093992A1 (en) Building change detection device, building change detection system, and building change detection method
US11328477B2 (en) Image processing apparatus, image processing method and storage medium
JP2023110212A (en) Point cloud processing apparatus, point cloud processing method, and program
CN116824105A (en) Display adjustment method, device and equipment for building information model and storage medium
JP5811721B2 (en) Design support apparatus, design support method, and design support program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220627

R150 Certificate of patent or registration of utility model

Ref document number: 7107015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150