JP7107015B2 - Point cloud processing device, point cloud processing method and program - Google Patents
Point cloud processing device, point cloud processing method and program Download PDFInfo
- Publication number
- JP7107015B2 JP7107015B2 JP2018116202A JP2018116202A JP7107015B2 JP 7107015 B2 JP7107015 B2 JP 7107015B2 JP 2018116202 A JP2018116202 A JP 2018116202A JP 2018116202 A JP2018116202 A JP 2018116202A JP 7107015 B2 JP7107015 B2 JP 7107015B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- background
- integrated
- point
- point group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Description
本発明は、点群処理装置、点群処理方法およびプログラムに関する。 The present invention relates to a point cloud processing device, a point cloud processing method, and a program.
近年、実空間の3次元計測および計測データの3次元モデル化の需要が高まっている。実空間の3次元計測および計測データの3次元モデル化を実現する方法には、例えばLIDAR(Laser Imaging Detection and Ranging)のように、アクティブ光(近赤外光)に対する反応を検知する3次元レーザーセンサを利用する方法が挙げられる。 In recent years, there has been an increasing demand for three-dimensional measurement of real space and three-dimensional modeling of measurement data. Methods for realizing three-dimensional measurement of real space and three-dimensional modeling of measurement data include three-dimensional lasers that detect reactions to active light (near-infrared light), such as LIDAR (Laser Imaging Detection and Ranging). A method using a sensor is mentioned.
3次元計測に関し、特許文献1には、LIDARを用いて得られた点群において点密度が希薄な領域に対して、画像センサから得られた情報を処理して生成した新たな点群を追加することで、点群の高解像度化を行う技術が開示されている。また、赤外線ドットによりデプスマップを得る方法では、赤外線を十分に反射しない領域がデプスマップにおける欠損領域になる。この点に関し、特許文献2には、RGBの色情報を持つ画像を用いて欠損領域を補間する方法が開示されている。なお、当該デプスマップは点群の生成に用いられることがある。
Regarding three-dimensional measurement,
特許文献1および特許文献2に記載の技術によれば、ある時点での実空間を表現する点群またはデプスマップを得ることができる。しかし、特許文献1および特許文献2には、実空間の床または壁などの背景領域に属する背景点群を全体の点群から抽出する技術は開示されていない。ある時点での測定により得られた全体の点群から背景点群を抽出する技術があったとしても、一部の背景領域が物体に隠れている場合、背景点群の一部が欠損してしまう。
According to the techniques described in
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、実空間の背景領域に属する背景点群をより高精度に得ることが可能な、新規かつ改良された点群処理装置、点群処理方法およびプログラムを提供することにある。 Accordingly, the present invention has been made in view of the above problems. It is an object of the present invention to provide a point cloud processing device, a point cloud processing method, and a program.
上記課題を解決するために、本発明のある観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備え、前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除する、点群処理装置が提供される。また、上記課題を解決するために、本発明のある観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備え、前記背景統合部は、前記背景抽出部により抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新する、点群処理装置が提供される。
In order to solve the above problems, according to an aspect of the present invention, from a three-dimensional point group corresponding to each timing obtained by measuring the real space from the same point at each of a plurality of timings with LIDAR , a background extraction unit for extracting a background point group, which is a point group belonging to a background region, based on the distribution of the three-dimensional point group corresponding to each timing; a background integration unit that generates an integrated background point cloud by integrating at least a part of each background point cloud extracted by the background extraction unit; By repeatedly extracting a new partial point group and integrating the new partial point group into the integrated background point group, the integrated background point group is repeatedly updated, and points constituting the integrated background point group are determined. A point cloud processing device is provided that deletes some of the points that make up the integrated background point cloud when the number exceeds an upper limit . Further, in order to solve the above problems, according to an aspect of the present invention, a three-dimensional point corresponding to each timing obtained by measuring the real space from the same point at each of a plurality of timings with LIDAR a background extracting unit for extracting a background point group, which is a point group belonging to a background region, from the group based on the distribution of the three-dimensional point group corresponding to each timing; a background integration unit that generates an integrated background point cloud by integrating at least part of each extracted background point cloud, the background integration unit adding new background points extracted by the background extraction unit. A point cloud processing device is provided, which repeatedly updates the integrated background point cloud by repeatedly extracting a new partial point cloud from the group at random and integrating the new partial point cloud into the integrated background point cloud. be done.
前記統合背景点群を構成する一部の点は、前記統合背景点群を構成するランダムな点であってもよい。 Some of the points forming the integrated background point group may be random points forming the integrated background point group.
前記背景統合部は、前記新たな背景点群からランダムに前記新たな部分点群を抽出してもよい。 The background integration unit may randomly extract the new partial point cloud from the new background point cloud.
前記背景統合部は、複数の前記新たな背景点群の各々で異なる範囲内からランダムに前記新たな部分点群を抽出してもよい。 The background integration unit may randomly extract the new partial point clouds from different ranges for each of the plurality of new background point clouds.
前記点群処理装置は、ある点群と前記統合背景点群の差分を計算することにより、物体が存在する領域を検出する物体検出部をさらに備えてもよい。 The point cloud processing device may further include an object detection unit that detects an area in which an object exists by calculating a difference between a certain point cloud and the integrated background point cloud.
前記物体検出部は、第1のタイミングに対応する点群と、前記第1のタイミングより前の第2のタイミングに対応する点群から抽出された部分点群の統合により得られた統合背景点群との差分を計算することにより、物体が存在する領域を検出してもよい。 The object detection unit includes an integrated background point obtained by integrating a point cloud corresponding to a first timing and a partial point cloud extracted from a point cloud corresponding to a second timing before the first timing. A region in which an object is present may be detected by calculating the difference with the group.
前記背景領域は、床面領域および壁面領域の少なくともいずれかを含んでもよい。 The background area may include at least one of a floor area and a wall area.
また、上記課題を解決するために、本発明の別の観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出することと、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、を含み、前記統合背景点群を生成することは、抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除することを含む、点群処理方法が提供される。また、上記課題を解決するために、本発明の別の観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出することと、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、を含み、前記統合背景点群を生成することは、抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新することを含む、点群処理方法が提供される。
Further, in order to solve the above problems, according to another aspect of the present invention, a three-dimensional image corresponding to each timing obtained by measuring the real space from the same point at each of a plurality of timings with LIDAR extracting a background point group, which is a point group belonging to a background region, from the point group based on the distribution of the three-dimensional point group corresponding to each timing; and extracting from the point group corresponding to each of the plurality of timings. and generating an integrated background point cloud by integrating at least a portion of each extracted background point cloud, wherein the generating the integrated background point cloud comprises a new extracted background point cloud; by repeatedly extracting a partial point cloud and integrating the new partial point cloud with the integrated background point cloud, the integrated background point cloud is repeatedly updated, and the number of points constituting the integrated background point cloud A point cloud processing method is provided , including deleting a part of the points constituting the integrated background point cloud when is above an upper limit value . Further, in order to solve the above problems, according to another aspect of the present invention, a three-dimensional image corresponding to each timing obtained by measuring the real space from the same point at each of a plurality of timings with LIDAR extracting a background point group, which is a point group belonging to a background region, from the point group based on the distribution of the three-dimensional point group corresponding to each timing; and extracting from the point group corresponding to each of the plurality of timings. and generating a merged background point cloud by integrating at least a portion of each extracted background point cloud, said generating a merged background point cloud randomly selected from the extracted new background point cloud. and repeatedly updating the integrated background point cloud by extracting a new partial point cloud and integrating the new partial point cloud into the integrated background point cloud. be done.
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備え、前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除する、点群処理装置として機能させるための、プログラムが提供される。また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備え、前記背景統合部は、前記背景抽出部により抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新する、点群処理装置として機能させるための、プログラムが提供される。
Further, in order to solve the above problems, according to another aspect of the present invention, the computer measures the real space from the same point at each of a plurality of timings with LIDAR, and corresponds to each timing. a background extraction unit for extracting a background point group, which is a point group belonging to a background region, from the three-dimensional point group based on the distribution of the three-dimensional point group corresponding to each timing; and corresponding to each of the plurality of timings. a background integration unit configured to generate an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud extracted from the background extraction unit; By repeatedly extracting a new partial point cloud from a new background point cloud and integrating the new partial point cloud into the integrated background point cloud, the integrated background point cloud is repeatedly updated, and the integrated background point A program is provided for functioning as a point cloud processing device that deletes some of the points that make up the integrated background point cloud when the number of points that make up the group exceeds an upper limit . Further, in order to solve the above problems, according to another aspect of the present invention, the computer measures the real space from the same point at each of a plurality of timings with LIDAR, and corresponds to each timing. a background extraction unit for extracting a background point group, which is a point group belonging to a background region, from the three-dimensional point group based on the distribution of the three-dimensional point group corresponding to each timing; and corresponding to each of the plurality of timings. a background integration unit configured to generate an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud extracted from the background extraction unit; randomly extracting a new partial point cloud from a new background point cloud, and repeatedly integrating the new partial point cloud into the integrated background point cloud, thereby repeatedly updating the integrated background point cloud. A program is provided for functioning as a processing device.
以上説明した本発明によれば、実空間の背景領域に属する背景点群をより高精度に得ることが可能である。 According to the present invention described above, it is possible to obtain the background point group belonging to the background area of the real space with higher accuracy.
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。 In addition, in this specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different alphabets after the same reference numerals. However, when there is no particular need to distinguish between a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given to each of the plurality of constituent elements.
<点群処理システムの概要>
本発明の実施形態は、LIDAR(Laser Imaging Detection and Ranging)による実空間の測定により得られた点群を処理することで実空間に存在する物体を検出する点群処理システムに関する。本発明の実施形態の詳細な説明に先立ち、本発明の実施形態による点群処理システムの概要を説明する。
<Overview of point cloud processing system>
An embodiment of the present invention relates to a point cloud processing system that detects an object existing in a real space by processing a point cloud obtained by measuring the real space using LIDAR (Laser Imaging Detection and Ranging). Prior to detailed description of embodiments of the present invention, an overview of a point cloud processing system according to embodiments of the present invention will be described.
図1は、本発明の実施形態による点群処理システムを示す説明図である。図1に示したように、本発明の実施形態による点群処理システムは、LIDAR100および点群処理装置200を有する。LIDAR100と点群処理装置200は、有線で接続されてもよいし、無線で接続されてもよいし、ネットワークを介して接続されてもよい。
FIG. 1 is an explanatory diagram showing a point cloud processing system according to an embodiment of the present invention. As shown in FIG. 1, a point cloud processing system according to an embodiment of the present invention has a LIDAR 100 and a point
(LIDAR)
LIDAR100は、実空間の3次元環境を測定する測定装置である。LIDAR100は、例えば図1に示したように三脚110により支持されることである地点に設置される。LIDAR100は、設置された同一地点から複数フレームに亘ってレーザーを用いた測定を繰り返し、各フレームの3次元の点群を得る。LIDAR100は、測定により得た点群を点群処理装置200に出力する。
(LIDAR)
The LIDAR 100 is a measuring device that measures a three-dimensional environment in real space. The LIDAR 100 is installed at a point, for example being supported by a
なお、LIDAR100に設けられるレーザー送受信センサの数、レーザーの走査方式および測定可能範囲は特に限定されない。例えば、レーザー送受信センサの数は、8個、16個、32個、64個または128個などであってもよい。また、レーザーの走査方式は、水平方向に沿ってレーザーの向きを変化させる方式であってもよいし、垂直方向に沿ってレーザーの向きを変化させる方式であってもよい。また、測定可能範囲は、水平視野において120°または全方位などであり、垂直視野角において20°、30°または40°などであってもよい。 The number of laser transmission/reception sensors provided in the LIDAR 100, the laser scanning method, and the measurable range are not particularly limited. For example, the number of laser transmitting and receiving sensors may be 8, 16, 32, 64, 128, and so on. Further, the laser scanning method may be a method of changing the direction of the laser along the horizontal direction, or a method of changing the direction of the laser along the vertical direction. Also, the measurable range may be 120° or omnidirectional in the horizontal field of view, and may be 20°, 30° or 40° in the vertical field of view.
(点群処理装置)
点群処理装置200は、LIDAR100から入力される点群に基づき、実空間で物体が存在する物体領域を検出する。物体領域の検出は、LIDAR100から入力される点群から、背景領域(床および壁などの固定物)に属する点群を分離(セグメンテーション)することにより実現され得る。このため、点群処理装置200は、LIDAR100から入力される点群から背景領域に属する点群である背景点群を抽出する機能も有する。なお、点群処理装置200が検出対象とする物体は特に限定されず、例えば、点群処理装置200は人または車両などの動物体を検出対象としてもよい。ここで、図2および図3を参照し、点群処理装置200による背景点群の抽出の具体例を説明する。
(Point cloud processing device)
The point
図2は、実空間の具体例を示す説明図である。図2に示した実空間は、床面Fおよび壁面Wで囲まれる空間であり、床面Fには物体Oが存在する。なお、本明細書においては、XY平面が床面Fに水平な面であり、XZ平面またはYZ平面が壁面Wに水平な面となるようにLIDAR100が設置されたものとする。
FIG. 2 is an explanatory diagram showing a specific example of real space. The real space shown in FIG. 2 is a space surrounded by a floor surface F and a wall surface W, and an object O exists on the floor surface F. As shown in FIG. In this specification, it is assumed that the
図3は、図2に示した実空間の点群から抽出された背景点群を示す説明図である。図3に示したように、背景点群は、床面Fおよび壁面Wにおいて物体Oに遮蔽された部分以外の領域に散在する。なお、図3は背景点群を簡易的に示しているに過ぎず、実際には、より多くの点からなる背景点群が得られてもよいし、円弧状に点が分布してもよい。 FIG. 3 is an explanatory diagram showing a background point group extracted from the point group in the real space shown in FIG. As shown in FIG. 3, the background point group is scattered in the areas of the floor surface F and the wall surface W other than the portions shielded by the object O. As shown in FIG. Note that FIG. 3 merely shows the background point group in a simplified manner, and in reality, the background point group may be obtained with a larger number of points, or the points may be distributed in an arc shape. .
(課題の整理)
上記の物体検出は、不足の無い背景点群を用いることにより、正確に行うことが可能である。一方、図3に示したように、物体Оに遮蔽された部分の点群が欠損している背景点群では、背景領域として扱われるべき点群の一部が物体として検出される恐れがある。
(Organization of issues)
The above object detection can be performed accurately by using a sufficient background point group. On the other hand, as shown in FIG. 3, in the background point cloud in which the point cloud of the portion occluded by the object O is missing, there is a possibility that part of the point cloud that should be treated as the background area will be detected as the object. .
そこで、本件発明者は上記事情を着眼点にして本発明の実施形態を創作するに至った。本発明の実施形態による点群処理装置200は、実空間の背景領域に属する背景点群をより高精度に得ることが可能である。以下、このような本発明の実施形態による点群処理装置200の構成および動作を順次詳細に説明する。
Therefore, the inventor of the present invention has created an embodiment of the present invention with the above circumstances as a point of view. The point
<点群処理装置の構成>
図4は、本発明の実施形態による点群処理装置200の構成を示す説明図である。図4に示したように、本発明の実施形態による点群処理装置200は、点群記憶部220、背景抽出部230、背景点群記憶部240、背景統合部250、物体検出部260、表示制御部270および表示部280を有する。
<Configuration of point cloud processing device>
FIG. 4 is an explanatory diagram showing the configuration of the point
(点群記憶部)
点群記憶部220は、LIDAR100から入力された各フレームの点群を記憶する。当該点群には、背景領域に属する背景点群、および物体領域に属する物体点群が区別されずに混在していることが想定される。LIDAR100から入力された点群を以下では点群Poと称する場合がある。
(Point cloud memory)
The point
(背景抽出部)
背景抽出部230は、点群記憶部220に記憶された点群Poから背景領域に属する背景点群を抽出する。背景領域には例えば床面および壁面が該当し、背景点群には、図3に示したように、床面に属する床面点群Pofおよび壁面に属する壁面点群Powが含まれ得る。床面は、XY平面と水平な点群Poにおいて最も巨大な平面であり、壁面はXZ平面またはYZ平面と水平な点群Poにおいて最も巨大な平面であると推定される。このため、背景抽出部230は、RANSAC(Random Sampling Consensus)を実行することにより床面点群Pofおよび壁面点群Powを得る。以下、平面形状を構成する点群のRANSACによる点群の推定手順を説明した後に、RANSACにより床面点群Pofおよび壁面点群Powを得る具体的な方法を説明する。
(Background extraction part)
The
点群Poに対して3つのパラメータを用いてRANSACを実行することにより、平面形状を構成する点群P_planeが出力される。3つのパラメータには、推定したい平面形状の法線方向vpl、平面を構成する点群と平面との距離の誤差しきい値dist_pl、平面を構成する点群と平面との角度の誤差しきい値angle_plが該当する。これらパラメータは人的に設定され得る。上記を要すると、点群P_planeは以下のように表現される。
P_plane:=RANSAC(Po,vpl,dist_pl,angle_pl)
By executing RANSAC on the point group Po using three parameters, a point group P_plane that forms a planar shape is output. The three parameters include the normal direction vpl of the plane shape to be estimated, the error threshold dist_pl of the distance between the point group forming the plane and the plane, and the error threshold of the angle between the point group forming the plane and the plane. angle_pl is applicable. These parameters can be set manually. Summarizing the above, the point cloud P_plane is expressed as follows.
P_plane:=RANSAC(Po, vpl, dist_pl, angle_pl)
そして、背景抽出部230は、上述したvplにZ軸方向を適用することにより、床面点群Pofを得ることができる。当該床面点群Pofを得る処理は、以下のように表現される。
Pof:=RANSAC(Po,Z,dist_pl,angle_pl)
Then, the
Pof := RANSAC(Po, Z, dist_pl, angle_pl)
さらに、背景抽出部230は、上述したvplにY軸方向を適用することにより、XZ平面と水平な壁面に属する壁面点群Pow_Yを得ることができる。また、背景抽出部230は、上述したvplにX軸方向を適用することにより、YZ平面と水平な壁面に属する壁面点群Pow_Xを得ることができる。これら壁面点群Pow_Yおよび壁面点群Pow_Xが組み合わされた点群が壁面点群Powである。当該壁面点群Powを得る処理は、以下のように表現される。
Pow_Y:=RANSAC(Po,Y,dist_pl,angle_pl)
Pow_X:=RANSAC(Po,X,dist_pl,angle_pl)
Pow:= Pow_Y+Pow_X
Furthermore, the
Pow_Y:=RANSAC(Po, Y, dist_pl, angle_pl)
Pow_X:=RANSAC(Po, X, dist_pl, angle_pl)
Pow:= Pow_Y + Pow_X
(背景点群記憶部)
背景点群記憶部240は、背景点群を記憶する。具体的には、上述した処理により背景抽出部230により抽出された床面点群Pofおよび壁面点群Powが1フレーム目の点群Poから抽出された点群である場合、背景点群記憶部240は、これら床面点群Pofおよび壁面点群Powを初期背景点群として記憶する。また、背景点群記憶部240は、後述する背景統合部250により得られる統合背景点群を記憶する。
(Background point cloud memory)
The background point
(背景統合部)
背景統合部250は、背景点群記憶部240に記憶された初期背景点群と、新たなフレームから抽出された背景点群(床面点群Pofおよび壁面点群Pow)の部分点群Piを統合することにより、統合背景点群Pbを生成する。また、背景統合部250は、既に統合背景点群Pbが背景点群記憶部240に記憶されている場合には、当該統合背景点群Pbと新たなフレームから抽出された背景点群の部分点群Piを統合することにより、統合背景点群Pbを更新する。
(Background Integration Department)
The background integration unit 250 combines the initial background point cloud stored in the background point
ここで、新たなフレームから抽出された床面点群Pofおよび壁面点群Powの部分点群Piは、床面点群Pofおよび壁面点群Powからランダムに抽出された点群であってもよいし、ユーザにより指定されたルールに従って抽出された点群であってもよい。このような当該部分点群Piを背景統合部250が抽出する処理は以下のように表現される。Pi_sizeは部分点群Piに含まれる点の数であり、ユーザにより与えられるパラメータである。Pi_sizeの数は、例えば、新たなフレームから抽出された床面点群Pofおよび壁面点群Powの点の数の0.3%~1.0%であってもよい。
Pi:=Extract_pi(Pow+Pof,random or user rule,Pi_size)
Here, the partial point group Pi of the floor point group Pof and the wall point group Pow extracted from the new frame may be a point group randomly extracted from the floor point group Pof and the wall point group Pow. Alternatively, it may be a point cloud extracted according to a rule specified by the user. The process by which the background integration unit 250 extracts such a partial point group Pi is expressed as follows. Pi_size is the number of points contained in the sub-point cloud Pi and is a parameter given by the user. The number of Pi_size may be, for example, 0.3% to 1.0% of the number of points of the floor point cloud Pof and the wall point cloud Pow extracted from the new frame.
Pi:=Extract_pi(Pow+Pof, random or user rule, Pi_size)
そして、背景統合部250は、初期背景点群または統合背景点群Pbに上述した部分点群Piを追加することで、統合背景点群Pbを生成または更新する。当該処理は以下のように表現される。
Pb:=Pb+Pi
Then, the background integration unit 250 generates or updates the integrated background point group Pb by adding the partial point group Pi described above to the initial background point group or the integrated background point group Pb. The processing is expressed as follows.
Pb:=Pb+Pi
上述した部分点群Piの抽出、および統合背景点群Pbの生成について、図5および図6を参照してより具体的に説明する。 The extraction of the partial point group Pi and the generation of the integrated background point group Pb will be described in more detail with reference to FIGS. 5 and 6. FIG.
図5は、部分点群Piの抽出の具体例を示す説明図である。図5には、図3に示したフレームの次のフレームで背景抽出部230により抽出された床面点群Pofおよび壁面点群Powが示されている。図3と図5を比較すると、物体Oが移動しており、物体Oに遮蔽されて点群が欠損している位置が異なる。
FIG. 5 is an explanatory diagram showing a specific example of extraction of the partial point group Pi. FIG. 5 shows the floor point group Pof and the wall point group Pow extracted by the
背景統合部250は、図5に示した床面点群Pofおよび壁面点群Powから、図5において太線で示した例えば6つの部分点群Piを抽出する。そして、背景統合部250は、図3に示した初期背景点群に部分点群Piを追加することにより、図6に示した統合背景点群Pbを生成する。図6に示した統合背景点群Pbでは、図3において物体Oにより遮蔽されて点群が欠損していた位置に点群が追加されている。このような部分点群Piの追加を複数フレームに亘って繰り返して統合背景点群Pbを更新することにより、統合背景点群Pbの精度を向上していくことが可能である。 The background integration unit 250 extracts, for example, six partial point groups Pi indicated by thick lines in FIG. 5 from the floor point group Pof and the wall point group Pow shown in FIG. Then, the background integration unit 250 generates the integrated background point group Pb shown in FIG. 6 by adding the partial point group Pi to the initial background point group shown in FIG. In the integrated background point cloud Pb shown in FIG. 6, a point cloud is added to the position where the point cloud was missing due to being blocked by the object O in FIG. It is possible to improve the accuracy of the integrated background point group Pb by repeating the addition of such a partial point group Pi over a plurality of frames to update the integrated background point group Pb.
ただし、部分点群Piの追加が繰り返されていくと、統合背景点群Pbの点数が増加し過ぎて、記憶領域および計算資源が圧迫されてしまう。そこで、統合背景点群Pbの点数の上限値として最大点数Npbmaxを設定し、背景統合部250は、統合背景点群Pbの点数と最大点数Npbmaxの関係に応じて統合背景点群Pbに関する処理を実行してもよい。 However, if the addition of the partial point cloud Pi is repeated, the number of points of the integrated background point cloud Pb will increase excessively, and the storage area and computational resources will be squeezed. Therefore, the maximum score Npbmax is set as the upper limit of the score of the integrated background point group Pb, and the background integration unit 250 performs processing on the integrated background point group Pb according to the relationship between the score of the integrated background point group Pb and the maximum score Npbmax. may be executed.
具体的には、統合背景点群Pbの点数が最大点数Npbmax未満である場合、背景統合部250は、統合背景点群Pbに部分点群Piを追加することにより統合背景点群Pbを更新する。 Specifically, when the score of the integrated background point group Pb is less than the maximum score Npbmax, the background integration unit 250 updates the integrated background point group Pb by adding the partial point group Pi to the integrated background point group Pb. .
一方、統合背景点群Pbの点数が最大点数Npbmax以上である場合、背景統合部250は、統合背景点群Pbから部分点群Piと同数の点P_dをランダムに消去する。そして、背景統合部250は、点Pb_dの消去後の統合背景点群Pbに対して部分点群Piを追加することにより統合背景点群Pbを更新する。 On the other hand, when the score of the integrated background point group Pb is equal to or greater than the maximum score Npbmax, the background integration unit 250 randomly deletes the same number of points P_d as the partial point group Pi from the integrated background point group Pb. Then, the background integration unit 250 updates the integrated background point group Pb by adding the partial point group Pi to the integrated background point group Pb after the point Pb_d is erased.
上記の処理は、以下のように整理される。
Pb:=Pb+Pi(最大点数Npbmax>Pbの点数である場合)
Pb:=Pb-Pb_d+Pi(最大点数Npbmax≦Pbの点数である場合)
The above processing is organized as follows.
Pb:=Pb+Pi (when maximum score Npbmax>Pb score)
Pb:=Pb-Pb_d+Pi (when the maximum score Npbmax≤Pb)
(物体検出部)
物体検出部260は、点群Poおよび統合背景点群Pbを用いて、物体が存在する領域(物体領域)を検出する。そのために、物体検出部260は、点群Poおよび統合背景点群Pbの差分を計算する。当該差分を高速に計算するために、物体検出部260は、点群Poおよび統合背景点群PbをOctree構造に変換してOct_PoおよびOct_Pbを得る。そして、物体検出部260は、Oct_PoとOct_Pbの差分の点群情報Diff_Po_Pbを得る。さらに、物体検出部260は、Diff_Po_Pbを点群Poに適用することで、点群Poおよび統合背景点群Pbの差分である差分点群Pdを得る。
(Object detection unit)
The
上述した差分点群Pdを得るための処理は以下のように表現される。
Oct_Po:=Octree(Po)
Oct_Pb:=Octree(Pb)
Diff_Po_Pb:=Octdiff(Oct_Po,Oct_Pb)
Pd:=Octindice(Po,Diff_Po_Pb)
The processing for obtaining the difference point group Pd described above is expressed as follows.
Oct_Po := Octree(Po)
Oct_Pb:=Octree(Pb)
Diff_Po_Pb:=Octdiff(Oct_Po, Oct_Pb)
Pd:=Octindice(Po, Diff_Po_Pb)
そして、物体検出部260は、差分点群Pdに対してクラスタリングを行うことにより物体領域Region_dを得る。具体的には、物体検出部260は、まずクラスタリングを行うために差分点群PdをKdtree構造に変換して、Kd_Pdを得る。そして、物体検出部260は、Kd_Pd、各クラスタ間の許容距離dist_c、最小のクラスタ点群点数Ncmin、および最大のクラスタ点群点数Ncmaxを用いてクラスタリングを行い、物体を構成する点群のクラスタPcを得る。当該クラスタリングによって、0個から複数個のPcが得られる。なお、dist_c、NcminおよびNcmaxはユーザにより指定されるパラメータであってもよい。
Then, the
さらに、物体検出部260は、Pc群から物体が存在する物体領域Region_dを計算する。Region_dはリスト構造になっており、各要素には各Pcの点群数、クラスタの最大・最小座標、クラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、物体の種類などが格納される。物体検出部260は、Pcの点群を探索することで、点群数とクラスタの座標を計算し、点群数およびクラスタの座標からクラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、および物体の種類などを計算可能である。
Furthermore, the
上述したクラスタリングから物体領域Region_dの検出までの処理は以下のように表現される。なお、KdtreeはKdtree構造に引数を変換する関数であり、Clusteringは点群中の物体を構成するクラスタ群を出力する関数であり、Region_fは各クラスタの点群数、クラスタの最大・最小座標、クラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、および物体の種類を含む構造体のリストを出力する関数である。
Kd_Pd:=Kdtree(Pd)
Pc:=Clustering(Kd_Pd,dist_c,Ncmin,Ncmax)
Region_d:=Region_f(Pc)
The above-described processing from clustering to detection of the object region Region_d is expressed as follows. Note that Kdtree is a function that converts an argument to a Kdtree structure, Clustering is a function that outputs a cluster group that constitutes an object in a point group, Region_f is the number of point groups in each cluster, the maximum and minimum coordinates of the cluster, A function that outputs a list of structures containing cluster size, cluster centroid, distance from cluster to
Kd_Pd:=Kdtree(Pd)
Pc:=Clustering(Kd_Pd, dist_c, Ncmin, Ncmax)
Region_d := Region_f(Pc)
(表示制御部)
表示制御部270は、点群記憶部220から読み出した点群Poと物体領域Region_dを用いて、点群Poにおける物体の検出結果を示す検出結果画面を生成する。検出結果画面の生成方法は、点群Poを配置すること、Region_dより得られるクラスタの最大・最小座標を用いたクラスタの領域(立方体)を配置すること、および、最大・最小座標を用いることで立方体の各頂点を計算し、立方体の辺となるように各立方体の頂点間で線を描画すること、をRegion_dに存在する各物体に対して行うこと、を含む。
(Display control unit)
The
(表示部)
表示部280は、表示制御部270により生成された検出結果画面を表示する。これにより、点群Poに存在する全ての物体領域が可視化される。
(Display part)
The
<点群処理装置の動作>
以上、本発明の実施形態による点群処理装置200の構成を説明した。続いて、図7を参照し、本発明の実施形態による点群処理装置200の動作を説明する。
<Operation of point cloud processing device>
The configuration of the point
図7は、本発明の実施形態による点群処理装置200の動作を示すフローチャートである。図7に示したように、まず、点群記憶部220はLIDAR100から入力された1フレーム目の点群Poを記憶する(S304)。
FIG. 7 is a flow chart showing the operation of the point
そして、背景抽出部230は、点群記憶部220に記憶された点群Poから背景領域に属する背景点群(床面点群Pofおよび壁面点群Pow)を抽出する(S308)。背景点群記憶部240は、背景抽出部230により抽出された背景点群を初期背景点群として記憶する(S312)。
Then, the
その後、LIDAR100から新たなフレームの点群Poが入力されると、点群記憶部220は当該新たなフレームの点群Poを記憶する(S316)。続いて、背景抽出部230が新たなフレームの点群Poから背景点群を抽出し(S320)、背景統合部250が、当該背景点群から部分点群Piを抽出する(S324)。
After that, when the point cloud Po of a new frame is input from the
ここで、背景点群記憶部240に統合背景点群Pbが記憶されている場合、背景統合部250は、統合背景点群Pbの点数が最大点数Npbmax以上であるか否かを判断する(S328)。統合背景点群Pbの点数が最大点数Npbmax以上である場合、または背景点群記憶部240に統合背景点群Pbが記憶されていない場合(S328/No)、処理はS336に進む。一方、統合背景点群Pbの点数が最大点数Npbmax以上である場合(S328/Yes)、背景統合部250は、統合背景点群Pbから部分点群Piと同数の点群を消去する(S332)。
Here, when the integrated background point cloud Pb is stored in the background point
続いて、背景統合部250は、統合背景点群Pb(1周目は初期背景点群)に部分点群Piを統合して統合背景点群Pbを更新(生成)する(S336)。そして、物体検出部260が新たなフレームの点群Poおよび統合背景点群Pbの差分を計算して物体領域を検出し(S340)、表示部280が新たなフレームの点群Poに物体領域を重畳して表示する(S344)。
Subsequently, the background integration unit 250 updates (generates) the integrated background point group Pb by integrating the partial point group Pi into the integrated background point group Pb (initial background point group in the first round) (S336). Then, the
その後、S316~S344の処理がLIDAR100による計測が終了するまで繰り返される(S348)。
After that, the processing of S316 to S344 is repeated until the measurement by the
<作用効果>
以上説明した本発明の実施形態によれば、多様な作用効果が得られる。
<Effect>
According to the embodiments of the present invention described above, various effects can be obtained.
例えば、背景統合部250は、新たなフレームの背景点群から一部の部分点群Piを抽出し、当該部分点群Piを追加することで統合背景点群Pbを更新する。対比的に、新たなフレームの全ての背景点群を追加していき、統合背景点群Pbの点数が最大点数Npbmaxに達した後は統合背景点群Pbの一部の点群を新たなフレームの全ての背景点群に入れ替える方法も考えられる。しかし、当該方法では、物体が移動すると、移動前の物体の位置における背景点群の欠損は補えるものの、移動後の物体の位置において、元々はあった背景点群が急速に欠損していってしまう。これに対し、本発明の実施形態によれば、物体の移動に対する統合背景領域Pbのロバスト性を向上することが可能である。 For example, the background integration unit 250 extracts a partial point cloud Pi from the background point cloud of the new frame and adds the partial point cloud Pi to update the integrated background point cloud Pb. In contrast, all the background point clouds of the new frame are added, and after the number of points of the integrated background point cloud Pb reaches the maximum number of points Npbmax, a part of the point cloud of the integrated background point cloud Pb is added to the new frame. A method of replacing all the background point groups in . However, in this method, when the object moves, although the loss of the background point cloud at the position of the object before movement can be compensated, the background point cloud that was originally present at the position of the object after movement rapidly disappears. put away. In contrast, according to the embodiment of the present invention, it is possible to improve the robustness of the integrated background region Pb against object movement.
また、背景統合部250は、新たなフレームの背景点群から部分点群Piをランダムに(確率的に)抽出する。かかる構成によれば、背景点群において点群が欠損している場所を特定することなく、点群の欠損を補間することが可能である。 The background integration unit 250 also randomly (probabilistically) extracts a partial point cloud Pi from the background point cloud of the new frame. According to such a configuration, it is possible to interpolate missing points in the background point cloud without specifying a place where the point group is missing.
また、背景統合部250は、統合背景点群Pbの点数が最大点数Npbmaxに達した後は、統合背景点群Pbに含まれる点をランダムに消去する。かかる構成によれば、仮に統合背景点群Pbに背景領域に属さない点群が含まれてしまった場合でも、当該点群を次第に淘汰することが可能であり、結果、統合背景点群Pbの精度を向上することが可能である。 Further, after the number of points of the integrated background point group Pb reaches the maximum score Npbmax, the background integration unit 250 randomly deletes the points included in the integrated background point group Pb. According to this configuration, even if the integrated background point group Pb includes a point group that does not belong to the background area, it is possible to gradually eliminate the point group, and as a result, the integrated background point group Pb It is possible to improve the accuracy.
<変形例>
以上、本発明の実施形態を説明した。以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
<Modification>
The embodiments of the present invention have been described above. Several variations of the embodiments of the present invention are described below. In addition, each modification described below may be applied to the embodiment of the present invention independently, or may be applied to the embodiment of the present invention in combination. Further, each modification may be applied instead of the configuration described in the embodiment of the invention, or may be additionally applied to the configuration described in the embodiment of the invention.
(第1の変形例)
上記では、背景統合部250が背景点群の全体からランダムに部分点群Piを抽出する例を説明した。第1の変形例は、この部分点群Piの抽出に関する変形例である。背景統合部250は、フレームごとに異なる範囲内からランダムに部分点群Piを抽出してもよい。図8を参照し、当該第1の変形例をより具体的に説明する。
(First modification)
An example has been described above in which the background integration unit 250 randomly extracts the partial point group Pi from the entire background point group. A first modified example is a modified example relating to the extraction of this partial point group Pi. The background integration unit 250 may randomly extract the partial point cloud Pi from within a different range for each frame. The first modified example will be described more specifically with reference to FIG.
図8は、第1の変形例を示す説明図である。図8に示したように、背景統合部250は、背景点群を複数の領域D1~D3に区分し、1のフレームの背景点群では領域D1~D3のいずれかに含まれる点群からランダムに部分点群Piを抽出してもよい。例えば、背景統合部250は、第nフレームにおいては、太線で示した5個の点群のように、領域D1に含まれる点群からランダムに部分点群Piを抽出してもよい。そして、背景統合部250は、第n+1フレームにおいては領域D2に含まれる点群からランダムに部分点群Piを抽出し、第n+2フレームにおいては領域D3に含まれる点群からランダムに部分点群Piを抽出してもよい。 FIG. 8 is an explanatory diagram showing a first modified example. As shown in FIG. 8, the background integration unit 250 divides the background point cloud into a plurality of regions D1 to D3. , the partial point group Pi may be extracted. For example, in the n-th frame, the background integration unit 250 may randomly extract a partial point cloud Pi from the point cloud included in the region D1, such as the five point clouds indicated by the thick lines. Then, the background integration unit 250 randomly extracts the partial point cloud Pi from the point cloud included in the region D2 in the n+1th frame, and randomly extracts the partial point cloud Pi from the point cloud included in the region D3 in the n+2th frame. may be extracted.
(第2の変形例)
上記では、新たなフレームの点群Poを用いて統合背景点群Pbを更新し、統合背景点群Pbの更新後に、統合背景点群Pbを用いて物体検出を行う例を説明した。第2の変形例は、統合背景点群Pbの更新と物体検出の関係に関する変形例である。第2の変形例では、物体検出部260は、フレームnの点群Po(n)と、以前に得られたフレームn-1の点群Po(n-1)から抽出された部分点群Pi(n-1)の統合により得られた統合背景点群Pb(n-1)との差分を計算することにより、物体領域を検出する。以下、図9を参照し、第2の変形例をより具体的に説明する。
(Second modification)
An example has been described above in which the integrated background point group Pb is updated using the point group Po of a new frame, and object detection is performed using the integrated background point group Pb after updating the integrated background point group Pb. A second modification relates to the relationship between the update of the integrated background point group Pb and object detection. In the second modification, the
図9は、第2の変形例を示す説明図である。S304~S316の処理は図7を参照して説明した通りである。図9に示したように、背景統合部250は新たなフレームの点群Poを用いて統合背景点群Pbを更新する(S320、S324、S328、S332、S336)。物体検出部260は、背景統合部250による統合背景点群Pbの更新と並行して物体領域の検出を行う。
FIG. 9 is an explanatory diagram showing a second modified example. The processing of S304 to S316 is as described with reference to FIG. As shown in FIG. 9, the background integration unit 250 updates the integrated background point cloud Pb using the new frame point cloud Po (S320, S324, S328, S332, S336). The
すなわち、物体検出部260は、新たなフレームの点群Poと、前フレームで更新された統合背景点群Pbとの差分を計算し、物体領域を検出する(S322)。そして、表示部280が新たなフレームの点群Poに物体領域を重畳して表示する(S326)。
That is, the
かかる構成によれば、新たなフレームの点群Poを用いて統合背景点群Pbが更新されることを待たずに物体検出を行うことができるので、物体領域の表示に関する応答性および即時性を向上することが可能である。 With such a configuration, object detection can be performed without waiting for the integrated background point group Pb to be updated using the point group Po of a new frame. can be improved.
<ハードウェア構成>
以上、本発明の実施形態を説明した。上述した背景点群の抽出および統合背景点群の更新などの情報処理は、ソフトウェアと、以下に説明する点群処理装置200のハードウェアとの協働により実現される。
<Hardware configuration>
The embodiments of the present invention have been described above. Information processing such as extraction of the background point cloud and updating of the integrated background point cloud described above is realized by cooperation between software and hardware of the point
図10は、点群処理装置200のハードウェア構成を示したブロック図である。点群処理装置200は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、点群処理装置200は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、表示装置209と、音声出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、ネットワークインタフェース215とを備える。
FIG. 10 is a block diagram showing the hardware configuration of the point
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って点群処理装置200内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。これらCPU201、ROM202およびRAM203とソフトウェアとの協働により、上述した背景抽出部230、背景統合部250、物体検出部260および表示制御部270などの機能が実現され得る。
The
ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
The
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。点群処理装置200のユーザは、該入力装置208を操作することにより、点群処理装置200に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
表示装置209は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、音声出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。
The
ストレージ装置211は、本実施形態にかかる点群処理装置200の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置211は、ストレージを駆動し、CPU201が実行するプログラムや各種データを格納する。
The
ドライブ212は、記憶媒体用リーダライタであり、点群処理装置200に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203またはストレージ装置211に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
The
ネットワークインタフェース215は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース215は、無線LAN(Local Area Network)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
The
<補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<Supplement>
Although the preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention belongs can conceive of various modifications or modifications within the scope of the technical idea described in the claims. It is understood that these also naturally belong to the technical scope of the present invention.
例えば、本明細書の点群処理装置200の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、点群処理装置200の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
For example, each step in the processing of the point
また、上記では初期背景点群に対して部分点群を追加することにより統合背景点群Pbを生成する例を説明したが、複数のフレームの背景点群から抽出された各部分点群Piを統合することにより統合背景点群Pbを生成してもよい。 In the above description, an example of generating the integrated background point cloud Pb by adding partial point clouds to the initial background point cloud has been described. An integrated background point group Pb may be generated by integration.
また、本発明の実施形態によるLIDAR100により計測される対象は特に限定されない。例えば、LIDAR100により計測される対象は、屋内であってもよいし、屋外であってもよいし、建設現場であってもよい。
Also, the object measured by the
また、点群処理装置200に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した点群処理装置200の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
It is also possible to create a computer program for causing hardware such as the CPU, ROM, and RAM built into the point
100 LIDAR
110 三脚
200 点群処理装置
220 点群記憶部
230 背景抽出部
240 背景点群記憶部
250 背景統合部
260 物体検出部
270 表示制御部
280 表示部
100 LIDAR
110
Claims (12)
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、
を備え、
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除する、 点群処理装置。 Based on the distribution of the three-dimensional point cloud corresponding to each timing, from the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, a background extracting unit that extracts a background point cloud that is a point cloud belonging to a background region;
a background integration unit that generates an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
with
The background integration unit extracts a new partial point cloud from the new background point cloud extracted by the background extraction unit, and repeats integrating the new partial point cloud into the integrated background point cloud, repeatedly updating the integrated background point cloud, and deleting some points that make up the integrated background point cloud when the number of points that make up the integrated background point cloud exceeds an upper limit; Point cloud processor.
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、 a background integration unit that generates an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
を備え、with
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新する、点群処理装置。 The background integration unit randomly extracts a new partial point cloud from the new background point cloud extracted by the background extraction unit, and repeats integrating the new partial point cloud into the integrated background point cloud. A point cloud processing device that repeatedly updates the integrated background point cloud by:
ある点群と前記統合背景点群の差分を計算することにより、物体が存在する領域を検出する物体検出部をさらに備える、請求項1~5のいずれか一項に記載の点群処理装置。 The point cloud processing device is
The point cloud processing device according to any one of claims 1 to 5 , further comprising an object detection unit that detects an area in which an object exists by calculating a difference between a certain point cloud and the integrated background point cloud.
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、
を含み、
前記統合背景点群を生成することは、抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除することを含む、点群処理方法。 From the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, based on the distribution of the three-dimensional point cloud corresponding to each timing, extracting a background point cloud, which is a point cloud belonging to the background region;
generating an integrated background point cloud by integrating at least a portion of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
including
Generating the integrated background point cloud includes extracting a new partial point cloud from the extracted new background point cloud and integrating the new partial point cloud into the integrated background point cloud, repeatedly updating the integrated background point cloud, and deleting some points constituting the integrated background point cloud when the number of points constituting the integrated background point cloud exceeds an upper limit value. Processing method.
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、 generating an integrated background point cloud by integrating at least a portion of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
を含み、including
前記統合背景点群を生成することは、抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新することを含む、点群処理方法。 Generating the integrated background point cloud includes randomly extracting a new partial point cloud from the extracted new background point cloud, and repeating the process of integrating the new partial point cloud into the integrated background point cloud. A point cloud processing method, comprising iteratively updating the integrated background point cloud by:
複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、
を備え、
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新し、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除する、点群処理装置 として機能させるための、プログラム。 the computer,
From the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, based on the distribution of the three-dimensional point cloud corresponding to each timing, a background extracting unit that extracts a background point cloud that is a point cloud belonging to a background region;
a background integration unit that generates an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
with
The background integration unit extracts a new partial point cloud from the new background point cloud extracted by the background extraction unit, and repeats integrating the new partial point cloud into the integrated background point cloud, A point cloud processing device that repeatedly updates the integrated background point cloud, and deletes some points that make up the integrated background point cloud when the number of points that make up the integrated background point cloud exceeds an upper limit value. A program to function as
複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、各タイミングに対応する3次元の点群の分布に基づいて、背景領域に属する点群である背景点群を抽出する背景抽出部と、 From the three-dimensional point cloud corresponding to each timing obtained by measuring the real space with LIDAR from the same point at each of a plurality of timings, based on the distribution of the three-dimensional point cloud corresponding to each timing, a background extracting unit that extracts a background point cloud that is a point cloud belonging to a background region;
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、 a background integration unit that generates an integrated background point cloud by integrating at least part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
を備え、with
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群からランダムに新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新する、点群処理装置として機能させるための、プログラム。 The background integration unit randomly extracts a new partial point cloud from the new background point cloud extracted by the background extraction unit, and repeats integrating the new partial point cloud into the integrated background point cloud. A program for functioning as a point cloud processing device that repeatedly updates the integrated background point cloud by.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018116202A JP7107015B2 (en) | 2018-06-19 | 2018-06-19 | Point cloud processing device, point cloud processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018116202A JP7107015B2 (en) | 2018-06-19 | 2018-06-19 | Point cloud processing device, point cloud processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019219248A JP2019219248A (en) | 2019-12-26 |
JP7107015B2 true JP7107015B2 (en) | 2022-07-27 |
Family
ID=69096315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018116202A Active JP7107015B2 (en) | 2018-06-19 | 2018-06-19 | Point cloud processing device, point cloud processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7107015B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7436633B2 (en) | 2020-03-23 | 2024-02-21 | ファナック株式会社 | Image processing device and image processing method |
WO2022254602A1 (en) * | 2021-06-02 | 2022-12-08 | 日本電気株式会社 | Emergency-route deciding system, emergency-route deciding method, and non-transitory computer-readable medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003123074A (en) | 2001-10-11 | 2003-04-25 | Sanyo Electric Co Ltd | Moving object detector, moving object detection method and moving object detection program |
JP2009126660A (en) | 2007-11-27 | 2009-06-11 | Toshiba Tec Corp | Article management system and information processing apparatus |
JP2013156718A (en) | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | Person tracking attribute estimation device, person tracking attribute estimation method and program |
JP2017006577A (en) | 2015-06-26 | 2017-01-12 | 株式会社アナリティックウェア | Composite object and method for manufacturing composite object |
JP2017207365A (en) | 2016-05-18 | 2017-11-24 | 株式会社デンソーアイティーラボラトリ | Computation processing device, computation processing method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017006577A1 (en) * | 2015-07-03 | 2017-01-12 | 三菱電機株式会社 | Device for selecting three-dimensional point group, and method for selecting three-dimensional point group |
-
2018
- 2018-06-19 JP JP2018116202A patent/JP7107015B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003123074A (en) | 2001-10-11 | 2003-04-25 | Sanyo Electric Co Ltd | Moving object detector, moving object detection method and moving object detection program |
JP2009126660A (en) | 2007-11-27 | 2009-06-11 | Toshiba Tec Corp | Article management system and information processing apparatus |
JP2013156718A (en) | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | Person tracking attribute estimation device, person tracking attribute estimation method and program |
JP2017006577A (en) | 2015-06-26 | 2017-01-12 | 株式会社アナリティックウェア | Composite object and method for manufacturing composite object |
JP2017207365A (en) | 2016-05-18 | 2017-11-24 | 株式会社デンソーアイティーラボラトリ | Computation processing device, computation processing method, and program |
Non-Patent Citations (1)
Title |
---|
小倉且也 山田遊馬 梶田宗吾 山口弘純 東野輝夫 高井峰生,複数の立体物で構成された三次元点群の切り分け手法の検討,マルチメディア,分散,協調とモバイル(DICOMO2018)シンポジウム論文集 情報処理学会シンポジウムシリーズ[CD-ROM],日本,一般社団法人情報処理学会,2018年06月27日,第2018巻 第1号,Pages: 236-246,ISSN: 1882-0840 |
Also Published As
Publication number | Publication date |
---|---|
JP2019219248A (en) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11010965B2 (en) | Virtual object placement for augmented reality | |
US10268917B2 (en) | Pre-segment point cloud data to run real-time shape extraction faster | |
JP5592011B2 (en) | Multi-scale 3D orientation | |
JP6203406B2 (en) | System and method for determining plane spread in an augmented reality environment | |
US9940720B2 (en) | Camera and sensor augmented reality techniques | |
JP6359868B2 (en) | 3D data display device, 3D data display method, and 3D data display program | |
US9262950B2 (en) | Augmented reality extrapolation techniques | |
US20200068188A1 (en) | Generating apparatus, generating method, and storage medium | |
US20140168215A1 (en) | Stereo Correspondence Model Fitting | |
US11490062B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2019526956A (en) | Digital camera with audio, visual and motion analysis | |
CN111882632B (en) | Surface detail rendering method, device, equipment and storage medium | |
CN105913481B (en) | Shadow rendering apparatus and control method thereof | |
US20230169686A1 (en) | Joint Environmental Reconstruction and Camera Calibration | |
JP7107015B2 (en) | Point cloud processing device, point cloud processing method and program | |
US11816854B2 (en) | Image processing apparatus and image processing method | |
TWI671543B (en) | Heavy rain forecasting method, heavy rain forecasting device, system suitable for rain forecasting device, and rain forecasting program | |
CN110286906B (en) | User interface display method and device, storage medium and mobile terminal | |
JP7519462B2 (en) | Method, apparatus and program for generating floorplans | |
JP2020509505A (en) | Method, apparatus and computer program for providing augmented reality | |
US20240093992A1 (en) | Building change detection device, building change detection system, and building change detection method | |
US11328477B2 (en) | Image processing apparatus, image processing method and storage medium | |
JP2023110212A (en) | Point cloud processing apparatus, point cloud processing method, and program | |
CN116824105A (en) | Display adjustment method, device and equipment for building information model and storage medium | |
JP5811721B2 (en) | Design support apparatus, design support method, and design support program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7107015 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |