JP6069489B2 - Object recognition apparatus, object recognition method, and program - Google Patents
Object recognition apparatus, object recognition method, and program Download PDFInfo
- Publication number
- JP6069489B2 JP6069489B2 JP2015507899A JP2015507899A JP6069489B2 JP 6069489 B2 JP6069489 B2 JP 6069489B2 JP 2015507899 A JP2015507899 A JP 2015507899A JP 2015507899 A JP2015507899 A JP 2015507899A JP 6069489 B2 JP6069489 B2 JP 6069489B2
- Authority
- JP
- Japan
- Prior art keywords
- shape
- point group
- unit
- point
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000005259 measurement Methods 0.000 claims description 163
- 238000006243 chemical reaction Methods 0.000 claims description 100
- 238000004364 calculation method Methods 0.000 claims description 30
- 238000011156 evaluation Methods 0.000 claims description 26
- 230000009466 transformation Effects 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 17
- 230000010354 integration Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 11
- 238000012545 processing Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 19
- 238000013519 translation Methods 0.000 description 14
- 230000014616 translation Effects 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 7
- 239000000203 mixture Substances 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000011960 computer-aided design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
本発明は、計測された点群のデータから、対象物体に相当する点群を自動で抽出する物体認識装置および物体認識方法に係り、特に、3次元点群のデータから対象物体を認識するのに適した装置および方法並びにプログラムに関するものである。 The present invention relates to an object recognition apparatus and object recognition method for automatically extracting a point cloud corresponding to a target object from measured point cloud data, and in particular, to recognize a target object from three-dimensional point cloud data. The present invention relates to an apparatus and method suitable for the above and a program.
インフラ設備の高経年化に伴い、安全確保や長寿命化のために、インフラ設備の定期メンテナンスを行う必要がある。近年、インフラ設備の保守業務において、損傷、劣化の状態を正確に診断するために、レーザー距離計のような距離センサを利用した3次元計測による所有設備の管理が行われている。得られた3次元形状データをコンピュータ上で確認することができ、より正確に所有設備の形状や姿勢を把握することができる。3次元形状データは、3次元座標が付加された点の集合という形で得られることが多く、一般にこれを3次元点群と呼ぶ。 Along with the aging of infrastructure facilities, it is necessary to perform regular maintenance of infrastructure facilities to ensure safety and extend the service life. In recent years, in the maintenance work of infrastructure equipment, in order to accurately diagnose the state of damage and deterioration, management of owned equipment by three-dimensional measurement using a distance sensor such as a laser distance meter has been performed. The obtained three-dimensional shape data can be confirmed on a computer, and the shape and posture of the owned equipment can be grasped more accurately. The three-dimensional shape data is often obtained in the form of a set of points to which three-dimensional coordinates are added, and this is generally called a three-dimensional point group.
しかし所有設備が広く散在するにつれ、3次元点群を所有設備ごとに目視確認するのは非常に作業量が大きい。3次元点群には所有設備以外の情報も含まれていることが多い。そのため大量の3次元点群の中から、所有する設備に相当する点群を探す必要がある。その結果、作業に要する時間や費用が大きくなるため、3次元点群から効率的に所有設備を確認するシステムが求められている。そのために、3次元点群から効率的に所有設備に相当する点群を認識し、抽出する処理が必要となる。 However, as the owned facilities are widely scattered, it is very large to visually check the 3D point cloud for each owned facility. The three-dimensional point cloud often includes information other than owned equipment. Therefore, it is necessary to search for a point cloud corresponding to the owned equipment from a large number of three-dimensional point clouds. As a result, the time and cost required for the work increase, and there is a need for a system that efficiently confirms owned equipment from a three-dimensional point cloud. Therefore, a process for efficiently recognizing and extracting the point cloud corresponding to the owned equipment from the three-dimensional point cloud is necessary.
このような所有設備の点群を効率的に抽出する方法として特許文献1、2に示すような技術が知られている。
特許文献1では、距離画像より注目点を検出し、その注目点の特徴量を用いて、予め作成され物体のモデルと入力データのマッチングを行う、物体認識方法、物体認識装置、及び自律移動ロボットが開示されている。
特許文献2では、3次元点群に対し、人手で点群を指定することにより、部材ごとに点群を区分し、効率的にCAD(Computer Aided Design)データを作成するCADデータ作成装置及び情報加工方法が開示されている。As a method for efficiently extracting the point cloud of such owned facilities, techniques as shown in
In
In
3次元点群から対象物体に相当する点群を自動抽出するには、計測値の入力である3次元点群(計測点群)と対象物体のモデル点群とのマッチングを行うのが、一般的である。しかし計測点群中には、対象物体以外の点群も多く存在するため、計算時間が大きい、マッチングに失敗する等の問題がある。 In order to automatically extract a point cloud corresponding to a target object from a three-dimensional point cloud, it is common to perform matching between a three-dimensional point cloud (measurement point cloud) that is an input of measurement values and a model point cloud of the target object. Is. However, since there are many point groups other than the target object in the measurement point group, there are problems such as long calculation time and matching failure.
計算時間を削減するために、上記の特許文献1では、計測点群とモデル点群を距離画像に変換し、各画像の注目点を画像処理によって抽出する。そして、その注目点の周辺の画素値を用いて特徴量を算出し、画像間で特徴マッチングを行う。各点群を距離画像として扱い、また注目点とその周辺のみを用いてマッチングを行っているため、計算時間を削減することができるが、対象物体の注目点が非常に少ない場合は、特徴マッチングができないという問題があり、また点群にノイズが含まれる場合などは、間違えて注目点を検出してしまうことが多いため、マッチングに失敗するという問題がある。また距離画像を用いるため、対象物体に対し、複数の視点から取得された距離画像を用いないとオクルージョンに対応できないという問題もある。
In order to reduce the calculation time, in
上記の特許文献2では、人手で点群を指定することにより、計測点群を部材ごとに区分することができる。モデル点群を要しないという利点があるが、部材ごとの点群の指定においては各部材の構成に関する専門知識が必要であり、非常に簡単な形状の物体しか抽出することができないという問題点がある。また人手の作業を要するために、依然として作業量が多いという問題点がある。
In the above-mentioned
本発明の課題は、計測点群の情報から物体を認識する物体認識装置および認識方法において、計算時間を削減でき、かつ、マッチング精度の向上を図ることにある。 An object of the present invention is to reduce calculation time and improve matching accuracy in an object recognition apparatus and a recognition method for recognizing an object from measurement point cloud information.
本発明の代表的なものを示すと、次の通りである。物体認識装置は、点の集合である点群の情報を記憶する点群記憶部と、前記点群情報に関する情報の入出力を行うための入出力部と、前記点群の形状属性を推定する形状認識部と、前記点群情報における対象物体の存在を認識する物体認識部とを備え、前記点群情報は、計測値の入力である計測点群の情報と、認識すべき対象物体に対応するモデル点群の情報とを含んでおり、前記形状認識部は、前記計測点群及び前記モデル点群の各点について、該各点に対する近傍点の相対的な座標情報より決定される形状属性を推定し、前記物体認識部は、同一の前記形状属性を持つ前記計測点群と前記モデル点群の前記各形状属性のマッチング処理を行い、前記形状属性の一致度に基づき、前記計測点群中における前記モデル点群の存在情報を取得することを特徴とする。 The representative ones of the present invention are as follows. The object recognition device estimates a point cloud storage unit that stores information on a point cloud that is a set of points, an input / output unit that inputs and outputs information related to the point cloud information, and a shape attribute of the point cloud A shape recognizing unit and an object recognizing unit for recognizing the presence of the target object in the point cloud information, and the point cloud information corresponds to measurement point cloud information that is an input of measurement values and a target object to be recognized The shape recognition unit is configured to determine, for each point in the measurement point group and the model point group, a shape attribute determined from relative coordinate information of neighboring points with respect to each point. The object recognition unit performs matching processing of the shape attributes of the measurement point group having the same shape attribute and the model point group, and based on the degree of coincidence of the shape attributes, the measurement point group The existence information of the model point cloud in It is characterized in.
本発明では、同一の形状属性を持つ点群同士のみでマッチングを行うことを特徴とする。そのためモデルマッチングの際の最近傍点探索の候補を少なくすることができ、計算時間を削減できる。また基本形状属性が異なる点群同士ではマッチングを行わないため、マッチング精度の向上が実現できる。 The present invention is characterized in that matching is performed only between point groups having the same shape attribute. Therefore, the number of nearest neighbor search candidates for model matching can be reduced, and calculation time can be reduced. In addition, since matching is not performed between point groups having different basic shape attributes, matching accuracy can be improved.
本発明は、計測点群すなわち2次元点群や3次元点群から、ユーザにより指定された認識すべき対象物体に相当する認識点群を自動的に認識して抽出する物体認識装置や物体認識方法に関するものである。
本発明の概要を以下に述べる。本発明の物体認識装置は、計測点群とモデル点群を記憶する計測点群記憶部と、これらの各点群を局所領域点群に分割し、形状特徴量を計算することにより基本形状属性を付加する形状認識部と、基本形状属性別に点群を記憶する形状別点群記憶部と、基本形状属性ごとに分類された点群から座標変換量を算出し、基本形状属性別の座標変換量を統合した後に、対象物体の点群を計測点群から抽出する物体認識部と、抽出された点群をユーザインターフェースに出力する認識点群出力部と、を備える。The present invention provides an object recognition apparatus and object recognition that automatically recognize and extract a recognition point group corresponding to a target object to be recognized designated by a user from a measurement point group, that is, a two-dimensional point group or a three-dimensional point group. It is about the method.
The outline of the present invention will be described below. The object recognition apparatus according to the present invention includes a measurement point cloud storage unit that stores measurement point clouds and model point clouds, a basic shape attribute by dividing each point cloud into local region point clouds, and calculating shape feature values. A shape recognition unit that adds a point, a point cloud storage unit that stores points for each basic shape attribute, and a coordinate conversion amount based on the point group classified for each basic shape attribute. After integrating the quantities, an object recognition unit that extracts the point cloud of the target object from the measurement point cloud and a recognition point cloud output unit that outputs the extracted point cloud to the user interface are provided.
以下では、3次元点群を例に挙げて説明する。まず、入力である3次元点群(計測点群)と対象物体のモデル点群の各点に対し、基本形状属性を付加する。そして計測点群とモデル点群の中で一致する基本形状属性を持つ点群同士のマッチングにより、基本形状属性別に座標変換量を得る。最後に得られた座標変換量を統合することにより、計測点群中のモデル点群の存在情報を取得する。ここでいう点群の形状属性とは、点とその点の近傍に存在する点群の座標値等の相対的な関係から決定される属性情報のことを指す。例えば平面、曲面、線等のような属性を形状属性と定義してもよい。また点群の座標値だけでなく、その他の属性として点の色情報やアルファ値等の情報を用いて形状属性を定義してもよい。例えば、赤い平面、青い平面といった属性を形状属性として定義してもよい。また存在情報とは、計測点群中でモデル点群がどのような姿勢で存在しているかという情報でもよいし、または計測点群中でモデル点群に対応する点群でもよい。
以下、本発明の実施例を、図面を参照して詳細に説明する。Hereinafter, description will be made by taking a three-dimensional point group as an example. First, a basic shape attribute is added to each point of the input three-dimensional point group (measurement point group) and the model point group of the target object. A coordinate conversion amount is obtained for each basic shape attribute by matching point groups having the same basic shape attribute in the measurement point group and the model point group. The presence information of the model point cloud in the measurement point cloud is acquired by integrating the obtained coordinate transformation amounts. The shape attribute of a point group here refers to attribute information determined from a relative relationship such as a coordinate value of a point and a point group existing in the vicinity of the point. For example, an attribute such as a plane, a curved surface, or a line may be defined as a shape attribute. In addition to the coordinate values of the point group, the shape attribute may be defined using information such as point color information and alpha value as other attributes. For example, attributes such as a red plane and a blue plane may be defined as shape attributes. In addition, the presence information may be information on the posture of the model point group in the measurement point group, or may be a point group corresponding to the model point group in the measurement point group.
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本発明の実施例1を、図1A乃至図13Cを参照しながら説明する。
図1Aは、本実施例の物体認識装置の基本構成を表すブロック図である。物体認識装置10は、計測点群入力部100と、計測点群記憶部101と、形状認識部102と、モデル点群データベース(DB)103と、形状別点群記憶部104と、物体認識部105と、認識点群出力部106と、入出力IF部107と、モデル選択部108とを備えている。入出力IF部107は、ユーザインターフェースとしての表示部1070を有する。
図1Bは、物体認識装置10に入力される計測点群30と、物体認識装置10から出力される認識点群50の一例を示す図である。物体認識装置10は、図1Bに示したような計測点群30を受け取った後、物体認識処理を行って、認識点群50を提供する。この例では、計測点群30の中の電柱が認識点群50として出力されている。A first embodiment of the present invention will be described with reference to FIGS. 1A to 13C.
FIG. 1A is a block diagram showing the basic configuration of the object recognition apparatus of the present embodiment. The
FIG. 1B is a diagram illustrating an example of a
なお、本実施例では、物体認識装置10を単一の装置として示しているが、この物体認識装置と同じ機能を、1つ若しくは複数のサーバと端末とがネットワークを介して相互に接続された物体認識システムによって実現しても良い。本発明の物体認識装置は、このような物体認識システムも含むものとする。
In the present embodiment, the
計測点群入力部100は、ユーザによって入出力IF部7から入力された計測点群30を受け取り、計測点群記憶部101に前記データを格納する。計測点群記憶部101は、計測点群情報1011を備える。具体的には、計測点群入力部100より受け取った計測点群30のデータを記憶する。データ構造については後述する。
The measurement point
形状認識部102は、計測点群記憶部101から計測点群情報1011を、モデル選択部108から認識すべき対象物体のモデルに関する情報を、モデル点群DB103から対象物体のモデルに対応するモデル点群の情報を、各々受け取り、計測点群情報1011に対して得られる形状別点群情報である計測点群情報1041と、モデル点群に対して得られる形状別点群情報であるモデル点群情報1042とを生成し、形状別点群記憶部104に提供する。形状別点群記憶部104に格納されるこれらのデータのデータ構造については後述する。物体認識部105は、形状別点群記憶部104から、計測点群情報1041と、モデル点群情報1042と、を受け取り、計測点群30から認識すべき対象物体に対応する計測点群50を抽出して認識点群出力部106へ提供する。
The
なお、認識すべき対象物体のモデルは、ユーザが入出力IF部107からモデル選択部108に所定の情報を入力して指定する。あるいはまた、物体認識装置が特定の対象物体のモデルのみを抽出するように予め設定しておいても良い。後者の場合、物体認識装置は入力された計測点群の中から特定の物体、例えば車のみ、を認識する機能を有する。
Note that the model of the target object to be recognized is designated by the user by inputting predetermined information from the input / output IF
前記機能を実現するために、形状認識部102は、局所領域分割部1021と、形状特徴量算出部1022と、基本形状特徴DB1023と、形状分類部1024と、局所領域点群記憶部1025と、を備える。局所領域点群記憶部1025は、計測点群情報10251とモデル点群情報10252とを備える。上記各部が実行する処理、各部間で転送されるデータ、各部内に格納されるデータについては後述する。
In order to realize the function, the
モデル点群DB103は、複数の対象物体のモデル点群の情報を格納し、ユーザによって指定された認識すべき対象物体のモデル点群を形状認識部102に提供する。前記モデル点群DB103に格納されるデータのデータ構造については後述する。
The model
形状別点群記憶部104は、計測点群情報1041と、モデル点群情報1042と、を備える。具体的には形状認識部102より、計測点群情報1011を形状別に分割したデータと、モデル点群を形状別に分割したデータを受け取り、計測点群情報1041、モデル点群情報1042として格納する。そして計測点群情報1041と、モデル点群情報1042を物体認識部へ提供する。前記形状別点群記憶部104に格納されるデータのデータ構造については後述する。
The shape-specific point
物体認識部105は、前記機能を実現するために、座標変換量算出部1051と、形状統合部1052と、認識点群抽出部1053と、形状別座標変換情報記憶部1054と、を備える。形状別座標変換情報記憶部1054は、各形状ごとに算出された座標変換量である座標変換情報10541を備える。上記各部が実行する処理、各部間で転送されるデータ、各部内で格納される格納されるデータについては後述する。
The
認識点群出力部106は、物体認識部105より計測点群50を受け取り、入出力IF部107を介してユーザに前記計測点群50を表示する機能を持つ。計測点群50を表示する際、計測点群30の中で、ユーザによって指定された認識すべき対象物体として抽出された点群のみを表示してもよいし、対象物体として抽出された点群とそれ以外の点群のそれぞれの色を変更して表示してもよい。
The recognition point
図2Aは、物体認識装置10のハードウェア構成である。物体認識装置10は、操作部1101、表示部1102と、プロセッサ1103と、メインメモリ1104と、記憶装置1105と、を備える計算機である。
プロセッサ1103は、メインメモリ1104に格納されたプログラムを実行する。
メインメモリ1104は、例えば半導体メモリであり、プロセッサ1103によって実行されるプログラム及びプロセッサ1103によって参照されるデータを格納する。具体的には、記憶装置1105に格納されたプログラム及びデータの少なくとも一部が、必要に応じてメインメモリ1104にコピーされる。FIG. 2A is a hardware configuration of the
The
The
プロセッサ1103は、各機能部のプログラムに従って動作することによって、所定の機能を実現する機能部として動作する。例えば、物体認識プログラムに従って動作することで、プロセッサ1103は物体認識部105として機能する。他のプログラムについても同様である。物体認識装置10は、これらの機能部を含む装置である。
The
操作部1101は、ユーザからの入力操作を受ける。操作部は、例えばキーボードまたはマウス等を含んでもよい。
The
表示部1102は、図1Aの物体認識装置の表示部1070に相当するものであり、ユーザへ情報を出力する。表示部1102は、例えば液晶ディスプレイのような画像表示装置であってもよい。
The
記憶装置1105は、例えばハードディスク装置(HDD)又はフラッシュメモリのような不揮発性の記憶装置である。本実施例の記憶装置1105は、少なくとも形状認識部102、物体認識部105が格納される。なお、各DBや記憶部も、記憶装置1105に格納されてもよい。
The
また物体認識装置10の各機能を実現するプログラム、DB等の情報は、記憶装置1105や不揮発性半導体メモリ、ハードディスク装置、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
Information such as programs and DBs for realizing each function of the
図2Bで、本発明における、点及び点群について、簡単に説明する。
1つの画像は、例えば約800万、あるいは約8000万の画素(点、ピクセル)で構成されている。これら各画素をここでは、点p1(x1,y1,z1),p2(x2,y2,z2),−,pi(xi,yi,zi),〜として表す。点の集合が点群である。本発明においては、各点piに対し、基本形状属性を付加する。なお、ある点piに対して所定の範囲を、点の近傍と定義する。例えば、三次元データの場合、点piから半径10cmの球面内を、点の近傍とする。二次元データの場合は、例えば、点piから所定の半径の円内を、点の近傍とする。点群の形状属性とは、点とその点の近傍に存在する点群の座標値等の相対的な関係から決定される属性情報のことを指す。例えば平面、曲面、線等のような属性を形状属性と定義してもよい。また点群の座標値だけでなく、その他の属性として、点の色情報やアルファ値等の情報を用いて形状属性を定義してもよい。なお、本発明における形状属性の分類は、平面、曲面、線、その他の4つの分類に限定されるものではない。With reference to FIG. 2B, points and point groups in the present invention will be briefly described.
One image is composed of, for example, about 8 million or about 80 million pixels (points, pixels). These pixels are represented here as points p1 (x1, y1, z1), p2 (x2, y2, z2),-, pi (xi, yi, zi),. A set of points is a point cloud. In the present invention, a basic shape attribute is added to each point pi. A predetermined range for a certain point pi is defined as the vicinity of the point. For example, in the case of three-dimensional data, a spherical surface having a radius of 10 cm from the point pi is set as the vicinity of the point. In the case of two-dimensional data, for example, a circle with a predetermined radius from the point pi is set as the vicinity of the point. The point group shape attribute refers to attribute information determined from a relative relationship such as a point and a coordinate value of the point group existing in the vicinity of the point. For example, an attribute such as a plane, a curved surface, or a line may be defined as a shape attribute. In addition to the coordinate values of the point group, shape attributes may be defined using information such as point color information and alpha values as other attributes. Note that the classification of shape attributes in the present invention is not limited to the four classifications such as plane, curved surface, line, and the like.
また、点の局所領域とは、ある点に空間的に連続する十分に小さいと見なせる領域のことを指し、局所領域内に含まれる点群を局所領域点群と呼ぶ。例えば、各軸の座標値を量子化することによって生成したボクセルを局所領域としても良いし、計測点群に対し、再帰的に空間分割を行っていき、数回行った後に止めて、得られた領域を局所領域としても良い。 A local region of points refers to a region that can be considered to be sufficiently small and spatially continuous to a certain point, and a point group included in the local region is referred to as a local region point group. For example, a voxel generated by quantizing the coordinate value of each axis may be used as a local region, or it may be obtained by recursively dividing a measurement point group and performing it several times and then stopping it. The region may be a local region.
図3は、形状認識部102で行われる処理を説明したブロック図である。以下、形状認識部102で行われる処理(ステップ21〜ステップ24)について説明する。
FIG. 3 is a block diagram illustrating processing performed by the
ステップ21では、形状認識部102が、計測点群情報1011、もしくはモデル点群DB103から対象物体のモデル点群や計測点群を受信した後、まず局所領域分割部1021によって受信したこれらの点群を局所領域ごとの点群に分割し、形状特徴量算出部1022へ提供する。すなわち、局所領域分割部1021では、三次元データに関して、点群情報を容積が一定値以下となる空間的に連続する局所領域ごとに分割する。二次元の点群データに関しては、点群情報を面積が一定値以下となる面内で連続する局所領域ごとに分割する。このステップ21についての詳細な処理については、後述する。
In step 21, after the
ステップ22では、形状特徴量算出部1022は、分割された局所領域の点群を受信した後、各局所領域内の点群に関し、特徴量を算出し、局所領域点群記憶部1025へ格納する。前記ステップ22で算出される特徴量とは、複数の点の座標値、色情報、もしくはその両方より演算されるスカラー量、もしくはベクトル量である。例えば、複数の3次元座標に対し主成分分析を適用することによって得られる分散共分散行列でも良いし、Spin Image等の特徴量を用いてもよい。
In
ステップ23では、形状分類部1024は、基本形状特徴DB1023から提供された基本形状特徴量を用いることにより、局所領域点群記憶部1025に格納された各局所領域の点群を、形状ごとに分類する。前記ステップ23で行われる形状分類は、基本形状特徴DB1023から提供された基本形状特徴量を学習データとし、局所領域点群記憶部1025から提供された局所領域点群の特徴量を分類する教師付き分類である。例えば、SVM(Support Vector Machine)やGMM(Gaussian Mixture Model)などのアルゴリズムを適用することにより、前記の教師付き分類を実現することができる。なおこの教師付き分類を行う際、前記のSVMやGMM等では、学習データの存在する形状属性ごとにしか分類することができないが、One class SVMを用いたり、GMMにおける正規分布の信頼区間の判定を用いることにより、学習データの存在しないその他クラスに分類することができる。
In step 23, the
なお形状ごとの分類を行う際に、各形状に関して同時に分類する必要はなく、分類しやすい形状から分類していってもよい。この場合、形状Aか形状A以外かに分類し、形状A以外の局所領域点群を形状Bか形状B以外に分類し、ということを繰り返して分類する。例えば、形状属性が、線、平面、曲面、その他という属性だった際、線→平面→曲面→その他の順に形状分類してもよい。また形状別に分類を行う際に、誤分類が生じることも多々ある。例えば、形状Aに分類された点群を見た時に、本来ならば形状Aに分類されるべき点が存在していなかったり(false negative)、形状B等の他の形状の点が存在する場合(false positive)がある。このfalse negativeとfalse positiveの割合は最終的なマッチング精度に影響を及ぼすこともある。例えば分類を行う際に、分類器に閾値処理を入れて、false negativeとfalse positiveの割合を調整できるようにしてもよい。 When performing classification for each shape, it is not necessary to classify each shape at the same time, and the shapes may be classified from shapes that are easy to classify. In this case, it is classified into shape A or other than shape A, and local region point groups other than shape A are classified into shapes B or other than shape B, and the classification is repeated. For example, when the shape attribute is an attribute such as line, plane, curved surface, or the like, the shape may be classified in the order of line → plane → curved surface → other. In addition, misclassification often occurs when performing classification by shape. For example, when a point group classified as shape A is viewed, there are no points that should be classified as shape A (false negative), or there are points of other shapes such as shape B. (False positive). The ratio of false negative and false positive may affect the final matching accuracy. For example, when performing classification, a threshold process may be added to the classifier so that the ratio between false negative and false positive can be adjusted.
ステップ24では、形状分類部1024は、分類された対象物体の点群を形状ごとに統合し、形状別点群を作成し、形状別点群記憶部104へ格納する。
In
図4は、局所領域分割部1021にて行われる処理(ステップ21)の例である。局所領域分割部1021では、計測点群30から、局所領域31の領域内に含まれる局所領域点群32を抽出する。但し、得られた局所領域点群は一定数以上の点を含む必要がある。もし局所領域点群32に含まれる点数が一定数未満となる場合、その局所領域点群は無視するか、空間的に隣接するいずれかの局所領域点群に統合する等の処理を行う必要がある。この点群を局所領域ごとに分割する処理を行った後、点群に対して各局所領域のIDを割り当て、局所領域点群記憶部1025に格納する。
FIG. 4 is an example of the process (step 21) performed in the local
図5Aは、モデル点群DB103の説明図である。
モデル点群DB103には、ユーザが管理すべき対象物体のモデル点群の情報81、82が格納されている。3次元点群から対象物体の点群を抽出する際に、ユーザが抽出したい対象物体を前記モデル点群DB103から選択し、その選択された対象物体のモデル点群が形状認識部102に提供される。FIG. 5A is an explanatory diagram of the model
The model
モデル名81は、ユーザが管理している対象物体の名前、例えば電柱1、電柱2、等である。点群82は、モデル名81、例えば電柱1に対応する実際のモデル点群の座標情報である。この際、モデルの各点に対して、座標情報だけでなく、色情報やアルファ値等を含んでいてもよい。
The
図5Bは、計測点群記憶部101の説明図である。
計測点群記憶部101は、ユーザが入力した計測点群30(3次元点群)に関する情報83、84を格納する。格納されている3次元点群の情報は、計測データである3次元点群から対象物体の認識点群を抽出する際に、形状認識部102に提供される。
ID83は、3次元点群を構成する各点のIDである。FIG. 5B is an explanatory diagram of the measurement point
The measurement point
点情報84は、ID83に対応する点の座標情報である。この際、各点に対して、座標情報だけでなく、色情報やアルファ値等を含んでいてもよい。
The
図6は、形状別点群情報記憶部104の説明図である。前記形状別点群情報記憶部104は、形状認識部102により形状ごとに分割された計測点群やモデル点群の情報を格納し、物体認識部105に格納した情報85、86を提供する。なお図6では、一つのテーブルのみ表記しているが、実際には計測点群用とモデル点群用の二つのテーブルを設計する必要がある。
形状ID85は、形状認識部102が点群を形状ごとに分類する際の、各形状属性に関するIDである。点群86は、点群内で、形状認識部102が対応する形状ID85の属性が割り当てられた点群の座標情報である。座標情報だけでなく、色情報やアルファ値等を含んでいてもよい。FIG. 6 is an explanatory diagram of the shape-specific point group
The
図7は、基本形状特徴DB1023の説明図である。基本形状特徴DB1023は、形状分類部1024に各形状の特徴量を提供することにより、形状分類部1024は局所領域点群を形状ごとに分類することができるようになる。基本形状特徴DB1023は、形状情報87〜89を格納する。形状ID87は、形状認識部102が点群を形状ごとに分類する際の、各形状属性に関するIDである。形状属性88は、対応する形状ID87の属性名である。特徴量89は、各形状属性を持つ点群情報を演算することによって得られる特徴量の集合である。例えば、点群が持つ座標情報や色情報、アルファ値等、あるいはそれらの組み合わせた値に対し、主成分分析を適用した際の分散共分散行列でも良いし、Spin Image等の特徴量でも良い。但し、特徴量89は、形状特徴量算出部1022にて算出される特徴量と同一種類の特徴量である必要がある。
FIG. 7 is an explanatory diagram of the basic
図8は、局所領域点群記憶部1025の説明図である。局所領域点群記憶部1025は、局所領域分割部1021によって局所領域ごとに分割された点群と、形状特徴量算出部1022が各局所領域点群に対して算出した特徴量を格納し、形状分類部1024に格納データを提供する。局所領域点群記憶部1025は、局所領域点群に関する情報90〜92を格納する。なお図8では、一つのテーブルのみ記述しているが、局所領域点群は、計測点群とモデル点群の両方について提供されるものなので、実際には二つのテーブルを設計する必要がある。
FIG. 8 is an explanatory diagram of the local area point
局所領域ID90は、分割された局所領域点群ごとに割り当てられるIDである。点群91は、対応する局所領域ID90の点の座標情報の集合である。この際、座標情報だけでなく、色情報、アルファ値等の情報も含んでいてもよい。局所特徴量92は、対応する点群91を形状特徴量算出部1022が処理することによって、提供される特徴量である。例えば、点群が持つ座標情報や色情報、アルファ値等、あるいはそれらの組み合わせた値に対し、主成分分析を適用した際の分散共分散行列でも良いし、Spin Image等の特徴量でも良い。
The
図9は、形状認識部102と物体認識部105で行われる処理の説明図である。
形状認識部102では、計測点群30とモデル点群40を形状ごとに分割する。計測点群30を形状A‘と分類された点群を形状別点群301として出力し、同様に形状B‘〜D‘と分類された点群を形状別点群302、303、304として出力する。またモデル点群40に対しても、形状B、Cとして分類された形状別点群401、402を出力する。なおこの例は、形状A、A‘が平面、形状B、B‘が曲面、形状C、C’が線、形状D、D‘がその他、という形状属性を持つ場合である。また形状別点群301〜304は計測点群30を分割することにより生成されているため、全て同じ座標系によって表現されており、形状別点群401、402もモデル点群40と同じ座標系によって表現されている。FIG. 9 is an explanatory diagram of processing performed by the
The
物体認識部105では、同じ形状の点群同士、例えば形状BとB‘の点群同士、形状CとC’の点群同士、を比較することにより、計測点群から対象物体の点群を抽出する。物体認識部105に備えられている座標変換量算出部1051が、同じ形状の点群同士を比較する処理を行う。
The
図10は、物体認識部105の形状別座標変換量記憶部1054の説明図である。形状別座標変換量記憶部1054には、計測点群の形状別点群とモデル点群の形状別点群を用いることにより座標変換量算出部1051から算出された情報93〜99が格納されている。
FIG. 10 is an explanatory diagram of the coordinate conversion
形状ID93は、形状認識部102が点群を形状ごとに分類した際の、各形状属性に関するIDである。変換量ID94は、各形状ごとに複数候補の座標変換量を算出した際に、形状別にそれぞれの座標変換量に割り当てられるIDである。回転量95は、座標変換量算出部1051によって提供された、対応する形状ID93、変換量ID94の回転行列である。並進量96は、座標変換量算出部1051によって提供された、対応する形状ID93、変換量94の並進ベクトルである。入力点数97は、対応する形状ID93に分類された形状別点群の計測点群情報1041の点数である。モデル点数98は、対応する形状ID93に分類された形状別点群のモデル点群情報1042の点数である。
The
評価値99は、対応する回転量95と並進量96を用いた時の、対応する形状ID93に分類された形状別点群の計測点群情報1041とモデル点群情報1042のマッチングの評価値である。前記評価値は、マッチングの誤差と正の相関を持つパラメータである。例えば、形状ID93に対応するモデル点群情報1042を回転量95と並進量96を用いて座標変換を行い、前記座標変換されたモデル点群情報1042の各点に対し、形状ID93に対応する計測点群情報1041の最近傍点を探索し、前記モデル点群情報1042の各点と前記計測点群情報1041の距離の二乗の総和をとったパラメータを前記評価値99としてもよい。
The
図9に戻って、モデル点群40には形状A、Dとなる点群は存在しないため、物体認識部105では、形状B‘の形状別点群302に関しては形状別点群401の形状Bとのマッチングを行い、形状C’の形状別点群303に関しては形状別点群402の形状Cとのマッチングを行う。例えばICP(Iterative Closest Point)やNDT(Normal Distribution Transform)などのアルゴリズムを適用することにより、マッチングを実現することができる。例えばICPを用いる場合、形状別点群302の座標系における座標値を式(1)、形状別点群401の座標系における座標値を式(2)とすると、式(3)となるような、回転量95であるRRと並進量96であるtRを求めることにより、マッチングを行うことができる。Returning to FIG. 9, since there is no point group having the shapes A and D in the
図11は、物体認識部105で行われる処理のフローを示すブロック図である。以下物体認識部105にて行われる処理(ステップ50〜ステップ58)について詳細に説明する。ステップ50では、認識すべきモデル点群の形状の数(N)を取得し、この数(N)だけ以下に述べる処理を行う。
ステップ51では、形状別点群記憶部104に格納された計測点群とモデル点群の形状別点群を参照し、モデル点群が持つ形状属性の中で、計測点群には存在しない形状属性が存在するかどうかを判定する。上記判定でYesの場合はステップ52に進み、Noの場合はステップ53に進む。換言すると、テップ51では、形状の分類において誤分類が生じているか(判定でYes)、否かを判定するものである。FIG. 11 is a block diagram illustrating a flow of processing performed by the
In
ステップ52では、計測点群には存在しない形状属性を持つ、モデル点群の形状別点群の点数を参照し、その点数が一定の閾値以上かどうかを判定する。上記判定でYesの場合は抽出失敗となり、物体認識部105で行われる処理が終了する。Noの場合はステップ53に進む。ステップ52により、計測点群中に抽出したい対象物体が存在するかどうかを判定することができる。すなわち、点数が一定の閾値以上の場合(判定でYes)には、誤分類の可能性が殆ど無いので、抽出したい対象物体が存在しないと判定される。換言すると、抽出したい対象物体が存在する場合、及び、誤分類が生じている場合には、ステップ53に進む。
In
ステップ53では、座標変換量算出部1051が、計測点群とモデル点群に関する形状別点群を、形状別点群記憶部104より受信した後、形状別に計測点群とモデル点群を比較することにより、形状ごとに複数候補の座標変換量を算出し、形状別座標変換情報記憶部1054に格納する。但し、計測点群の形状別点群の点数が0となり、モデル点群の形状別点群の点数が1以上となるような形状属性が存在する時は、その形状属性の座標変換量は算出せず、今後無視して処理を続けるものとする。
In step 53, the coordinate conversion
ステップ54では、形状統合部1052が、形状別座標変換情報記憶部1054に格納された複数の座標変換量から、形状間で座標変換量の組み合わせを作成する。この際、全通りの組み合わせを作成してもよいし、形状間で座標変換量の差に正の相関を持つパラメータを算出し、前記パラメータが一定の閾値以下となるように、座標変換量の組み合わせを作成してもよい。例えば、並進量96の差の絶対値が一定の閾値以下となる組み合わせを作成してもよいし、前記の条件に加え、回転量95から算出されたオイラー角、もしくはRoll、Pitch、Yawの各角度のそれぞれの差が一定の閾値以下となる組み合わせを作成してもよい。回転量95からRoll、Pitch、Yawの各角度を算出する場合、回転行列Rは例えば、(式4)と表してもよいため、ここからα、β、γに関する連立方程式を立てることができ、これを解くことによってRoll、Pitch、Yawの角度に相当する値を求めることができる。オイラー角に関しても同様である。
In step 54, the
ステップ56では、ステップ54で得られた座標変換量の組み合わせが妥当であるかどうかを、ステップ55で得られた評価値99が閾値以下かどうかで判定する。上記判定でYesの場合はステップ57へ進み、Noの場合は抽出失敗として物体認識部105の処理を終了する。
In
ステップ57では、最終的な座標変換量を決定する。前記ステップ53で評価値99が閾値以下となった座標変換量の各組み合わせに対し、座標変換量を決定する。この座標変換量は対応する座標変換量の組み合わせに対し、一つ決定される値であり、回転量95、並進量96を用いて決定される。回転量95、並進量96に加え、入力点数97、モデル点数98、評価値99等を用いて決定してもよい。例えば、各形状ごとに存在する回転量95の平均値と並進量96の平均値を決定値としてもよいし、モデル点数98が最も多い時の回転量95、並進量96を決定値としてもよい。
In
ステップ58では、計測点群から対象物体に相当すると判定された点群を抽出する。これはステップ57で決定された座標変換量を用いて、モデル点群の座標変換を行い、変換されたモデル点群の各点から一定距離内に存在する計測点群の点を対象物体に相当すると判定してもよい。モデル点群の各点から一定距離内に存在する計測点群の点が存在しない場合は、抽出失敗として判定する。
In step 58, a point group determined to correspond to the target object is extracted from the measurement point group. This is the coordinate transformation of the model point group using the coordinate transformation amount determined in
図12は、前記座標変換量算出部1051にて行われるステップ51の処理の説明図であり、形状Bとして分類された計測点群40の形状別点群と、同じ形状B‘として分類されたモデル点群30の2つの形状別点群302−1、302−2とのマッチングを行う。
FIG. 12 is an explanatory diagram of the processing of
マッチングは例えばICP等によって実現される。その際に、回転量RRや並進量tR等を用いることにより形状別点群40を座標変換し、座標変換された形状別点群40の各点に対し、計測点群30の形状別点群との最近傍距離を求め、その二乗和を評価値99とし、評価値が一定の閾値以下となるような座標変換量を求めることにより、マッチングを実現する。ICP等は初期値依存性の高いアルゴリズムであるため、様々な初期値を与え、複数回ICPを適用してもよい。形状別点群40が形状別点群302−1の位置に収束するような座標変換量と、形状別点群40が形状別点群302−2の位置に収束するような座標変換量を算出することができるが、その際の評価値が一定の閾値以下であるものを形状別座標変換情報記憶部1054に格納する。格納データは、評価値99と座標変換量と計測点群とモデル点群から抽出された形状別点群の点数等である。The matching is realized by, for example, ICP. At that time, the rotation amount R to R and translation amount t shape by
ICP等において、通常は評価値が最小となる場合、モデル点群が実際の対象物体の位置に収束していることが多いが、物体認識部105で前記処理を行う前に、形状認識部102にて行う形状分類処理にて、誤分類が生じてしまう可能性もあるため、点群にノイズや欠損値等が含まれる場合がある。そのため、必ずしも評価値が最小となる座標変換量が最適な結果になるとは限らないため、複数候補の座標変換量を算出する。これにより、マッチングに失敗する可能性が低くなるという効果がある。
In ICP or the like, usually, when the evaluation value is minimum, the model point cloud often converges to the actual target object position. However, before the
図13A〜図13Cは、物体認識装置10の表示部1070を示した画面イメージである。ボタン701は形状分類、ボタン702は形状表示切替、ボタン703は形状統合、ボタン704はモデルマッチング、ボタン705はモデル選択、の各入力操作を行う機能を有する。ユーザがボタン701〜705を選択することにより、各処理を行うことが可能である。この際、ボタンはタッチパネルのようにユーザが画面に触れるだけで選択することができてもよいし、マウスのカーソルやキーボード入力等によってボタンを選択することができてもよい。
13A to 13C are screen images showing the
図13Aの画面1070−1は、ユーザが入力した計測点群30を描画した画面である。ユーザがモデル選択ボタン705を選択することにより、図5Aのデータベースに保持されたモデル点群が表示され、ユーザにより認識すべき形状のモデル点群が選択される。形状分類ボタン701を選択することにより、計測点群とモデル点群に対し、形状認識部102の処理が実行される。形状表示切替ボタン702を選択することにより、形状属性ごとに形状別点群302等を図13Bの画面1070−2のように表示することができる。この表示は形状認識部102の処理が終了している時のみ実行される。モデルマッチングボタン704を選択することにより、物体認識部105の座標変換量算出部1051の処理が実行される。形状統合ボタン703を選択することにより、物体認識部105の形状統合部1052と認識点群抽出部1053の処理が実行され、認識点群出力部106により計測点群から対象物体に相当する点群を抽出した画面1070−3が表示される。但し、前記処理は座標変換量算出部1051の処理が終了している時のみ実行される。
A screen 1070-1 in FIG. 13A is a screen on which the
図13Bの画面1070−2は、形状認識部102によって形状別点群302を生成し、その中でも形状B‘に相当する形状別点群を描画した画面である。テキストボックス711に現在表示している形状B‘が記述されている。形状表示切替ボタン702を選択することにより、表示する形状が変わり、同時にテキストボックス711の内容も変化する。この際、表示点群302は当該形状の点群とそれ以外の点群の色を変化させて表示してもよいし、当該形状の点群のみを表示してもよい。なお座標変換量算出部1051の処理が終わっている場合は、算出された座標変換量を用いて変換されたモデル点群の形状別点群を重畳表示してもよい。各形状属性において複数候補の座標変換量が存在する場合は、それぞれの評価値によって色を変化させて、重畳表示させてもよい。
A screen 1070-2 in FIG. 13B is a screen on which the
図13Cの画面1070−3は、計測点群30からユーザにより指定された対象物体に相当する認識点群50を実際に抽出した画面であり、物体認識部105の処理が終了した後に表示される。
A screen 1070-3 in FIG. 13C is a screen obtained by actually extracting the
なお表示部1102を通して、3次元点群からの対象物体の点群抽出処理に失敗した際に、ユーザがその結果を修正することができてもよい。例えば画面1070−2で計測点群の形状別点群に対し、モデル点群の形状別点群を重畳表示し、モデル点群の形状別点群をマウスのカーソルやキーボード等で選択することにより、形状統合処理に用いる座標変換量を選択することができてもよい。
Note that when the point cloud extraction processing of the target object from the three-dimensional point cloud fails through the
本実施例によれば、計測点群と対象物体のモデル点群の各点に対し、形状属性を付加し、その属性ごとに各点群を分解する。そして一致する形状属性の点群同士をマッチングすることにより、計算時間の削減と、マッチング精度の向上を実現することができる。 According to the present embodiment, a shape attribute is added to each point of the measurement point group and the model point group of the target object, and each point group is decomposed for each attribute. Then, by matching point groups having matching shape attributes, it is possible to reduce calculation time and improve matching accuracy.
以下、本発明の第2の実施例について、図14乃至図15を参照しながら説明する。
図14は、本発明の第2の実施例における物体認識装置100の基本構成を表すブロック図である。物体認識装置100は、計測点群入力部107と、計測点群記憶部101と、形状認識部102と、形状別点群記憶部104と、物体認識部105と、認識点群出力部106と、入出力IF部107と、モデル生成部1307とを備えている。計測点群入力部100と、形状別点群記憶部104と、認識点群出力部106と、入出力IF部107は、それぞれ第1の実施例の各部と同一である。具体的には、図3〜図13(A〜C)は第2の実施例でも適用される。以下、第2の実施例について、第1の実施例と異なる点のみ説明する。Hereinafter, a second embodiment of the present invention will be described with reference to FIGS.
FIG. 14 is a block diagram showing the basic configuration of the
第2の実施例において、モデル生成部1307は、対象物体の形を表す方程式等からモデル点群を生成する。物体認識部105はモデル判定部13055を備える。モデル判定部13055は、モデル生成部1307が生成した対象物体のモデル点群が適切かどうかを判定する。例えば、電柱の規格には様々な種類のものがあるため、計測点群から電柱に相当する点群を抽出する場合、各規格の電柱モデル点群を用いる必要がある。どの規格の電柱モデル点群が計測点群に含まれているかは分からないことも多い。各規格の電柱モデル点群を用いた場合、モデル判定部13055は、どの規格の電柱モデル点群が最適かを判断するため、精度が向上するという効果がある。
In the second embodiment, the model generation unit 1307 generates a model point group from an equation representing the shape of the target object. The
第2の実施例において、計測点群記憶部101、モデル生成部1307、形状認識部102、形状認識部102は、先述の通り第1の実施例と同一であるが、モデル点群はモデル生成部1307において方程式等を用いて生成するため、事前に形状情報が判明している場合が多い。例えば、電柱モデルの場合、柱の側面部分は全て曲面となる。そのため、モデル点群に関しては、形状認識部102の処理を行わずに、形状別点群記憶部104にそれらのデータを格納してもよい。
In the second embodiment, the measurement point
計測点群記憶部1301は、計測点群情報13011と、モデル点群情報13012を備える。計測点群記憶部1301は、計測点群入力部1300から計測点群131を、モデル生成部1307からモデル点群を受け取り、格納する。また計測点群131とモデル点群を形状認識部1302に提供する。計測点群情報13011は、第1の実施例の計測点群情報1011と同一である。モデル点群情報13012はモデル点群の情報を格納する。データ構造は第1の実施例と同一である。
The measurement point
物体認識部105は、座標変換量算出部13051と、形状統合部13052と、認識点群抽出部13053と、形状別座標変換13054と、モデル判定部13055と、を備える。座標変換量算出部13051と、形状統合部13052と、認識点群抽出部13053と、形状別座標変換情報記憶部13054は、それぞれ第1の実施例の座標変換量算出部1051と、形状統合部1052と、認識点群抽出部1053と、形状別座標変換情報記憶部1054と同一である。
The
モデル生成部1307は、ユーザより指定された対象物体の形を表す方程式等からモデル点群を生成する。具体的な処理内容については、後述する。 The model generation unit 1307 generates a model point group from an equation representing the shape of the target object designated by the user. Specific processing contents will be described later.
図15は、物体認識部105で行われる処理のブロック図である。以下物体認識部105にて行われる処理(ステップ141〜ステップ148)について説明する。
FIG. 15 is a block diagram of processing performed by the
ステップ141では、モデル生成部1307がユーザより指定された対象物体の形を表す方程式等からモデル点群を生成し、点群情報記憶部1301に格納する。例えば、対象物体が電柱であるため、円柱モデル点群を生成する場合、(式5)の3つの方程式のいずれかを満たす点を、複数個生成することにより、円柱モデル点群を生成することができる。
In step 141, the model generation unit 1307 generates a model point group from an equation representing the shape of the target object designated by the user, and stores it in the point group
ステップ142は、第1の実施例のステップ21〜24と同一である。ステップ142の後、ステップ143に進む。ステップ143は、第1の実施例のステップ51〜53と同一である。ステップ51〜53の過程にて抽出失敗として判定された場合は、ステップ146に進む。それ以外の場合は、ステップ144に進む。ステップ144は、第1の実施例のステップ54〜57と同一である。ステップ54〜57の過程にて抽出失敗として判定された場合は、ステップ146に進む。それ以外の場合は、ステップ145に進む。
Step 142 is the same as steps 21 to 24 in the first embodiment. After
ステップ145では、ステップ144にて算出された座標変換量を用いて評価値を算出し、閾値以上かどうかを判定する。この時算出する評価値は、座標変換量を用いてモデル点群に対し座標変換と行った点群と計測点群の一致度に正の相関を持つ。また前記評価値はモデルパラメータを用いて演算されてもよい。前記判定がYesの時はステップ147へ進み、Noの時はステップ146へ進む。この判定はモデル生成部1307で生成されたモデル点群が適切だったかどうかを判定していることに相当する。
In
ステップ146では、物体認識部105の処理が始まってから、ステップ146の処理を何回行ったかを参照し、ステップ146の処理回数が閾値以上かどうかを判定する。前記判定がYesであれば、抽出失敗として処理を終了し、Noであれば、ステップ146へ進む。
In step 146, reference is made to how many times the processing of step 146 has been performed after the processing of the
ステップ147では、モデル生成部1307でモデル点群を生成する時の方程式等のモデルパラメータを変更する処理を行う。例えばステップ141の説明で記述の方程式を用いる場合であれば、の値を変更すればよい。またどのような値に変更するかはユーザが操作部1101を操作することにより、値を決めてもよい。ステップ147を行った後に、ステップ141へ進む。ステップ148は、第1の実施例のステップ58と同一である。
In
第1の実施例では、ユーザがモデル点群DB103より対象物体のモデルを選択することにより、モデル点群を取得している。そのため、例えば対象物体が電柱である場合を考えると、様々な高さの電柱モデル点群をモデル点群DB103に格納しておく必要がある。これに対し、第2の実施例では、対象物体の形を表す方程式等からモデル点群を生成する。そのため、電柱の形が円錐台であると仮定すると、上底と下底と高さのパラメータを持つだけで、電柱モデル点群を生成することができる。これにより、モデル点群DB103を用意する必要がないという効果がある。
In the first embodiment, the model point cloud is acquired by the user selecting a model of the target object from the model
以下、本発明の第3の実施例について図16乃至図17を参照しながら説明する。
第3の実施例は、形状認識部102以外は全て第1の実施例と同一である。具体的には、図4〜13は第3の実施例でも適用される。なお第2の実施例と第3の実施例を組み合わせてもよい。以下、第3の実施例について、第1の実施例と異なる点のみ説明する。Hereinafter, a third embodiment of the present invention will be described with reference to FIGS.
The third embodiment is the same as the first embodiment except for the
図16は、本発明の第3の実施例における物体認識装置10の基本構成を表すブロック図である。物体認識装置10は、計測点群入力部100と、計測点群記憶部101と、形状認識部102と、モデル点群DB103と、形状別点群記憶部104と、物体認識部105と、認識点群出力部106と、を備える。計測点群入力部100と、計測点群記憶部101と、モデル点群DB103と、形状別点群記憶部104と、物体認識部105と、認識点群出力部106は、それぞれ第1の実施例の各部と同一である。
FIG. 16 is a block diagram showing the basic configuration of the
形状認識部102は、局所領域分割部16021と、形状特徴量算出部16022と、モデル点群分類部16023と、形状分類部16024と、局所領域点群記憶部16025と、を備える。局所領域分割部16021と、形状特徴量算出部16022と、局所領域点群記憶部16025は第1の実施例の各部と同一である。なお形状認識部1602で行われる処理については、後述する。
The
図17は、形状認識部102で行われる処理のブロック図である。以下形状認識部102にて行われる処理(ステップ171〜ステップ175)について説明する。
FIG. 17 is a block diagram of processing performed by the
ステップ171、172は、それぞれ第1の実施例のステップ21、22と同一である。ステップ171の後にステップ172の処理を行い、その後ステップ173へ進む。
ステップ173では、モデル点群分類部16023が、モデル点群から算出された局所領域点群の特徴量に対して、教師なし分類を適用し、形状属性を付加する。教師なし分類は、GMM(Gaussian Mixture Model)やk−means法等を適用することにより、実現できる。この際、形状属性数は、ノンパラメトリックベイズの枠組みや赤池情報量基準等を用いて推定してもよいし、適当な値にしてもよい。ステップ173の処理を行った後、ステップ174へ進む。
In step 173, the model point
ステップ174では、形状分類部16024が、ステップ173にて学習したパラメータを用い、教師付き分類を行う。教師付き分類には、教師なし分類で用いた分類器と同様の分類器を用いてもよいし、新しい分類器を用いてもよい。但しこの時、教師なし分類で得られた形状属性とそれ以外の形状属性にも分類するようにする。例えば、教師なし分類で形状A、B、Cが得られた場合、教師付き分類では、形状A、B、Cとその他という4種類の形状属性に分類する。
In
ステップ175では、形状分類部16024は、分類された点群を形状ごとに統合し、形状別点群を作成し、形状別点群記憶部104へ格納する。
In step 175, the
第1の実施例では、形状分類部1024は、基本形状特徴DB1023の格納データを学習データとして、計測点群とモデル点群の局所領域点群を分類している。これに対し、第3の実施例では、モデル点群の局所領域点群に対し、教師なし分類を行い、その結果を学習データとして、計測点群の局所領域点群を分類する。これにより、基本形状特徴DB1023を備える必要がないという効果がある。
In the first embodiment, the
10 物体認識装置
11 計測点群
12 認識点群
100 計測点群入力部
101 計測点群記憶部
102 形状認識部
1021 局所領域分割部
1022 形状特徴量算出部
1023 基本形状特徴DB
1024 形状分類部
1025 局所領域点群記憶部
103 モデル点群DB
104 形状別点群記憶部
105 物体認識部
1051 座標変換量算出部
1052 形状統合部
1053 認識点群抽出部
1054 形状別座標変換情報記憶部
106 認識点群出力部
107 入出力IF部
108 モデル選択部
1101 操作部
1102 表示部
1103 プロセッサ
1104 メインメモリ
1105 記憶装置
1070 表示部
1307 モデル生成部
13055 モデル判定部
16023 モデル点群分類部。DESCRIPTION OF
1024
104 shape-specific point
Claims (15)
前記計測点群及び前記モデル点群に関する情報の入出力を行うための入出力部と、
前記点群の形状属性を推定する形状認識部と、
前記計測点群及び前記モデル点群を前記形状属性別に記憶する形状別点群記憶部と、
前記点群情報における対象物体の存在を認識する物体認識部とを備え、
前記形状認識部は、
前記各点群を局所領域点群に分割し形状特徴量を計算することにより形状属性を付加する機能と、
前記計測点群及び前記モデル点群の各点について、該各点に対する近傍点の相対的な座標情報より決定される前記形状属性を推定する機能とを有し、
前記物体認識部は、
前記形状属性ごとに分類された計測点群及び前記モデル点群から座標変換量を算出し、前記形状属性別の前記座標変換量を統合した後に、対象物体の点群を前記計測点群から抽出する機能と、
前記計測点群と前記モデル点群の中で一致する前記形状属性を持つ前記各点群同士のマッチング処理により、前記形状属性別に前記座標変換量を算出し、該座標変換量を統合することにより、前記計測点群中における前記認識すべき対象物体に対応する前記モデル点群の存在情報を取得する機能とを有する
ことを特徴とする物体認識装置。 A point cloud storage unit that stores information on a point cloud that is a set of points, information on a measurement point cloud that is an input of a measurement value, and information on a model point cloud corresponding to a target object to be recognized, as point cloud information ; ,
An input / output unit for inputting / outputting information on the measurement point group and the model point group ;
A shape recognition unit for estimating a shape attribute of the point cloud;
A point cloud storage unit by shape for storing the measurement point cloud and the model point cloud by the shape attribute ;
An object recognition unit that recognizes the presence of a target object in the point cloud information,
The shape recognition unit
A function of adding shape attributes by dividing each point group into local region point groups and calculating shape feature amounts;
Wherein for each point of the measurement point group and the model point cloud, possess a function of estimating the shape attributes determined from the relative coordinate information of the neighboring points for each of said points,
The object recognition unit
After calculating the coordinate conversion amount from the measurement point group classified for each shape attribute and the model point group, and integrating the coordinate conversion amount for each shape attribute, extract the point group of the target object from the measurement point group Function to
By calculating the coordinate conversion amount for each shape attribute by the matching process between the point groups having the shape attribute that matches the measurement point group and the model point group, and integrating the coordinate conversion amount An object recognition apparatus comprising: a function of acquiring presence information of the model point group corresponding to the target object to be recognized in the measurement point group.
前記形状認識部は、
前記点群情報を面積若しくは容積が一定値以下となる連続する局所領域ごとに分割する局所領域分割部と、
前記局所領域に存在する前記局所領域点群から、前記近傍点の相対的な座標情報より算出される前記形状特徴量を推定する形状特徴量算出部と、
前記局所領域分割部と前記形状特徴量算出部から取得したデータを格納する局所領域点群記憶部と、
前記形状属性と前記形状特徴量のデータを格納する基本形状特徴データベースと、
前記局所領域点群記憶部と前記基本形状特徴データベースに格納された前記データを用いて前記点群情報の各点ごとの形状属性を推定する形状分類部とを備える
ことを特徴とする物体認識装置。 In claim 1,
The shape recognition unit
A local region dividing unit that divides the point cloud information for each continuous local region whose area or volume is a certain value or less;
From the local region point group present in the local region, the shape feature value calculating section for estimating the shape feature quantity calculated from the relative coordinate information of the neighboring point,
A local region point cloud storage unit for storing data acquired from the local region dividing unit and the shape feature value calculating unit;
A basic shape feature database storing data of the shape attribute and the shape feature amount;
An object recognition apparatus comprising: the local region point cloud storage unit; and a shape classification unit that estimates a shape attribute for each point of the point cloud information using the data stored in the basic shape feature database. .
前記物体認識部は、
同一の形状属性を持つ前記モデル点群から前記計測点群への、1つ以上の形状属性別座標変換量を算出する座標変換量算出部と、
前記形状属性別座標変換量を統合し前記モデル点群から前記計測点群への統合座標変換量を算出する形状統合部と、
前記統合座標変換量を用いて前記計測点群から前記対象物体に相当する認識点群を抽出する認識点群抽出部とを備える
ことを特徴とする物体認識装置。 In claim 1,
The object recognition unit
A coordinate conversion amount calculation unit for calculating one or more shape attribute-specific coordinate conversion amounts from the model point group having the same shape attribute to the measurement point group;
A shape integration unit that integrates the coordinate conversion amount for each shape attribute and calculates an integrated coordinate conversion amount from the model point group to the measurement point group; and
An object recognition apparatus comprising: a recognition point group extraction unit that extracts a recognition point group corresponding to the target object from the measurement point group using the integrated coordinate transformation amount.
前記形状統合部は、
前記形状属性別座標変換量の各組み合わせに対してそれぞれ算出される評価値が最小となる組み合わせを統合し、前記モデル点群から前記計測点群への前記統合座標変換量を算出し、
前記評価値は、
前記形状属性別座標変換量の差に正の相関を持ち、
前記統合座標変換量は、
前記形状属性別座標変換量、形状属性別の計測点群、モデル点群が持つ点の数のうちの少なくとも一つを含むパラメータより算出される
ことを特徴とする物体認識装置。 In claim 3,
The shape integration unit is
The evaluation value calculated respectively for each combination of the shape attribute-coordinate conversion amount is integrated combination which minimizes, calculates the combined coordinate conversion amount to the measurement point cloud from the model point cloud,
The evaluation value is
It has a positive correlation with the difference in coordinate transformation amount by shape attribute,
The integrated coordinate transformation amount is
An object recognition apparatus characterized by being calculated from a parameter including at least one of the coordinate transformation amount by shape attribute, the measurement point group by shape attribute, and the number of points of the model point group.
前記物体認識装置は、
前記形状属性と前記形状特徴量のデータを格納する基本形状特徴データベースと、
前記点群情報を面積若しくは容積が一定値以下となる連続する局所領域ごとに分割する局所領域分割部と、
前記局所領域に存在する前記局所領域点群から、前記近傍点の相対的な座標情報より算出される前記形状特徴量を推定する形状特徴量算出部と、
前記局所領域分割部と前記形状特徴量算出部から取得したデータを格納する局所領域点群記憶部と、
前記認識すべき対象物体のモデル選択に関する情報を受け付けるモデル選択部を備えており、
前記形状認識部は、前記局所領域点群記憶部と前記基本形状特徴データベースに格納された前記データを用いて前記点群情報の各点ごとの形状属性を推定する形状分類部を備え、
前記入出力部は、前記形状分類部、前記形状統合部、前記マッチング処理、前記モデル選択、の何れかの入力操作を行う機能を有する表示部を備えている
ことを特徴とする物体認識装置。 In claim 3,
The object recognition device includes:
A basic shape feature database storing data of the shape attribute and the shape feature amount;
A local region dividing unit that divides the point cloud information for each continuous local region whose area or volume is a certain value or less;
A shape feature amount calculating unit that estimates the shape feature amount calculated from relative coordinate information of the neighboring points from the local region point group existing in the local region ;
A local region point cloud storage unit for storing data acquired from the local region dividing unit and the shape feature value calculating unit;
A model selection unit for receiving information on model selection of the target object to be recognized;
The shape recognition unit includes a shape classification unit that estimates a shape attribute for each point of the point group information using the data stored in the local region point cloud storage unit and the basic shape feature database,
The input / output unit includes a display unit having a function of performing an input operation of any one of the shape classification unit, the shape integration unit, the matching process, and the model selection.
前記物体認識装置は、
前記対象物体の表面形状を表す方程式より前記モデル点群を生成し、前記点群記憶部へ前記モデル点群を格納するモデル生成部を備え、
前記物体認識部は、
前記統合座標変換量を用いて座標変換を行った前記モデル点群と前記計測点群の一致度に正の相関を持つパラメータを算出し、前記モデル点群が最適かどうかを判定するモデル判定部とを備える
ことを特徴とする物体認識装置。 In claim 3,
The object recognition device includes:
Wherein generating the model point cloud from equation representing the surface shape of a target object, comprising a model generation unit for storing the model point cloud to the point group storage unit,
The object recognition unit
A model determination unit that calculates a parameter having a positive correlation with the degree of coincidence between the model point group and the measurement point group that has undergone coordinate conversion using the integrated coordinate conversion amount, and determines whether the model point group is optimal An object recognition apparatus comprising:
前記形状認識部は、
前記点群情報を面積若しくは容積が一定値以下となる連続する局所領域ごとに分割する局所領域分割部と、
前記局所領域に存在する点群から近傍点の相対的な座標情報より算出される形状特徴量を推定する形状特徴量算出部と、
前記局所領域分割部と前記形状特徴量算出部から取得したデータを格納する局所領域点群記憶部と、
前記局所領域点群記憶部に格納された前記モデル点群の局所領域点群を前記形状属性ごとに分類するモデル点群分類部と、
前記モデル点群分類部から取得した前記形状属性と前記モデル点群の形状特徴量を用いて前記計測点群の局所領域点群を前記形状属性ごとに分類する形状分類部とを備える
ことを特徴とする物体認識装置。 In claim 1,
The shape recognition unit
A local region dividing unit that divides the point cloud information for each continuous local region whose area or volume is a certain value or less;
A shape feature amount calculating unit for estimating a shape feature amount calculated from relative coordinate information of neighboring points from a point group existing in the local region;
A local region point cloud storage unit for storing data acquired from the local region dividing unit and the shape feature value calculating unit;
A model point group classification unit that classifies the local region point group of the model point group stored in the local region point group storage unit for each of the shape attributes;
A shape classifying unit that classifies the local region point group of the measurement point group for each shape attribute using the shape attribute acquired from the model point group classifying unit and the shape feature quantity of the model point group; An object recognition device.
前記形状属性は、平面、線、曲面、その他の4つの属性を含み、
前記形状分類部は、
前記線、前記平面、前記曲面、前記その他の順番に前記形状属性を推定する
ことを特徴とする物体認識装置。 In claim 7 ,
The shape attributes include four attributes such as plane, line, curved surface, and others.
The shape classification unit
The object recognition apparatus characterized by estimating the shape attribute in the order of the line, the plane, the curved surface, and the other.
前記形状認識部は、
前記点群情報を容積が一定値以下となる空間的に連続する局所領域ごとに分割する局所領域分割部と、
前記局所領域に存在する前記点群から近傍点の相対的な座標情報より算出される形状特徴量を推定する形状特徴量算出部と、
前記局所領域分割部と前記形状特徴量算出部から取得したデータを格納する局所領域点群記憶部と、
前記形状属性と形状特徴量のデータを格納する基本形状特徴データベースと、
前記局所領域点群記憶部と基本形状特徴データベースに格納されたデータを用い前記点群情報の各点ごとの前記形状属性を推定する形状分類部とを備え、
前記物体認識部は、
同一の形状属性を持つ前記モデル点群から前記計測点群への、1つ以上の形状属性別座標変換量を算出する座標変換量算出部と、
前記形状属性別座標変換量を統合し前記モデル点群から前記計測点群への統合座標変換量を算出する形状統合部と、
前記統合座標変換量を用いて前記計測点群から前記対象物体に相当する認識点群を抽出する認識点群抽出部とを備える
ことを特徴とする物体認識装置。 In claim 1,
The shape recognition unit
A local region dividing unit that divides the point cloud information into spatially continuous local regions whose volume is a certain value or less;
A shape feature amount calculating unit that estimates a shape feature amount calculated from relative coordinate information of neighboring points from the point group existing in the local region;
A local region point cloud storage unit for storing data acquired from the local region dividing unit and the shape feature value calculating unit;
A basic shape feature database storing data of the shape attribute and shape feature amount;
And a shape classification part for estimating the shape attributes of each point of the point group information using the data stored in the local region point group storage unit and the basic shape feature database,
The object recognition unit
A coordinate conversion amount calculation unit for calculating one or more shape attribute-specific coordinate conversion amounts from the model point group having the same shape attribute to the measurement point group;
A shape integration unit that integrates the coordinate conversion amount for each shape attribute and calculates an integrated coordinate conversion amount from the model point group to the measurement point group; and
An object recognition apparatus comprising: a recognition point group extraction unit that extracts a recognition point group corresponding to the target object from the measurement point group using the integrated coordinate transformation amount.
前記形状統合部は、
前記形状属性別座標変換量の各組み合わせに対してそれぞれ算出される評価値が最小となる組み合わせを統合し、前記モデル点群から前記計測点群への前記統合座標変換量を算出し、
前記評価値は、
前記形状属性別座標変換量の差に正の相関を持ち、
前記統合座標変換量は、
前記形状属性別座標変換量、形状属性別の前記計測点群、前記モデル点群が持つ点の数のうちの少なくとも一つを含むパラメータより算出されること
を特徴とする物体認識装置。 In claim 9,
The shape integration unit is
The evaluation value calculated respectively for each combination of the shape attribute-coordinate conversion amount is integrated combination which minimizes, calculates the combined coordinate conversion amount to the measurement point cloud from the model point cloud,
The evaluation value is
It has a positive correlation with the difference in coordinate transformation amount by shape attribute,
The integrated coordinate transformation amount is
An object recognition apparatus characterized by being calculated from a parameter including at least one of the coordinate conversion amount by shape attribute, the measurement point group by shape attribute, and the number of points of the model point group.
前記物体認識部は、
同一の形状属性を持つ前記モデル点群から前記計測点群への、1つ以上の形状属性別座標変換量を算出する座標変換量算出部と、
前記形状属性別座標変換量を統合し前記モデル点群から前記計測点群への統合座標変換量を算出する形状統合部と、
前記統合座標変換量を用いて前記計測点群から前記対象物体に相当する認識点群を抽出する認識点群抽出部とを備え、
前記形状認識部は、
前記点群情報を容積が一定値以下となる空間的に連続する局所領域ごとに分割する局所領域分割部と、
前記局所領域に存在する点群から近傍点の相対的な座標情報より算出される形状特徴量を推定する形状特徴量算出部と、
前記局所領域分割部と前記形状特徴量算出部から取得したデータを格納する局所領域点群記憶部と、
前記局所領域点群記憶部に格納された前記モデル点群の局所領域点群を前記形状属性ごとに分類するモデル点群分類部と、
前記モデル点群分類部から取得した前記形状属性と前記モデル点群の形状特徴量を用いて前記計測点群の局所領域点群を前記形状属性ごとに分類する形状分類部とを備える
ことを特徴とする物体認識装置。 In claim 1,
The object recognition unit
A coordinate conversion amount calculation unit for calculating one or more shape attribute-specific coordinate conversion amounts from the model point group having the same shape attribute to the measurement point group;
A shape integration unit that integrates the coordinate conversion amount for each shape attribute and calculates an integrated coordinate conversion amount from the model point group to the measurement point group; and
A recognition point cloud extraction unit that extracts a recognition point cloud corresponding to the target object from the measurement point cloud using the integrated coordinate transformation amount;
The shape recognition unit
A local region division unit that divides each local region of the point group information volume spatially consecutive equal to or less than a predetermined value,
A shape feature amount calculating unit for estimating a shape feature amount calculated from relative coordinate information of neighboring points from a point group existing in the local region;
A local region point cloud storage unit for storing data acquired from the local region dividing unit and the shape feature value calculating unit;
A model point group classification unit that classifies the local region point group of the model point group stored in the local region point group storage unit for each of the shape attributes;
A shape classifying unit that classifies the local region point group of the measurement point group for each shape attribute using the shape attribute acquired from the model point group classifying unit and the shape feature quantity of the model point group; An object recognition device.
点の集合である点群の情報を、計測値の入力である計測点群の情報と、認識すべき対象物体に対応するモデル点群の情報とを点群情報として記憶する点群記憶部点の集合である点群の情報を点群情報として記憶する点群記憶手段、
前記計測点群及び前記モデル点群に関する情報の入出力を行うための入出力手段、
前記点群の形状属性を推定する形状認識手段、
前記計測点群及び前記モデル点群を前記形状属性別に記憶する形状別点群記憶手段、及び、
前記点群情報における対象物体の存在を認識する物体認識手段として機能させ、
前記点群の形状属性は、前記点の各々と該各点の近傍に存在する前記点群の座標値等の相対的な関係から決定される属性情報であり、
前記形状認識手段は、
前記各点群を局所領域点群に分割し形状特徴量を計算することにより前記形状属性を付加し、前記計測点群及び前記モデル点群の各点について、該各点に対する近傍点の相対的な座標情報より決定される前記形状属性を推定し、
前記物体認識手段は、
前記形状属性ごとに分類された計測点群及び前記モデル点群から座標変換量を算出し、前記形状属性別の前記座標変換量を統合した後に、対象物体の点群を前記計測点群から抽出し、前記計測点群と前記モデル点群の中で一致する前記形状属性を持つ前記各点群同士のマッチング処理により、前記形状属性別に前記座標変換量を算出し、該座標変換量を統合することにより、前記計測点群中における前記認識すべき対象物体に対応する前記モデル点群の存在情報を取得する
ことを特徴とする物体認識プログラム。 Computer to recognize objects,
Point cloud storage point that stores point cloud information, which is a set of points, as point cloud information, measurement point cloud information that is input of measurement values, and model point cloud information corresponding to the target object to be recognized Point cloud storage means for storing point cloud information as a set of point cloud information ,
Input / output means for inputting / outputting information on the measurement point group and the model point group ;
Shape recognition means for estimating the shape attribute of the point cloud;
Shape point cloud storage means for storing the measurement point cloud and the model point cloud for each shape attribute, and
Function as object recognition means for recognizing the presence of the target object in the point cloud information ,
The shape attribute of the point group is attribute information determined from a relative relationship such as a coordinate value of the point group existing in the vicinity of each point and the point,
The shape recognition means includes
The shape attribute is added by dividing each point group into local region point groups and calculating shape feature quantities, and for each point of the measurement point group and the model point group, relative points of neighboring points with respect to the respective points the shape attribute estimating determined from such coordinate information,
The object recognition means includes
After calculating the coordinate conversion amount from the measurement point group classified for each shape attribute and the model point group, and integrating the coordinate conversion amount for each shape attribute, extract the point group of the target object from the measurement point group Then, the coordinate conversion amount is calculated for each shape attribute by the matching process between the point groups having the shape attribute that matches the measurement point group and the model point group , and the coordinate conversion amount is integrated. Thereby , the presence information of the model point group corresponding to the target object to be recognized in the measurement point group is acquired.
前記コンピュータを、
前記点群情報を面積若しくは容積が一定値以下となる連続する局所領域ごとに分割する局所領域分割手段、
前記局所領域に存在する前記点群から、前記近傍点の相対的な座標情報より算出される前記形状特徴量を推定する形状特徴量算出手段、
前記形状属性と前記形状特徴量のデータを格納する基本形状特徴記憶手段、
前記局所領域分割手段と前記形状特徴量算出手段から取得したデータを格納する局所領域点群記憶手段、及び
前記局所領域点群記憶手段と前記基本形状特徴記憶手段に格納された前記データを用いて前記点群情報の各点ごとの形状属性を推定する形状分類手段として機能させる
ことを特徴とする物体認識プログラム。 In claim 12,
The computer,
A local region dividing means for dividing the point cloud information into continuous local regions whose area or volume is a certain value or less,
The local from the point cloud which exists in the region, the shape feature value calculating means for estimating the shape feature quantity calculated from the relative coordinate information of the neighboring point,
Basic shape feature storage means for storing data of the shape attribute and the shape feature amount;
Using local area point cloud storage means for storing data acquired from the local area dividing means and the shape feature quantity calculation means, and using the data stored in the local area point cloud storage means and the basic shape feature storage means An object recognition program that functions as shape classification means for estimating a shape attribute for each point of the point group information.
前記物体認識装置は、
点の集合である点群の情報を、計測値の入力である計測点群の情報と、認識すべき対象物体に対応するモデル点群の情報とを点群情報として記憶する点群記憶部点の集合である点群の情報を点群情報として記憶する点群記憶部と、
前記計測点群及び前記モデル点群に関する情報の入出力を行うための入出力部と、
前記点群の形状属性を推定する形状認識部と、
前記計測点群及び前記モデル点群を前記形状属性別に記憶する形状別点群記憶部と、
前記点群情報における対象物体の存在を認識する物体認識部とを備え、
前記点群の形状属性は、前記点の各々と該各点の近傍に存在する前記点群の座標値等の相対的な関係から決定される属性情報であり、
前記形状認識部において、
前記各点群を局所領域点群に分割し形状特徴量を計算することにより前記形状属性を付加し、前記計測点群及び前記モデル点群の各点について、該各点に対する近傍点の相対的な座標情報より決定される前記形状属性を推定し、
前記物体認識部において、
前記形状属性ごとに分類された計測点群及び前記モデル点群から座標変換量を算出し、前記形状属性別の前記座標変換量を統合した後に、対象物体の点群を前記計測点群から抽出し、前記計測点群と前記モデル点群の中で一致する前記形状属性を持つ前記各点群同士のマッチング処理により、前記形状属性別に前記座標変換量を算出し、該座標変換量を統合することにより、前記計測点群中における前記認識すべき対象物体に対応する前記モデル点群の存在情報を取得する
ことを特徴とする物体認識方法。 An object recognition method by an object recognition device,
The object recognition device includes:
Point cloud storage point that stores point cloud information, which is a set of points, as point cloud information, measurement point cloud information that is input of measurement values, and model point cloud information corresponding to the target object to be recognized A point cloud storage unit that stores point cloud information as a set of point clouds ,
An input / output unit for inputting / outputting information on the measurement point group and the model point group ;
A shape recognition unit for estimating a shape attribute of the point cloud;
A point cloud storage unit by shape for storing the measurement point cloud and the model point cloud by the shape attribute;
Bei example and recognizing object recognition unit of the presence of the object in the point group information,
The shape attribute of the point group is attribute information determined from a relative relationship such as a coordinate value of the point group existing in the vicinity of each of the points and the point,
In the shape recognition unit,
The shape attribute is added by dividing each point group into local region point groups and calculating shape feature quantities, and for each point of the measurement point group and the model point group, relative points of neighboring points with respect to the respective points the shape attribute estimating determined from such coordinate information,
In the object recognition unit,
After calculating the coordinate conversion amount from the measurement point group classified for each shape attribute and the model point group, and integrating the coordinate conversion amount for each shape attribute, extract the point group of the target object from the measurement point group Then, the coordinate conversion amount is calculated for each shape attribute by the matching process between the point groups having the shape attribute that matches the measurement point group and the model point group , and the coordinate conversion amount is integrated. Thus , the existence information of the model point group corresponding to the target object to be recognized in the measurement point group is acquired.
前記物体認識装置は、前記認識すべき対象物体のモデル選択に関する情報を受け付けるモデル選択部を備えており、
前記形状属性は、平面、線、曲面、その他の4つの属性を含み、
前記形状認識部において、
前記点群情報を容積が一定値以下となる空間的に連続する局所領域ごとに分割し、
前記局所領域に存在する前記点群から近傍点の相対的な座標情報より算出される形状特徴量を推定し、
前記局所領域の前記形状属性と前記形状特徴量を用いて前記点群情報の各点ごとの形状属性を推定し、
前記物体認識部において、
同一の前記形状属性を持つ前記モデル点群から前記計測点群への、1つ以上の形状属性別座標変換量を算出し、
前記形状属性別座標変換量を統合し前記モデル点群から前記計測点群への統合座標変換量を算出し、
前記統合座標変換量を用いて前記計測点群から前記対象物体に相当する認識点群を抽出する
ことを特徴とする物体認識方法。 In claim 14,
The object recognition device includes a model selection unit that receives information related to model selection of the target object to be recognized,
The shape attributes include four attributes such as plane, line, curved surface, and others.
In the shape recognition unit,
The point cloud information is divided into spatially continuous local regions whose volume is a certain value or less,
Estimating the shape feature amount calculated from the relative coordinate information of neighboring points from the point group existing in the local region,
Estimating the shape attribute for each point of the point cloud information using the shape attribute and the shape feature amount of the local region,
In the object recognition unit,
From the model point cloud with the same of the shape attributes to the measurement point group, calculates one or more shape demographic coordinate conversion amount,
By integrating the coordinate transformation amount by shape attribute and calculating the integrated coordinate transformation amount from the model point group to the measurement point group,
A recognition point group corresponding to the target object is extracted from the measurement point group using the integrated coordinate transformation amount.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2013/059666 WO2014155715A1 (en) | 2013-03-29 | 2013-03-29 | Object recognition device, object recognition method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6069489B2 true JP6069489B2 (en) | 2017-02-01 |
JPWO2014155715A1 JPWO2014155715A1 (en) | 2017-02-16 |
Family
ID=51622762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015507899A Active JP6069489B2 (en) | 2013-03-29 | 2013-03-29 | Object recognition apparatus, object recognition method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6069489B2 (en) |
WO (1) | WO2014155715A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180374235A1 (en) * | 2017-06-27 | 2018-12-27 | Toyota Research Institute, Inc. | Extending object detection and identification capability for an object sensor device |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6590653B2 (en) * | 2014-11-19 | 2019-10-16 | 首都高技術株式会社 | Point cloud data utilization system |
FR3030847B1 (en) * | 2014-12-19 | 2017-12-22 | Thales Sa | METHOD OF DISCRIMINATION AND IDENTIFICATION BY 3D IMAGING OBJECTS OF A SCENE |
CN107408204B (en) * | 2015-01-06 | 2021-03-09 | 脸谱科技有限责任公司 | Method and system for providing depth map using patterned light |
CN105678753B (en) * | 2015-12-31 | 2019-07-02 | 百度在线网络技术(北京)有限公司 | A kind of method for segmenting objects and device |
WO2017217191A1 (en) * | 2016-06-14 | 2017-12-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Three-dimensional data coding method, three-dimensional data decoding method, three-dimensional data coding device, and three-dimensional data decoding device |
KR102272801B1 (en) * | 2016-11-29 | 2021-07-02 | 블랙모어 센서스 앤드 애널리틱스, 엘엘씨 | Method and system for classification of objects in point cloud data sets |
JP6673504B2 (en) | 2017-01-16 | 2020-03-25 | 富士通株式会社 | Information processing device, database generation device, method, program, and storage medium |
WO2019229912A1 (en) * | 2018-05-30 | 2019-12-05 | 株式会社ニコン | Information processing device, information processing method, information processing program, and microscope |
JP7424573B2 (en) * | 2019-06-04 | 2024-01-30 | 成典 田中 | 3D model generation device based on 3D point cloud data |
JP2021099689A (en) * | 2019-12-23 | 2021-07-01 | ソニーグループ株式会社 | Information processor, information processing method, and program |
JP7407648B2 (en) * | 2020-04-15 | 2024-01-04 | 株式会社日立製作所 | Object recognition device and object recognition method |
US11906294B2 (en) * | 2020-07-28 | 2024-02-20 | Ricoh Company, Ltd. | Alignment apparatus, alignment system, alignment method, and recording medium |
JP7541866B2 (en) | 2020-08-07 | 2024-08-29 | 国際航業株式会社 | Feature estimation device and feature estimation method |
JP2022157660A (en) | 2021-03-31 | 2022-10-14 | 株式会社トプコン | Point cloud information processing device, point cloud information processing method, and point cloud information processing program |
WO2024180591A1 (en) * | 2023-02-27 | 2024-09-06 | 日本電信電話株式会社 | Device and method for reducing data volume of three-dimensional data |
CN117593367B (en) * | 2023-10-24 | 2024-07-19 | 北京城建集团有限责任公司 | Electrical equipment support positioning system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259114A (en) * | 2003-02-27 | 2004-09-16 | Seiko Epson Corp | Object identification method, object identification device, and object identification program |
JP2008014691A (en) * | 2006-07-04 | 2008-01-24 | Japan Aerospace Exploration Agency | Stereo image measuring method and instrument for executing the same |
-
2013
- 2013-03-29 JP JP2015507899A patent/JP6069489B2/en active Active
- 2013-03-29 WO PCT/JP2013/059666 patent/WO2014155715A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259114A (en) * | 2003-02-27 | 2004-09-16 | Seiko Epson Corp | Object identification method, object identification device, and object identification program |
JP2008014691A (en) * | 2006-07-04 | 2008-01-24 | Japan Aerospace Exploration Agency | Stereo image measuring method and instrument for executing the same |
Non-Patent Citations (2)
Title |
---|
JPN6013022661; 関 俊明: '3次元道路データからの道路地物の認識' 電子情報通信学会技術研究報告 第112巻 第318号, 20121119, pp.57-62, 一般社団法人電子情報通信学会 * |
JPN6013022663; 萩原 一郎: 'リバースエンジニアリングの現状と課題' シミュレーション 第31巻 第3号, 20120915, pp.43-49, 小宮山印刷工業株式会社 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180374235A1 (en) * | 2017-06-27 | 2018-12-27 | Toyota Research Institute, Inc. | Extending object detection and identification capability for an object sensor device |
US10600199B2 (en) * | 2017-06-27 | 2020-03-24 | Toyota Research Institute, Inc. | Extending object detection and identification capability for an object sensor device |
Also Published As
Publication number | Publication date |
---|---|
WO2014155715A1 (en) | 2014-10-02 |
JPWO2014155715A1 (en) | 2017-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6069489B2 (en) | Object recognition apparatus, object recognition method, and program | |
JP7376233B2 (en) | Semantic segmentation of 2D floor plans using pixel-wise classifiers | |
Xu et al. | Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor | |
Liu et al. | Strokeaggregator: Consolidating raw sketches into artist-intended curve drawings | |
Ochmann et al. | Automatic generation of structural building descriptions from 3D point cloud scans | |
US10410354B1 (en) | Method and apparatus for multi-model primitive fitting based on deep geometric boundary and instance aware segmentation | |
CN104123529B (en) | human hand detection method and system | |
EP2980755B1 (en) | Method for partitioning area, and inspection device | |
WO2017199141A1 (en) | Point cloud matching method | |
US11468609B2 (en) | Methods and apparatus for generating point cloud histograms | |
JP2018055199A (en) | Image processing program, image processing device, and image processing method | |
JP2013206458A (en) | Object classification based on external appearance and context in image | |
JP2015184054A (en) | Identification device, method, and program | |
US9250802B2 (en) | Shaping device | |
JP2013015891A (en) | Image processing apparatus, image processing method, and program | |
Bagchi et al. | Reg3DFacePtCd: registration of 3D point clouds using a common set of landmarks for alignment of human face images | |
JP6544482B2 (en) | Object recognition apparatus, object recognition method and storage medium | |
Gehre et al. | Feature Curve Co‐Completion in Noisy Data | |
Kordelas et al. | Viewpoint independent object recognition in cluttered scenes exploiting ray-triangle intersection and SIFT algorithms | |
JP5845139B2 (en) | Graphic detection processing apparatus, graphic detection processing method, and graphic detection processing program | |
KR20130081126A (en) | Method for hand-gesture recognition and apparatus thereof | |
Chen et al. | Automated equipment recognition and classification from scattered point clouds for construction management applications | |
US20220254173A1 (en) | Mesh structure equipment detection apparatus, mesh structure equipment detection method and program | |
CN112596603A (en) | Gesture control method, device, equipment and storage medium for nuclear power station control system | |
Zhao et al. | Octree segmentation based calling gesture recognition for elderly care robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6069489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |