JP4779431B2 - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP4779431B2 JP4779431B2 JP2005138430A JP2005138430A JP4779431B2 JP 4779431 B2 JP4779431 B2 JP 4779431B2 JP 2005138430 A JP2005138430 A JP 2005138430A JP 2005138430 A JP2005138430 A JP 2005138430A JP 4779431 B2 JP4779431 B2 JP 4779431B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- plane
- distance image
- unit
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Description
本発明は、対象物を認識する対象物認識装置及び認識方法、に関するものである。 The present invention relates to an object recognition device and a recognition method for recognizing an object.
3次元の対象物を認識する方法の一つに、対象物上のある点の距離画像を表すデータを取得して、得られた距離画像から対象物を認識する方法がある。距離画像とは撮影対象物表面の3次元位置情報が区分され格子状に並べられた画像であり、区分された画像は画素と呼ばれる。 One method for recognizing a three-dimensional object is to acquire data representing a distance image of a certain point on the object and recognize the object from the obtained distance image. The distance image is an image in which the three-dimensional position information on the surface of the object to be imaged is divided and arranged in a grid pattern, and the divided image is called a pixel.
図25はパルスレーザを用いて距離計測を行う対象物認識装置1について、物体の距離画像データを取得する様子を表した図である。なお、距離画像データとは、対象物などの位置を表すデータである。図25において対象物2が格子状に区分して表現されているが、この格子の個々のマスはパルスレーザが照射される範囲を示しており、また、距離が計測される画素の1単位に対応している。
FIG. 25 is a diagram illustrating a state in which object distance image data is acquired with respect to the
このように対象物認識装置は対象物全体を画素単位に区分し、繰り返しパルスレーザを照射することによって、対象物全体についての距離画像データを取得する。しかしこの距離画像データ自体は単にパルスレーザが反射された点の位置を示すものの集合にすぎず、それだけでは3次元の対象物を認識することはできない。そこで、3次元の対象物を認識するためにはこのようにして得られた距離画像データから所望の対象物が抽出されなければならない。ここで対象物を抽出する、とは取得された距離画像データに基づいて、対象物の外形を把握することをいう。 In this way, the object recognition apparatus divides the entire object into pixel units, and repeatedly obtains distance image data for the entire object by irradiating pulse laser. However, the distance image data itself is merely a collection of points indicating the positions of the points reflected by the pulse laser, and it is not possible to recognize a three-dimensional object by itself. Therefore, in order to recognize a three-dimensional object, a desired object must be extracted from the distance image data thus obtained. Here, extracting the object means grasping the outer shape of the object based on the acquired distance image data.
3次元の対象物を認識するための方法としては、取得した距離画像データから対象物の外形をまず抽出し、その後抽出された外形の中に含まれる距離画像データと、予め対象物認識装置に保存されている、対象物認識装置が認識しようとする対象物のデータである3次元のテンプレートと、をマッチングすることによって対象物を認識する方法がある(非特許文献1及び非特許文献2参照)。
As a method for recognizing a three-dimensional object, the outline of the object is first extracted from the acquired distance image data, and then the distance image data included in the extracted outline and the object recognition apparatus in advance. There is a method for recognizing an object by matching a stored three-dimensional template that is data of the object to be recognized by the object recognition device (see Non-Patent
上記非特許文献1及び非特許文献2に記載されている方法のいずれも、マッチングにおいて、取得した距離画像データのどの点とどの点が対象物の同一平面上にあるかを考慮することなく、単に抽出された距離画像データの全ての点と3次元のテンプレートとが一致するか否かを判定する方法を用いている。しかしながら、これらの方法では取得した距離画像データと3次元のテンプレートとの照合に必要な計算量が膨大で、対象物の認識に時間を要するため、対象物、特に高速で移動する物体を迅速に認識することは困難であった。
In any of the methods described in
本願発明は、距離画像データから対象物を認識するにあたり、取得した距離画像データから対象物の一部であるエッジに係る情報を抽出し、そのエッジに係る情報を利用して対象物の平面を迅速に抽出する対象物認識装置及び認識方法を提供する。 In recognizing the object from the distance image data, the present invention extracts information related to the edge that is a part of the object from the acquired distance image data, and uses the information related to the edge to determine the plane of the object. Provided are an object recognition device and a recognition method for quick extraction.
また、取得した距離画像データから対象物の一部であるエッジに係る情報を抽出し、そのエッジに係る情報を利用して対象物の平面を抽出する、移動体に搭載される対象物認識装置及び認識方法を提供する。 An object recognition device mounted on a moving body that extracts information related to an edge that is a part of the object from the acquired distance image data, and extracts a plane of the object using the information related to the edge. And a recognition method.
本発明によれば、取得した距離画像データから対象物を認識するにあたり、その対象物の一部であるエッジラインなどのエッジに係る情報をまず抽出し、そのエッジに係る情報を利用して対象物の平面を抽出するので、平面を抽出するための距離画像データの処理を効率よく行うことができ、データの処理に用いられる計算量を削減することができ、特に高速で移動する対象物であっても正確に抽出することができる。 According to the present invention, in recognizing an object from the acquired distance image data, information related to an edge such as an edge line that is a part of the object is first extracted, and the object related to the edge is used using the information related to the edge. Since the plane of the object is extracted, the processing of the distance image data for extracting the plane can be performed efficiently, the amount of calculation used for processing the data can be reduced, and particularly for an object that moves at high speed. Even if it exists, it can extract correctly.
また、対象物認識装置が移動体に搭載され、対象物認識装置が高速で移動する場合においても、対象物を正確に認識することができる。
本発明は、少なくとも一部の対象物の位置を表す距離画像データに基いて前記対象物のエッジに係る情報を抽出する抽出手段と、前記エッジに係る情報に基いて前記対象物を認識する認識手段、を備える対象物認識装置、であることを特徴とする。 The present invention provides extraction means for extracting information related to an edge of the target object based on distance image data representing the position of at least a part of the target object, and recognition for recognizing the target object based on the information related to the edge An object recognition device comprising means.
また、本発明は、少なくとも一部の対象物の位置を表す距離画像データを複数取得する距離画像データ取得手段と、複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出手段と、抽出された前記第1の条件を満たす前記距離画像データに基いて前記対象物のエッジに係る情報を抽出する第2の抽出手段と、前記情報に基いて前記対象物を認識する認識手段、を備える対象物認識装置、であることを特徴とする。 Further, the present invention provides distance image data acquisition means for acquiring a plurality of distance image data representing the positions of at least some of the objects, and the distance image data satisfying a first condition among the plurality of acquired distance image data. First extraction means for extracting the information, second extraction means for extracting information relating to the edge of the object based on the distance image data that satisfies the extracted first condition, and based on the information It is a target object recognition apparatus provided with the recognition means which recognizes the said target object, It is characterized by the above-mentioned.
また、本発明は、光を対象物へ発射する発射手段と、前記対象物で反射した前記光が入射される入射手段と、入射された前記光のレベルを計測する入射光レベル計測手段と、入射された前記光より前記対象物の位置を表す距離画像データを複数取得する距離画像データ取得手段と、複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出手段と、抽出された前記第1の条件を満たす前記距離画像データ及び前記レベルに基いて前記対象物のエッジに係る情報を抽出する第2の抽出手段と、前記エッジに係る情報に基いて前記対象物を認識する認識手段、を備える対象物認識装置、であることを特徴とする。 Further, the present invention is a launching means for emitting light to an object, an incident means for entering the light reflected by the object, an incident light level measuring means for measuring the level of the incident light, Distance image data acquisition means for acquiring a plurality of distance image data representing the position of the object from the incident light, and extracting the distance image data satisfying a first condition from the plurality of acquired distance image data First extraction means; second extraction means for extracting information relating to the edge of the object based on the extracted range image data and the level satisfying the first condition; and information relating to the edge An object recognition apparatus comprising a recognition means for recognizing the object based on the object.
さらに前記対象物認識装置は、前記エッジに係る情報は前記対象物のエッジラインである、対象物認識装置であることが望ましい。 Furthermore, it is preferable that the object recognition apparatus is an object recognition apparatus in which the information related to the edge is an edge line of the object.
さらに前記エッジに係る情報は前記対象物の頂点である、対象物認識装置、であることが望ましい。 Furthermore, it is desirable that the information related to the edge is an object recognition device that is a vertex of the object.
さらに前記第1の条件は、前記対象物までの距離に基いて定められる、対象物認識装置、であることが望ましい。 Furthermore, it is desirable that the first condition is an object recognition device that is determined based on a distance to the object.
さらに前記第2の抽出手段は、前記第1の条件を満たす前記距離画像データ及び前記光のレベルに基いて前記対象物を構成する平面のエッジライン候補を抽出し、前記エッジライン候補のうち、第2の条件を満たすエッジライン候補を抽出する手段である、対象物認識装置、であることが望ましい。 Further, the second extraction means extracts the edge line candidates of the plane constituting the object based on the distance image data and the light level that satisfy the first condition, and among the edge line candidates, It is desirable that the target object recognition apparatus be a means for extracting edge line candidates that satisfy the second condition.
さらに前記第2の条件は、前記エッジライン候補を含む立体図形に含まれる前記距離画像データの数に基いて定められる、対象物認識装置、であることが望ましい。 Furthermore, it is desirable that the second condition is an object recognition device that is determined based on the number of the distance image data included in the solid figure including the edge line candidate.
さらに前記対象物認識装置は、前記エッジに係る情報に基いて前記対象物を構成する平面を抽出する平面抽出手段を有し、前記認識手段は、前記平面抽出手段によって抽出された前記平面に基いて前記対象物を認識する、対象物認識装置、であることが望ましい。 Further, the object recognition device has plane extraction means for extracting a plane constituting the object based on information on the edge, and the recognition means is based on the plane extracted by the plane extraction means. And an object recognition device that recognizes the object.
さらに、前記エッジに係る情報に基いて仮想平面を設定する設定手段と、前記設定手段において設定された前記仮想平面のうち、第3の条件を満たす仮想平面である平面を抽出する平面抽出手段を備え、前記認識手段は、前記平面抽出手段において抽出された前記平面に基いて前記対象物を認識する、対象物認識装置、であることが望ましい。 A setting unit configured to set a virtual plane based on the information relating to the edge; and a plane extracting unit configured to extract a plane that is a virtual plane satisfying a third condition among the virtual planes set in the setting unit. Preferably, the recognition means is an object recognition device that recognizes the object based on the plane extracted by the plane extraction means.
さらに前記第3の条件は、前記仮想平面を含む立体図形に含まれる前記距離画像データの数に基いて定められる、対象物認識装置、であることが望ましい。 Furthermore, it is desirable that the third condition is an object recognition device that is determined based on the number of the distance image data included in the three-dimensional figure including the virtual plane.
さらに前記認識手段は、前記平面抽出手段において抽出された前記平面を組合わせた図形に基いて対象物を認識する手段を備える、対象物認識装置、であることが望ましい。 Furthermore, it is desirable that the recognition means is an object recognition device provided with means for recognizing an object based on a combination of the planes extracted by the plane extraction means.
さらに対象物のテンプレートを記録する記憶手段と、前記平面と前記テンプレートを照合する照合手段とを備え、前記認識手段は、前記照合手段において前記テンプレートと一致する前記平面に基いて前記対象物を認識する手段を備える、対象物認識装置、であることが望ましい。 The apparatus further comprises storage means for recording a template of the object, and collation means for collating the plane with the template, wherein the recognition means recognizes the object based on the plane that matches the template in the collation means. It is desirable that the object recognition apparatus includes means for performing the above-described operation.
また、本発明は、対象物の位置を表す距離画像データに基いて前記対象物のエッジに係る情報を抽出し、前記情報に基いて前記対象物を認識する、対象物認識装置、であることを特徴とする。 Further, the present invention is an object recognition device that extracts information related to an edge of the object based on distance image data representing the position of the object and recognizes the object based on the information. It is characterized by.
さらに自装置の位置及び姿勢を認識するためのGPS及び慣性センサを備え、前記距離画像データは、前記GPS及び前記慣性センサにおいて認識された前記自装置の位置及び姿勢に基づいたデータである、対象物認識装置、であることが望ましい。 Further, the object includes a GPS and an inertial sensor for recognizing the position and orientation of the own device, and the distance image data is data based on the position and orientation of the own device recognized by the GPS and the inertial sensor. It is desirable to be an object recognition device.
また、本発明は、対象物の位置を表す距離画像データに基いて前記対象物のエッジに係る情報を抽出する抽出ステップと、前記情報に基いて前記対象物を認識する認識ステップ、を備える対象物認識方法、であることを特徴とする。 The present invention also includes an extraction step of extracting information related to the edge of the target object based on distance image data representing the position of the target object, and a recognition step of recognizing the target object based on the information. It is an object recognition method.
また、本発明は、対象物の位置を表す距離画像データを複数取得する距離画像データ取得ステップと、複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出ステップと、抽出された前記第1の条件を満たす前記距離画像データに基いて前記対象物のエッジに係る情報を抽出する第2の抽出ステップと、前記情報に基いて前記対象物を認識する認識ステップ、を備える対象物認識方法、であることを特徴とする。 Further, the present invention provides a distance image data acquisition step for acquiring a plurality of distance image data representing the position of an object, and a step of extracting the distance image data satisfying a first condition from the plurality of acquired distance image data. A first extraction step, a second extraction step for extracting information relating to an edge of the object based on the extracted distance image data satisfying the first condition, and the object based on the information. An object recognition method comprising: a recognition step for recognizing.
また、本発明は、光を対象物へ発射する発射ステップと、前記対象物で反射した前記光が入射される入射ステップと、入射された前記光のレベルを計測する入射光レベル計測ステップと、入射された前記光より前記対象物の位置を表す距離画像データを複数取得する距離画像データ取得ステップと、複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出ステップと、抽出された前記第1の条件を満たす前記距離画像データ及び前記レベルに基いて前記対象物のエッジに係る情報を抽出する第2の抽出ステップと、前記エッジに係る情報に基いて前記対象物を認識する認識ステップ、を備える対象物認識方法、であることを特徴とする。
Further, the present invention includes a launching step of emitting light to an object, an incident step in which the light reflected by the object is incident, an incident light level measuring step of measuring the level of the incident light, A distance image data acquisition step for acquiring a plurality of distance image data representing the position of the object from the incident light, and extracting the distance image data satisfying a first condition from the plurality of acquired distance image data A first extraction step; a second extraction step for extracting information relating to the edge of the object based on the distance image data and the level satisfying the extracted first condition; and information relating to the edge And a recognition step for recognizing the object on the basis of the object recognition method.
本実施例の対象物認識装置のブロック図を図1に示す。制御部11は、レーザ発射部12がパルスレーザPoを発射する時刻を表す発射時刻信号Toを、レーザ発射部12及び測距回路部15へ出力する。また、パルスレーザPoの強度を表す発射強度信号Voが制御部11からレーザ発射部12へ出力される。
A block diagram of the object recognition apparatus of the present embodiment is shown in FIG. The
レーザ発射部12は、入力された発射時刻信号To及び発射強度信号Voにしたがって走査光学系13へパルスレーザPoを発射する。
The
走査光学系13は、レーザ発射部12から発射されたパルスレーザPoを2軸方向に走査してパルスレーザPoを外部へ発射し、また、対象物によって反射されたパルスレーザPiを入射する。入射されたパルスレーザPiは光−電気変換部14へ出力される。また、走査光学系13は、パルスレーザPo発射時における走査角度のAZ角Φ及びEL角Ψを表す発射角度(Φo,Ψo)を後述する座標変換部171に出力する。
The scanning
光−電気変換部14は、入力されたパルスレーザPiを電気パルスEiに変換する。変換された電気パルスEiは測距回路部15及び入射光レベル計測部16へ出力される。
The
測距回路部15は、入力された電気パルスEiより得られる入射時刻信号Tiと、パルスレーザPoの発射時刻を表す発射時刻信号Toを用いて、Ti−Toで表される計算を行い、パルスレーザPoを発射してからパルスレーザPiが入射されるまでの時間を求める。またcを光速とすると(Ti−To)×c/2で表される計算により、対象物までの距離Roが求められる。求められた距離Roは座標変換部171へ出力される。
The distance
入射光レベル計測部16は、入力された電気パルスEiからパルスレーザPiの入射光レベルViを計測する。計測された入射光レベルViはエッジ候補抽出部173へ出力される。
The incident light
座標変換部171は、入力された発射角度(Φo,Ψo)及び対象物までの距離Roからなる距離画像データ(Ro,Φo,Ψo)を極座標(Ro,Φo,Ψo)からXo=RocosΨosinΦo、Yo=RocosΨocosΦo、Zo=RosinΨoで表されるデカルト座標(Xo,Yo,Zo)に変換する。極座標とデカルト座標の関係は図2に示すとおりである。座標変換された距離画像データ(Xo,Yo,Zo)と対象物までの距離Roはそれぞれ対応させて距離画像データ抽出部172へ出力される。
The coordinate conversion unit 171 calculates the distance image data (Ro, Φo, Ψo) including the input launch angle (Φo, Ψo) and the distance Ro to the object from the polar coordinates (Ro, Φo, Ψo), Xo = Rocos ΨosinΦo, Yo. = Rocos [Psi] ocos [Phi] o, and Zo = Rosin [Psi] o (Xo, Yo, Zo). The relationship between polar coordinates and Cartesian coordinates is as shown in FIG. The distance image data (Xo, Yo, Zo) subjected to coordinate conversion and the distance Ro to the object are output to the distance image
なお、本発明では対象物を構成する平面を抽出するために充分な量の距離画像データが必要であるので、発射角度(Φo,Ψo)を変えながらパルスレーザPoを繰り返し発射し、反射されたパルスレーザPiを入射することにより、複数取得した前記距離画像データを取得している。したがって、座標変換部171では、複数取得した前記距離画像データが座標変換されて、距離画像データ抽出部172へ出力される。
In the present invention, a sufficient amount of distance image data is necessary to extract the plane constituting the object. Therefore, the pulse laser Po is repeatedly emitted and reflected while changing the emission angle (Φo, Ψo). A plurality of the acquired distance image data are acquired by entering a pulse laser Pi. Therefore, the coordinate conversion unit 171 performs coordinate conversion on the plurality of acquired distance image data, and outputs the result to the distance image
距離画像データ抽出部172は、特定範囲の距離Rd〜Rd+ΔRに含まれる、距離Roに対応する距離画像データ(Xo,Yo,Zo)を抽出する。
The distance image
抽出される距離の範囲を表すΔRの値は、ΔRと距離Rdとの比率を考慮して誤差が問題とならないような値に設定される。例えばRd=1000[m]、ΔR=10[m]とすると距離を要因とする入射光レベルの差、つまり距離Rd及びRd+ΔRにおける入射光レベルの差は数%であり、この程度であれば誤差は問題にならない。抽出された距離画像データ(Xo,Yo,Zo)はエッジ候補抽出部173及び平面判定部175へ出力される。
The value of ΔR representing the range of distances to be extracted is set to a value that does not cause an error in consideration of the ratio between ΔR and the distance Rd. For example, if Rd = 1000 [m] and ΔR = 10 [m], the difference in incident light level due to distance, that is, the difference in incident light level at distances Rd and Rd + ΔR is several percent. Is not a problem. The extracted distance image data (Xo, Yo, Zo) is output to the edge
エッジ候補抽出部173は、入力された距離画像データ(Xo,Yo,Zo)に対応する入射光レベルViを用いて、対象物を構成する平面の辺または頂点にあたる、エッジラインまたは頂点エッジを表す距離画像データの候補である、エッジ候補を抽出する。これは、入射光レベルViが所定値、例えば距離画像データの入射光レベルの最大値の1/2以下、の条件を満たす計測点がエッジの一部を構成する候補として抽出される。このように入射光レベルの違いによってエッジ候補か否かが判断されるのは、平面が異なれば対象物認識装置から入射されるレーザの入射範囲や入射角が異なることにより入射光レベルも異なるからである。図3において、(a)、(b)、(c)の順に対象物3がレーザ4に照射される範囲が小さくなるので、(a)、(b)、(c)の順に入射光レベルは小さくなる。また、入射光レベルは入射されるレーザの角度によっても異なり、面に対して垂直に近い角度で照射されるほど大きい。図4においては(a)、(b)、(c)の順に入射光レベルは小さくなる。特に対象物が直方体状である場合、互いに隣接する2つの面がほぼ垂直であるので両面に入射される入射光レベルの差は非常に大きくなる。
The edge
また、エッジ候補抽出部173は、エッジラインの抽出に充分な範囲の距離画像データ数が抽出されたかどうかの判定を行い、距離画像データの数が充分でないと判定したときには距離画像データ抽出部172にエッジ候補データを再度要求する。要求された距離画像データ抽出部172は、距離の範囲をΔR増加してRd+ΔR〜Rd+2ΔRの条件を満たす距離Roに対応する距離画像データを抽出し、それ以後充分なデータ数が抽出されるまで距離の範囲をΔRずつ増加させ、上述の動作を繰り返す。
The edge
充分な距離画像データ数が抽出されたと判断したときには、エッジ候補抽出部173はエッジ候補データからエッジ候補ラインを抽出する。例えば図5に示すように、まず距離画像データの中から任意の1点を抽出し、その点をエッジ候補点D1とする。そして、エッジ候補点D1と最も距離が近いエッジ候補点D2を結ぶエッジ候補ラインL1を想定し、その他のエッジ候補データがエッジ候補ラインL1を中心とする所定の円筒形などの立体図形の空間の中に所定の個数以上存在するときに、このエッジ候補ラインL1が実際のエッジラインであると判断する。この円筒形などの立体図形の空間の大きさ及びエッジ候補データの所定の個数は、パルスレーザPoの発射回数や発射角度(Φo,Ψo)の範囲などを考慮して予め決定される。エッジ候補ラインを表す直線式は一般的な幾何数学にある直線の方程式を用いればよい。
When it is determined that a sufficient number of distance image data has been extracted, the edge
なお、ここで自動車など特定の対象物を認識する場合にはある程度エッジラインの長さは想定できるので、迅速な抽出処理を行うため、想定される対象物の大きさをもとにエッジラインの長さを所定値の範囲内であると予め設定することもできる。また同じく自動車など特定の対象物を検出する場合には平面の存在する位置の範囲も所定の範囲内と想定できるので、エッジラインの存在する範囲を所定の範囲に限定するように設定することもできる。 In addition, when recognizing a specific target object such as an automobile, the length of the edge line can be assumed to some extent. Therefore, in order to perform a quick extraction process, the edge line size is determined based on the assumed target size. It is also possible to preset the length to be within a predetermined value range. Similarly, when detecting a specific object such as an automobile, the range of the position where the plane exists can also be assumed to be within the predetermined range, so the range where the edge line exists can be set to be limited to the predetermined range. it can.
本処理によってエッジラインL1が抽出されるとともに、そのエッジラインL1の両端の距離画像データである、平面の頂点を表す頂点エッジV1、V2が得られる。このエッジラインの端点である頂点エッジの位置は、立体図形の長さを伸縮し、そのときの立体図形に含まれるエッジ候補データの個数の増減を求めることによりエッジラインの端点を求めてもよいし、エッジ候補データの位置と個数の分布から求めてもよい。得られたエッジ候補ラインL1及び頂点エッジV1、V2はエッジ候補抽出部173から仮想平面計算部174に出力される。
The edge line L1 is extracted by this process, and vertex edges V1 and V2 representing the vertexes of the plane, which are distance image data at both ends of the edge line L1, are obtained. The position of the vertex edge that is the end point of the edge line may be obtained by expanding or contracting the length of the solid figure and obtaining the increase or decrease of the number of edge candidate data included in the solid figure at that time. Alternatively, it may be obtained from the distribution of the position and number of edge candidate data. The obtained edge candidate line L1 and vertex edges V1 and V2 are output from the edge
仮想平面計算部174は、図6に記載されたように、求められたエッジラインL1を一辺とする複数の仮想平面の候補を設定し、その情報を、平面判定部175に出力する。平面の方程式は一般的な幾何数学における平面の方程式を用いればよい。
As illustrated in FIG. 6, the virtual
平面判定部175は、仮想平面計算部174から出力された情報に基づく複数の仮想平面S1、S2、S3…を含む立体図形(例えば薄い直方体)F1、F2、F3を設定し、設定した立体図形それぞれが、距離画像データ抽出部172から出力された距離画像データをどれだけ含むかを算出する。多くの距離画像データを含む立体図形に含まれる平面ほど実在する平面の可能性が高いと判定する。例えば、立体図形F2が距離画像データを最も多く含む場合には、立体図形F2に含まれる仮想平面S2が対象物を構成する実在する平面の一つとして判定され、抽出される。
The
ここで、例えば対象物が立方体や直方体などある1つの平面のエッジラインが他の1つの平面のエッジラインでもある場合を想定し、効率よく平面を抽出できるよう、平面判定部175が仮想平面計算部174から出力された情報に基づく複数の仮想平面の中から少なくとも平面を2つ同時に抽出してもよい。このとき、複数の平面を抽出する条件としては、例えば、平面を含む立体図形に含まれる距離画像データの数が所定値以上であるとすることが考えられる。また、平面判定部175において、少なくとも1つの平面が抽出されれば、抽出された平面を構成する少なくとも4つのエッジライン及び4個の頂点エッジが抽出されるため、それらの情報を仮想平面計算部174に出力し、仮想平面計算部174はそれらの情報を利用して新たな仮想平面を設定してもよい。さらに、上述の記載ではエッジ候補抽出部173がエッジライン及び頂点エッジを求めているが、エッジラインを求めることなくまず上述した通りに頂点エッジを求め、その頂点エッジを仮想平面計算部174に出力し、仮想平面計算部は頂点エッジをもとに仮想平面を設定するようにしてもよい。
Here, for example, assuming that the edge line of one plane such as a cube or a rectangular parallelepiped is also the edge line of another plane, the
なお現実には、自動車等などの対象物は完全な平面から構成されることはほとんどない。したがって対象物を適切に抽出するためには、平面のみならず、若干凹状や凸状になった部分などを含んだ略平面も抽出する必要がある。そのため、略平面の凹凸により、同一の略平面によって反射され、本対象物認識装置に入射されるレーザパルスの入射光レベルに差があったとしても、本対象物認識装置はその差を誤差の範囲とするようエッジ候補抽出部173を設定することなどにより、略平面であっても抽出できるようにする。なお、本明細書において記載されている平面には略平面も含まれるものとする。
In reality, an object such as an automobile is hardly composed of a complete plane. Therefore, in order to appropriately extract an object, it is necessary to extract not only a plane but also a substantially plane including a slightly concave or convex portion. Therefore, even if there is a difference in the incident light level of the laser pulse that is reflected by the same substantially flat surface due to the unevenness of the substantially flat surface and is incident on the object recognition device, the object recognition device recognizes the difference as an error. For example, by setting the edge
続いて本実施例におけるフローチャートを図7に示す。まず制御部11から出力される発射時刻信号Toと光−電気変換部14においてパルスレーザPoから変換された電気パルスEoとから測距回路部15にて求められたRoと、走査光学系13から出力された発射角度(Φo,Ψo)に基いて極座標(Ro,Φo,Ψo)で表される距離画像データを取得する(S101)。
Next, a flowchart in the present embodiment is shown in FIG. First, Ro obtained by the ranging
座標変換部171は、距離画像データを、極座標(Ro,Φo,Ψo)からXo=RocosΨosinΦo、Yo=RocosΨocosΦo、Zo=RosinΨo、で表されるデカルト座標(Xo,Yo,Zo)へ座標変換し、座標変換された距離画像データ(Xo,Yo,Zo)及び対象物までの距離Roをそれぞれ対応させて距離画像データ抽出部172へ出力する(S102)。 The coordinate converter 171 converts the distance image data from polar coordinates (Ro, Φo, Ψo) to Cartesian coordinates (Xo, Yo, Zo) represented by Xo = Rocos ΨosinΦo, Yo = Rocos ΨocosΦo, and Zo = Rosin Ψo, The coordinate image-converted distance image data (Xo, Yo, Zo) and the distance Ro to the object are associated with each other and output to the distance image data extraction unit 172 (S102).
距離画像データ抽出部172は、取得した距離画像データから、対象物までの距離Roが特定範囲の距離Rd〜Rd+ΔRに含まれる距離画像データを抽出する。抽出される距離の範囲を表すΔRの値は、ΔRと距離Rdとの比率を考慮して誤差が問題とならないような値に設定される(S103)。
The distance image
エッジ候補抽出部173は、得られた距離画像データに対応する入射光レベルViを用いてエッジ候補データを抽出する(S104)。また、エッジ候補抽出部173は、エッジラインの抽出に充分な範囲の距離画像データ数が抽出されたかどうかの判定を行い、充分でないと判定したときにはS103の処理を再度行う。このとき、距離の範囲をΔR増加してRd+ΔR〜Rd+2ΔRの条件を満たす距離Roに対応する距離画像データを抽出する。したがって、S105において、充分な距離画像データ数が抽出されたと判定されるまで距離の範囲をΔRずつ増加させ、S103乃至S105の動作を繰り返す(S105)。
The edge
充分な範囲の距離画像データが抽出されたと判定されたときには、エッジ候補抽出部173は、S104において抽出されたエッジ候補データからエッジラインを抽出する。
When it is determined that a sufficient range of distance image data has been extracted, the edge
本抽出処理によって抽出されたエッジラインL1は仮想平面計算部174へ出力される(S106)。 The edge line L1 extracted by this extraction process is output to the virtual plane calculation unit 174 (S106).
仮想平面計算部174は、求められたエッジラインL1を一辺とする複数の仮想平面の候補を設定し、その情報を、平面判定部175に出力する(S107)。
The virtual
平面判定部175は、仮想平面計算部174から出力された情報に基づく複数の仮想平面S1、S2、S3…を含む立体図形F1、F2、F3…を設定し、設定した立体図形それぞれが、S103で得られた距離画像データをどれだけ含むかを算出する。多くの距離画像データを含む立体図形に含まれる平面ほど実在する平面の可能性が高いと判定する(S108)。
このように本発明においては、対象物を認識するにあたり、取得した距離画像データからまず対象物のエッジラインを抽出し、そのエッジラインを一辺とする平面を抽出するので、対象物を認識するための距離画像データの処理に用いられる計算量が削減される。また、かかる計算量の削減により、迅速に対象物を認識できるので、対象物が高速で移動する場合でも正確に対象物を認識することができる。
The
As described above, in the present invention, when recognizing an object, first, an edge line of the object is extracted from the acquired distance image data, and a plane having the edge line as one side is extracted. The amount of calculation used to process the distance image data is reduced. Moreover, since the object can be recognized quickly by reducing the amount of calculation, the object can be accurately recognized even when the object moves at high speed.
図8は、本発明における対象物認識装置を自動車の検出に用いた例である。自動車が道路を通過する範囲にレーザを照射するよう備えられた対象物認識装置のレーザ照射部5よりレーザを照射して平面a、平面bを認識し、所定の範囲内を通過する自動車の存在及び外形を即時に認識することができる。また、本対象物認識装置を駐車場に設置することによって自動車の位置の把握も可能である。さらに本対象物認識装置は、飛行場や空港における飛行機の侵入や位置の把握等も行うことができ、また特定の場所における戦車等の車両の検出といった防衛用途にも用いることができる。
FIG. 8 shows an example in which the object recognition apparatus according to the present invention is used for detection of an automobile. Presence of a vehicle passing through a predetermined range by irradiating a laser from the laser irradiation unit 5 of the object recognition device provided to irradiate a laser on a range where the vehicle passes the road to recognize the plane a and the plane b And the outer shape can be recognized immediately. In addition, it is possible to grasp the position of the automobile by installing the object recognition apparatus in a parking lot. Furthermore, the object recognition apparatus can perform intrusion and position determination of an airplane at an airfield or airport, and can also be used for defense applications such as detection of a vehicle such as a tank in a specific place.
本実施例の対象物認識装置を、図9のブロック図で表す。制御部21、レーザ発射部22、走査光学系23、光−電気変換部24、測距回路部25、入射光レベル計測部26、座標変換部271、距離画像データ抽出部272、エッジ候補抽出部273、仮想平面計算部274は、それぞれ実施例1における制御部11、レーザ発射部12、走査光学系13、光−電気変換部14、測距回路部15、入射光レベル計測部16、座標変換部171、距離画像データ抽出部172、エッジ候補抽出部173、仮想平面計算部174と同一機能であるので、冗長を避けるため、その説明を省略する。本実施例では実施例1の構成に加えて、3次元図形作成部276を備えることを特徴とする。これにより、データ処理部27は複数の面からなる3次元画像を出力するので、対象物の特定をより正確に行うことができる。
The object recognition apparatus of a present Example is represented with the block diagram of FIG.
平面判定部275は、実在する平面の可能性が高いと判定して抽出した平面についての情報を、3次元図形作成部276へ出力する。
The
3次元図形作成部276は、平面判定部275より入力された平面の情報を図示しない記録部へ保存する。複数の平面が保存されると、それら複数の平面を組合わせた3次元画像を作成し、出力する。
The three-dimensional
続いて本実施例におけるフローチャートを図10に示す。S201〜S208のステップは実施例1におけるS101〜S108のステップとそれぞれ同一であり、冗長を避けるため、その説明を省略する。 Next, a flowchart in the present embodiment is shown in FIG. Steps S201 to S208 are the same as steps S101 to S108 in the first embodiment, respectively, and the description thereof is omitted to avoid redundancy.
3次元図形作成部276は、S208で抽出された平面を記憶し、複数の平面を記憶するとそれらの平面を組合わせた3次元図形を作成する(S209)。
The three-dimensional
図11は、本実施例における対象物認識装置を用いて自動車を検出する例である。本実施例にかかる対象物認識装置では例えば対象物6の平面c、平面d、平面eからなる3次元画像を対象物から抽出する。抽出された3次元画像情報は図12にあるように把握される。この3次元画像を得ることにより対象物全体の形状を凡そ想定することが可能になり、対象物を認識する精度が向上する。
FIG. 11 is an example in which a vehicle is detected using the object recognition apparatus in the present embodiment. In the object recognition apparatus according to the present embodiment, for example, a three-dimensional image composed of the plane c, the plane d, and the plane e of the
本実施例の対象物認識装置を、図13のブロック図で表す。制御部31、レーザ発射部32、走査光学系33、光−電気変換部34、測距回路部35、入射光レベル計測部36、座標変換部371、距離画像データ抽出部372、エッジ候補抽出部373、仮想平面計算部374は、それぞれ実施例1における、制御部11、レーザ発射部12、走査光学系13、光−電気変換部14、測距回路部15、入射光レベル計測部16、座標変換部171、距離画像データ抽出部172、エッジ候補抽出部173、仮想平面計算部174と同一機能であるので、冗長を避けるため、その説明を省略する。本実施例では実施例1の構成に加えて、平面テンプレート記憶部377及び平面テンプレート照合部378を備えることを特徴とする。これにより、データを取得することにより得られた平面と、予め用意されたテンプレートを比較し対象物を特定することができるので、特に対象物の計測から得られる平面の大きさ及び対象物の向きが分かっているときに、迅速に対象物の特定を行うことができる。
The object recognition apparatus of a present Example is represented with the block diagram of FIG.
平面判定部375は、実在する平面の可能性が高いと判定して抽出した平面の情報を、平面テンプレート照合部378へ出力する。
The
平面テンプレート記憶部377は、予め対象物の平面として想定される、対象物の種類などにより異なる1つまたは複数のテンプレートを記憶部に備えており、平面テンプレート照合部378へ出力する。
The planar
平面テンプレート照合部378は、入力された平面の情報とテンプレートを照合し、一致すると判断した平面の情報を出力する。
The plane
このように本実施例における対象物認識装置によれば、対象物の外形の一部にあたる平面をテンプレートと照合して対象物の特定を行うので、対象物の外形全体から対象物を認識するよりも、対象物を認識するための処理に必要な計算量を削減させることができる。 As described above, according to the object recognition device of the present embodiment, the object is identified by collating a plane corresponding to a part of the object outline with the template, so that the object is recognized from the entire object outline. In addition, it is possible to reduce the amount of calculation required for the process for recognizing the object.
続いて本実施例におけるフローチャートを図14に示す。S301〜S308のステップは実施例1におけるS101〜S108のステップとそれぞれ同一であり、冗長を避けるため、その説明を省略する。 Next, a flowchart in the present embodiment is shown in FIG. The steps S301 to S308 are the same as the steps S101 to S108 in the first embodiment, respectively, and the description thereof is omitted to avoid redundancy.
平面テンプレート照合部378は、S308で抽出された平面を、予め用意されたテンプレートと照合し、一致すると判断した平面の情報を出力する。(S310)。
The plane
図15は、本実施例における対象物認識装置を用いて自動車を検出する装置の例である。本装置において例えば対象物6の測定点データから平面f及び平面gを抽出できたとする。これら2つの平面を、図16にあるように車種の違いに応じて用意されたテンプレートα、β、γと照合を行い、平面f及び平面gはテンプレートγと符合すると判定される。このときテンプレートγの大きさや位置によって車種を認識することができる。
FIG. 15 is an example of an apparatus for detecting an automobile using the object recognition apparatus in the present embodiment. In this apparatus, for example, it is assumed that the plane f and the plane g can be extracted from the measurement point data of the
例えば本実施例における対象物認識装置により自動車を認識する場合には、自動車の外形全体を認識して対象物である自動車の外形を抽出しなくとも、一般に車両の大きさの範囲は予め想定できるので、例えば自動車の外形のうちの前方の2平面について、平面の大きさ、奥行き、間隔等を事前に用意したテンプレートデータと比較することによって自動車の存在の有無や、大型小型等の車種類別の分類を行うことができ、駐車場の入退場車両数や、その入退場した車両の車種類別情報等を迅速に把握することができる。
For example, when a vehicle is recognized by the object recognition apparatus according to the present embodiment, the range of the size of the vehicle can generally be assumed in advance without recognizing the entire outline of the automobile and extracting the outline of the automobile that is the object. So, for example, for the two planes in front of the outline of the car, the size, depth, spacing, etc. of the plane are compared with the template data prepared in advance, whether there is a car, Classification can be performed, and the number of vehicles entering and leaving the parking lot, information on the types of vehicles entering and leaving the vehicle, and the like can be quickly grasped.
第4の実施例の構成について、図17を用いて説明する。レーザ発射部42、走査光学系43、光−電気変換部44、測距回路部45、入射光レベル計測部46、距離画像データ抽出部472、エッジ候補抽出部473、仮想平面計算部474、平面判定部475は、それぞれ実施例1における、レーザ発射部12、走査光学系13、光−電気変換部14、測距回路部15、入射光レベル計測部16、距離画像データ抽出部172、エッジ候補抽出部173、仮想平面計算部174、平面判定部175と同一機能であるので、冗長を避けるため、その説明を省略する。本実施例では実施例1の構成に加えて、慣性センサ48及びGPS49を備えることを特徴とする。実施例1乃至3では、対象物認識装置の位置は固定されていたが、本実施例では対象物認識装置が移動体に搭載され、位置が変化する。本実施例によれは、慣性センサ48及びGPS49により自装置の位置及び姿勢を把握することができるので、対象物認識装置が高速で移動する場合においても、対象物を迅速に認識することができる。
The configuration of the fourth embodiment will be described with reference to FIG.
制御部41は、レーザ発射部42にパルスレーザを発射する時刻を指示する発射時刻信号Toをレーザ発射部42及び測距回路部45のほか慣性センサ48、GPS49へ出力する。
The
慣性センサ48は、対象物認識装置の姿勢を表す、入力された発射時刻信号Toの時刻におけるロール、ピッチ、ヨーの3軸の回転角(κo,φo,ωo)をデータ処理部47の座標変換部471へ出力する。
The
GPS49は、入力された発射時刻信号Toで表される時刻における対象物認識装置の位置(xo,yo,zo)を座標変換部471へ出力する。
The
座標変換部471は、距離Ro、レーザパルス発射時における発射角度(Φo,Ψo)、対象物認識装置の位置(xo,yo,zo)及び姿勢(κo,φo,ωo)を入力する。また、レーザパルスの入射時における対象物認識装置の位置(xi,yi,zi)及び姿勢(κi,φi,ωi)を入力する。そして図18にあるように、取得した距離画像データ(Ro,Φo,Ψo)をレーザパルス発射時における対象物認識装置の位置(xo,yo,zo)及び姿勢(κo,φo,ωo)と、レーザパルスの入射時における対象物認識装置の位置(xi,yi,zi)及び姿勢(κi,φi,ωi)を用いて既存の方法により補正し、座標変換することにより、デカルト座標におけるパルスレーザの反射位置(Xo,Yo,Zo)を求める。
The coordinate
続いて本実施例におけるフローチャートは実施例1におけるフローチャートと同じである。ただしS402について、座標変換部471は取得された距離画像データについて、座標変換部471は、取得した距離画像データ(Ro,Φo,Ψo)をレーザパルス発射時における対象物認識装置の位置(xo,yo,zo)及び姿勢(κo,φo,ωo)と、レーザパルスの入射時における対象物認識装置の位置(xi,yi,zi)及び姿勢(κi,φi,ωi)を用いて既存の方法により補正し、座標変換することにより、デカルト座標におけるパルスレーザの反射位置(Xo,Yo,Zo)を求める。
Subsequently, the flowchart in the present embodiment is the same as the flowchart in the first embodiment. However, for S402, the coordinate
また、図19に示すように、実施例2と同様にデータ処理部57に3次元図形作成部576を備えてもよい。または図20に示すように、実施例3と同様にデータ処理部67に平面テンプレート記憶部677、平面テンプレート照合部678を備えてもよい。
Further, as shown in FIG. 19, the
第5の実施例の構成について、図21を用いて説明する。制御部71、レーザ発射部72、走査光学系73、光−電気変換部74、入射光レベル計測部76、距離画像データ抽出部772、エッジ候補抽出部773、仮想平面計算部774、平面判定部775は、それぞれ実施例1における、制御部11、レーザ発射部12、走査光学系13、入射光レベル計測部16、距離画像データ抽出部172、エッジ候補抽出部173、仮想平面計算部174、平面判定部175と同一機能であり、冗長を避けるため、その説明を省略する。本実施例は実施例1における測距回路部15の代わりに入射時刻計測部75を備え、座標変換部771で対象物までの距離Roを求める。
The configuration of the fifth embodiment will be described with reference to FIG.
光−電気変換部74は、入力されたパルスレーザPiを電気パルスEiに変換し、電気パルスEiを入射光レベル計測部76、及び入射時刻計測部75へ出力する。
The
入射時刻計測部75は入射された電気パルスEiよりパルスレーザPiの入射時刻信号Tiを求める。求められた入射時刻はデータ処理部77の座標変換部771へ出力される。
The incident
座標変換部771は、入射時刻信号Ti、及び制御部71より入力された発射時刻信号Toより(Ti−To)×c/2の計算式により距離Roを求め、実施例1と同様に入力された距離画像データ(Ro,Φo,Ψo)を極座標(Ro,Φo,Ψo)からXo=RocosΨosinΦo、Yo=RocosΨocosΦo、Zo=RosinΨoで表されるデカルト座標(Xo,Yo,Zo)に変換する。なお、図22に示すとおり、実施例2と同様にデータ処理部87に3次元図形作成部876を備えてもよい。または図23に示すとおり、実施例3と同様にデータ処理部97に平面テンプレート記憶部977、平面テンプレート照合部978を備えてもよい。
The coordinate
なお、上述の全ての実施例において、対象物認識装置は発射角度(Φo,Ψo)を変えながらパルスレーザを連続的に発射し、反射されたパルスレーザを入射することにより、対象物全体の距離画像データを取得するよう構成しているが、それに限定されるものではなく、図24に示すようにレーザ等の光を一度に対象物全体に照射し、複数の測定点データを同時に取得するような構成にしてもよい。 In all the above-described embodiments, the object recognition apparatus continuously emits a pulse laser while changing the emission angle (Φo, Ψo), and the reflected pulse laser is incident, whereby the distance of the entire object is detected. Although it is configured to acquire image data, the present invention is not limited to this, and as shown in FIG. 24, the entire object is irradiated with light such as a laser at one time, and a plurality of measurement point data are acquired simultaneously. Any configuration may be used.
また、実施例5において、上述した構成に加えてさらにGPS及び慣性センサを加えた構成としてもよい。また、エッジ候補となる距離画像データを抽出するにあたり、エッジ候補抽出部が入射光レベルをもとに距離画像データを抽出する代わりに、パルスレーザの発射光レベルと入射光レベルの比を比較した反射率をもとに距離画像データを抽出してもよい。また、全ての実施例において、距離画像データ抽出部と座標変換部の順序を逆転させ、まず特定の距離の範囲にあたる距離画像データの抽出を行ってから、抽出されたデータを極座標からデカルト座標に変換するようにしてもよい。このように本発明は上述の実施例に限定されるものではなく、当業者において想到できる範囲で実施の態様を変更するものについても、本発明の思想に含まれる。
In the fifth embodiment, a GPS and an inertial sensor may be added to the above-described configuration. In addition, when extracting the distance image data as the edge candidate, the edge candidate extraction unit compared the ratio of the pulsed laser emission light level to the incident light level instead of extracting the distance image data based on the incident light level. The distance image data may be extracted based on the reflectance. In all the embodiments, the order of the distance image data extraction unit and the coordinate conversion unit is reversed. First, the distance image data corresponding to a specific distance range is extracted, and then the extracted data is changed from polar coordinates to Cartesian coordinates. You may make it convert. As described above, the present invention is not limited to the above-described embodiments, and modifications of the embodiments within the scope conceivable by those skilled in the art are also included in the concept of the present invention.
1、5、7、8、9:対象物認識装置
2、3、6:対象物
4:レーザ
11、21、31、41、51、61、71、81、91:制御部
12、22、32、42、52、62、72、82、92:レーザ発射部
13、23、33、43、53、63、73、83、93:走査光学系
14、24、34、44、54、64、74、84、94:光−電気変換部
15、25、35、45、55、65:測距回路部
16、26、36、46、56、66、76、86、96:入射光レベル計測部
17、27、37、47、57、67、77、87、97:データ処理部
171、271、371、471、571、671、771、871、971:座標変換部
172、272、372、472、572、672、772、872、972:距離画像データ抽出部
173、273、373、473、573、673、773、873、973:エッジ候補抽出部
174、274、374、474、574、674、774、874、974;仮想平面計算部
175、275、375、474、575、675、775、875、975:平面判定部
276、576、876:3次元図形作成部
377、677、977:平面テンプレート記憶部
378、678、978:平面テンプレート照合部
48、58、68:慣性センサ
49、59、69:GPS
75、85、95:入射時刻計測部
1, 5, 7, 8, 9: Object recognition device 2, 3, 6: Object 4: Laser 11, 21, 31, 41, 51, 61, 71, 81, 91: Control unit 12, 22, 32 42, 52, 62, 72, 82, 92: Laser emitting units 13, 23, 33, 43, 53, 63, 73, 83, 93: Scanning optical systems 14, 24, 34, 44, 54, 64, 74 , 84, 94: photoelectric conversion units 15, 25, 35, 45, 55, 65: ranging circuit units 16, 26, 36, 46, 56, 66, 76, 86, 96: incident light level measuring unit 17 27, 37, 47, 57, 67, 77, 87, 97: Data processing units 171, 271, 371, 471, 571, 671, 771, 871, 971: Coordinate conversion units 172, 272, 372, 472, 572 , 672, 772, 872, 972: Distance image Data extraction unit 173, 273, 373, 473, 573, 673, 773, 873, 973: edge candidate extraction unit 174, 274, 374, 474, 574, 674, 774, 874, 974; virtual plane calculation unit 175, 275, 375, 474, 575, 675, 775, 875, 975: plane determination units 276, 576, 876: three-dimensional figure creation units 377, 677, 977: plane template storage units 378, 678, 978: plane template matching unit 48, 58, 68: Inertial sensors 49, 59, 69: GPS
75, 85, 95: Incident time measuring unit
Claims (1)
前記対象物で反射した前記光が入射される入射手段と、
入射された前記光のレベルを計測する入射光レベル計測手段と、
入射された前記光より前記対象物の位置を表す距離画像データを複数取得する距離画像データ取得手段と、
複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出手段と、
抽出された前記第1の条件を満たす前記距離画像データ及び前記レベルに基いて前記対象物のエッジに係る情報を抽出する第2の抽出手段と、
前記エッジに係る情報に基いて前記対象物を認識する認識手段と
前記エッジに係る情報に基いて仮想平面を設定する設定手段と、
前記設定手段において設定された前記仮想平面のうち、第3の条件を満たす仮想平面である平面を抽出する平面抽出手段を備え、
前記認識手段は、前記平面抽出手段において抽出された前記平面に基いて前記対象物を認識するとともに、
前記第3の条件は、前記仮想平面を含む立体図形に含まれる前記距離画像データの数に基いて定められる対象物認識装置。 Launching means for launching light onto the object;
An incident means on which the light reflected by the object is incident;
Incident light level measuring means for measuring the level of the incident light;
Distance image data acquisition means for acquiring a plurality of distance image data representing the position of the object from the incident light;
A first extraction means for extracting the distance image data satisfying a first condition from the plurality of the obtained distance image data;
Second extraction means for extracting information related to an edge of the object based on the distance image data and the level satisfying the extracted first condition;
Recognizing means for recognizing the object based on the information on the edge, and setting means for setting a virtual plane based on the information on the edge;
Of the virtual planes set by the setting means, comprising plane extraction means for extracting a plane that is a virtual plane that satisfies a third condition,
Before SL recognition means may recognize the object based on the plane that has been extracted in the plane extraction means,
The object recognition apparatus in which the third condition is determined based on the number of the distance image data included in the solid figure including the virtual plane.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005138430A JP4779431B2 (en) | 2005-05-11 | 2005-05-11 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005138430A JP4779431B2 (en) | 2005-05-11 | 2005-05-11 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006317221A JP2006317221A (en) | 2006-11-24 |
JP4779431B2 true JP4779431B2 (en) | 2011-09-28 |
Family
ID=37538035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005138430A Expired - Fee Related JP4779431B2 (en) | 2005-05-11 | 2005-05-11 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4779431B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010146357A (en) * | 2008-12-19 | 2010-07-01 | Panasonic Electric Works Co Ltd | Method and apparatus for three-dimensional image processing |
JP5473683B2 (en) * | 2010-03-09 | 2014-04-16 | 三菱電機株式会社 | Feature detection system |
US8666656B2 (en) | 2011-03-04 | 2014-03-04 | Mitsubishi Electric Corporation | Object detection device and navigation device |
TW201418662A (en) * | 2012-11-15 | 2014-05-16 | Nat Applied Res Laboratories | Remote crack measurement method and device thereof |
JP6399840B2 (en) * | 2014-07-22 | 2018-10-03 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP6788537B2 (en) * | 2017-03-28 | 2020-11-25 | 本田技研工業株式会社 | Object edge detection method using a laser ranging device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0777408A (en) * | 1993-07-12 | 1995-03-20 | Sekisui Chem Co Ltd | End section position measuring method for object |
JP3225501B2 (en) * | 1995-08-31 | 2001-11-05 | 日本精機株式会社 | Distance measuring device |
JPH10143659A (en) * | 1996-11-06 | 1998-05-29 | Komatsu Ltd | Object detector |
JP2000180547A (en) * | 1998-12-18 | 2000-06-30 | Hitachi Ltd | Obstacle detecting device |
JP2000206241A (en) * | 1999-01-13 | 2000-07-28 | Honda Motor Co Ltd | Radar apparatus |
JP2003141567A (en) * | 2001-11-07 | 2003-05-16 | Japan Science & Technology Corp | Three-dimensional city model generating device and method of generating three-dimensional city model |
-
2005
- 2005-05-11 JP JP2005138430A patent/JP4779431B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006317221A (en) | 2006-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11906670B2 (en) | Interference mitigation for light detection and ranging | |
Ghorpade et al. | Obstacle detection and avoidance algorithm for autonomous mobile robot using 2D LiDAR | |
CN102460065A (en) | Information processing apparatus, information processing method, and program | |
CN112861653A (en) | Detection method, system, equipment and storage medium for fusing image and point cloud information | |
US20150288947A1 (en) | Position and location detection of objects | |
CN1940591A (en) | System and method of target tracking using sensor fusion | |
US10739439B2 (en) | Laser positioning system and position measuring method using the same | |
CN110411366A (en) | A kind of detection method and electronic equipment of road depth of accumulated water | |
CN110799802B (en) | Object measurement for light detection and ranging system | |
CN108780149B (en) | Method for improving the detection of at least one object in the surroundings of a motor vehicle by indirect measurement of a sensor, control unit, driver assistance system and motor vehicle | |
EP3769120A1 (en) | Object detection system and method | |
JPWO2019194255A1 (en) | Arithmetic processing unit, object identification system, object identification method, automobile, vehicle lighting equipment | |
CN111580116A (en) | Method for evaluating target detection performance of vehicle-mounted system and electronic equipment | |
CN110687521B (en) | Method for calibrating vehicle-mounted laser radar | |
CN112668603A (en) | Method and device for generating training data for a recognition model for recognizing objects in sensor data, training method and control method | |
US20210117702A1 (en) | Methods and systems for identifying material composition of objects | |
CN114663526A (en) | Obstacle detection method, obstacle detection device, robot and computer-readable storage medium | |
JP4779431B2 (en) | Object recognition device | |
CN113835101A (en) | Vehicle positioning method and device based on radar point cloud and storage medium | |
CN202903176U (en) | Visual range finder of laser auxiliary machine | |
KR102683455B1 (en) | Object detection system and method using multi-coordinate system features of lidar data | |
Li et al. | Real time obstacle detection in a water tank environment and its experimental study | |
WO2021152340A1 (en) | Object recognition method and object recognition device | |
US11640703B2 (en) | Method for classifying measuring points of a point cloud | |
JP7027574B2 (en) | A method for determining the alignment of the photoelectric sensor by the scan point of the sensor image, and the photoelectric sensor. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20070119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080212 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20080613 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20090512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101214 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110607 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110620 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140715 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |