[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4779431B2 - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP4779431B2
JP4779431B2 JP2005138430A JP2005138430A JP4779431B2 JP 4779431 B2 JP4779431 B2 JP 4779431B2 JP 2005138430 A JP2005138430 A JP 2005138430A JP 2005138430 A JP2005138430 A JP 2005138430A JP 4779431 B2 JP4779431 B2 JP 4779431B2
Authority
JP
Japan
Prior art keywords
image data
plane
distance image
unit
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005138430A
Other languages
Japanese (ja)
Other versions
JP2006317221A (en
Inventor
公一 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2005138430A priority Critical patent/JP4779431B2/en
Publication of JP2006317221A publication Critical patent/JP2006317221A/en
Application granted granted Critical
Publication of JP4779431B2 publication Critical patent/JP4779431B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、対象物を認識する対象物認識装置及び認識方法、に関するものである。   The present invention relates to an object recognition device and a recognition method for recognizing an object.

3次元の対象物を認識する方法の一つに、対象物上のある点の距離画像を表すデータを取得して、得られた距離画像から対象物を認識する方法がある。距離画像とは撮影対象物表面の3次元位置情報が区分され格子状に並べられた画像であり、区分された画像は画素と呼ばれる。   One method for recognizing a three-dimensional object is to acquire data representing a distance image of a certain point on the object and recognize the object from the obtained distance image. The distance image is an image in which the three-dimensional position information on the surface of the object to be imaged is divided and arranged in a grid pattern, and the divided image is called a pixel.

図25はパルスレーザを用いて距離計測を行う対象物認識装置1について、物体の距離画像データを取得する様子を表した図である。なお、距離画像データとは、対象物などの位置を表すデータである。図25において対象物2が格子状に区分して表現されているが、この格子の個々のマスはパルスレーザが照射される範囲を示しており、また、距離が計測される画素の1単位に対応している。   FIG. 25 is a diagram illustrating a state in which object distance image data is acquired with respect to the object recognition apparatus 1 that performs distance measurement using a pulse laser. The distance image data is data representing the position of an object or the like. In FIG. 25, the object 2 is represented by being divided into a lattice shape, and each mass of the lattice indicates a range irradiated with the pulse laser, and one unit of a pixel whose distance is measured. It corresponds.

このように対象物認識装置は対象物全体を画素単位に区分し、繰り返しパルスレーザを照射することによって、対象物全体についての距離画像データを取得する。しかしこの距離画像データ自体は単にパルスレーザが反射された点の位置を示すものの集合にすぎず、それだけでは3次元の対象物を認識することはできない。そこで、3次元の対象物を認識するためにはこのようにして得られた距離画像データから所望の対象物が抽出されなければならない。ここで対象物を抽出する、とは取得された距離画像データに基づいて、対象物の外形を把握することをいう。   In this way, the object recognition apparatus divides the entire object into pixel units, and repeatedly obtains distance image data for the entire object by irradiating pulse laser. However, the distance image data itself is merely a collection of points indicating the positions of the points reflected by the pulse laser, and it is not possible to recognize a three-dimensional object by itself. Therefore, in order to recognize a three-dimensional object, a desired object must be extracted from the distance image data thus obtained. Here, extracting the object means grasping the outer shape of the object based on the acquired distance image data.

3次元の対象物を認識するための方法としては、取得した距離画像データから対象物の外形をまず抽出し、その後抽出された外形の中に含まれる距離画像データと、予め対象物認識装置に保存されている、対象物認識装置が認識しようとする対象物のデータである3次元のテンプレートと、をマッチングすることによって対象物を認識する方法がある(非特許文献1及び非特許文献2参照)。
As a method for recognizing a three-dimensional object, the outline of the object is first extracted from the acquired distance image data, and then the distance image data included in the extracted outline and the object recognition apparatus in advance. There is a method for recognizing an object by matching a stored three-dimensional template that is data of the object to be recognized by the object recognition device (see Non-Patent Document 1 and Non-Patent Document 2). ).

上記非特許文献1及び非特許文献2に記載されている方法のいずれも、マッチングにおいて、取得した距離画像データのどの点とどの点が対象物の同一平面上にあるかを考慮することなく、単に抽出された距離画像データの全ての点と3次元のテンプレートとが一致するか否かを判定する方法を用いている。しかしながら、これらの方法では取得した距離画像データと3次元のテンプレートとの照合に必要な計算量が膨大で、対象物の認識に時間を要するため、対象物、特に高速で移動する物体を迅速に認識することは困難であった。   In any of the methods described in Non-Patent Document 1 and Non-Patent Document 2, in the matching, without considering which point of the acquired distance image data and which point are on the same plane of the object, A method is used in which it is determined whether or not all the points of the extracted distance image data match the three-dimensional template. However, in these methods, the amount of calculation required for collating the acquired distance image data with the three-dimensional template is enormous, and it takes time to recognize the object. It was difficult to recognize.

本願発明は、距離画像データから対象物を認識するにあたり、取得した距離画像データから対象物の一部であるエッジに係る情報を抽出し、そのエッジに係る情報を利用して対象物の平面を迅速に抽出する対象物認識装置及び認識方法を提供する。   In recognizing the object from the distance image data, the present invention extracts information related to the edge that is a part of the object from the acquired distance image data, and uses the information related to the edge to determine the plane of the object. Provided are an object recognition device and a recognition method for quick extraction.

また、取得した距離画像データから対象物の一部であるエッジに係る情報を抽出し、そのエッジに係る情報を利用して対象物の平面を抽出する、移動体に搭載される対象物認識装置及び認識方法を提供する。   An object recognition device mounted on a moving body that extracts information related to an edge that is a part of the object from the acquired distance image data, and extracts a plane of the object using the information related to the edge. And a recognition method.

本発明によれば、取得した距離画像データから対象物を認識するにあたり、その対象物の一部であるエッジラインなどのエッジに係る情報をまず抽出し、そのエッジに係る情報を利用して対象物の平面を抽出するので、平面を抽出するための距離画像データの処理を効率よく行うことができ、データの処理に用いられる計算量を削減することができ、特に高速で移動する対象物であっても正確に抽出することができる。   According to the present invention, in recognizing an object from the acquired distance image data, information related to an edge such as an edge line that is a part of the object is first extracted, and the object related to the edge is used using the information related to the edge. Since the plane of the object is extracted, the processing of the distance image data for extracting the plane can be performed efficiently, the amount of calculation used for processing the data can be reduced, and particularly for an object that moves at high speed. Even if it exists, it can extract correctly.

また、対象物認識装置が移動体に搭載され、対象物認識装置が高速で移動する場合においても、対象物を正確に認識することができる。

IEEE TRANSACTION ON IMAGE PROCESSING, VOL.10 NO.4 APRIL, 2001 “Model−Based Target Recognition in Pulsed Ladar Imagery“ Proceedings of SPIE Volume.2748 Laser Radar Technology and Applications p272−282 ”Identification of vehicle targets from low−cost ladar seeker imagery”
Further, even when the object recognition device is mounted on a moving body and the object recognition device moves at high speed, the object can be accurately recognized.

IEEE TRANSACTION ON IMAGE PROCESSING, VOL. 10 NO. 4 APRIL, 2001 “Model-Based Target Recognition in Pulsed Ladar Image“ Proceedings of SPIE Volume. 2748 Laser Radar Technology and Applications p272-282 “Identification of vehicle targets from low-cost lader seeker image”

本発明は、少なくとも一部の対象物の位置を表す距離画像データに基いて前記対象物のエッジに係る情報を抽出する抽出手段と、前記エッジに係る情報に基いて前記対象物を認識する認識手段、を備える対象物認識装置、であることを特徴とする。   The present invention provides extraction means for extracting information related to an edge of the target object based on distance image data representing the position of at least a part of the target object, and recognition for recognizing the target object based on the information related to the edge An object recognition device comprising means.

また、本発明は、少なくとも一部の対象物の位置を表す距離画像データを複数取得する距離画像データ取得手段と、複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出手段と、抽出された前記第1の条件を満たす前記距離画像データに基いて前記対象物のエッジに係る情報を抽出する第2の抽出手段と、前記情報に基いて前記対象物を認識する認識手段、を備える対象物認識装置、であることを特徴とする。   Further, the present invention provides distance image data acquisition means for acquiring a plurality of distance image data representing the positions of at least some of the objects, and the distance image data satisfying a first condition among the plurality of acquired distance image data. First extraction means for extracting the information, second extraction means for extracting information relating to the edge of the object based on the distance image data that satisfies the extracted first condition, and based on the information It is a target object recognition apparatus provided with the recognition means which recognizes the said target object, It is characterized by the above-mentioned.

また、本発明は、光を対象物へ発射する発射手段と、前記対象物で反射した前記光が入射される入射手段と、入射された前記光のレベルを計測する入射光レベル計測手段と、入射された前記光より前記対象物の位置を表す距離画像データを複数取得する距離画像データ取得手段と、複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出手段と、抽出された前記第1の条件を満たす前記距離画像データ及び前記レベルに基いて前記対象物のエッジに係る情報を抽出する第2の抽出手段と、前記エッジに係る情報に基いて前記対象物を認識する認識手段、を備える対象物認識装置、であることを特徴とする。   Further, the present invention is a launching means for emitting light to an object, an incident means for entering the light reflected by the object, an incident light level measuring means for measuring the level of the incident light, Distance image data acquisition means for acquiring a plurality of distance image data representing the position of the object from the incident light, and extracting the distance image data satisfying a first condition from the plurality of acquired distance image data First extraction means; second extraction means for extracting information relating to the edge of the object based on the extracted range image data and the level satisfying the first condition; and information relating to the edge An object recognition apparatus comprising a recognition means for recognizing the object based on the object.

さらに前記対象物認識装置は、前記エッジに係る情報は前記対象物のエッジラインである、対象物認識装置であることが望ましい。   Furthermore, it is preferable that the object recognition apparatus is an object recognition apparatus in which the information related to the edge is an edge line of the object.

さらに前記エッジに係る情報は前記対象物の頂点である、対象物認識装置、であることが望ましい。   Furthermore, it is desirable that the information related to the edge is an object recognition device that is a vertex of the object.

さらに前記第1の条件は、前記対象物までの距離に基いて定められる、対象物認識装置、であることが望ましい。   Furthermore, it is desirable that the first condition is an object recognition device that is determined based on a distance to the object.

さらに前記第2の抽出手段は、前記第1の条件を満たす前記距離画像データ及び前記光のレベルに基いて前記対象物を構成する平面のエッジライン候補を抽出し、前記エッジライン候補のうち、第2の条件を満たすエッジライン候補を抽出する手段である、対象物認識装置、であることが望ましい。   Further, the second extraction means extracts the edge line candidates of the plane constituting the object based on the distance image data and the light level that satisfy the first condition, and among the edge line candidates, It is desirable that the target object recognition apparatus be a means for extracting edge line candidates that satisfy the second condition.

さらに前記第2の条件は、前記エッジライン候補を含む立体図形に含まれる前記距離画像データの数に基いて定められる、対象物認識装置、であることが望ましい。   Furthermore, it is desirable that the second condition is an object recognition device that is determined based on the number of the distance image data included in the solid figure including the edge line candidate.

さらに前記対象物認識装置は、前記エッジに係る情報に基いて前記対象物を構成する平面を抽出する平面抽出手段を有し、前記認識手段は、前記平面抽出手段によって抽出された前記平面に基いて前記対象物を認識する、対象物認識装置、であることが望ましい。   Further, the object recognition device has plane extraction means for extracting a plane constituting the object based on information on the edge, and the recognition means is based on the plane extracted by the plane extraction means. And an object recognition device that recognizes the object.

さらに、前記エッジに係る情報に基いて仮想平面を設定する設定手段と、前記設定手段において設定された前記仮想平面のうち、第3の条件を満たす仮想平面である平面を抽出する平面抽出手段を備え、前記認識手段は、前記平面抽出手段において抽出された前記平面に基いて前記対象物を認識する、対象物認識装置、であることが望ましい。   A setting unit configured to set a virtual plane based on the information relating to the edge; and a plane extracting unit configured to extract a plane that is a virtual plane satisfying a third condition among the virtual planes set in the setting unit. Preferably, the recognition means is an object recognition device that recognizes the object based on the plane extracted by the plane extraction means.

さらに前記第3の条件は、前記仮想平面を含む立体図形に含まれる前記距離画像データの数に基いて定められる、対象物認識装置、であることが望ましい。   Furthermore, it is desirable that the third condition is an object recognition device that is determined based on the number of the distance image data included in the three-dimensional figure including the virtual plane.

さらに前記認識手段は、前記平面抽出手段において抽出された前記平面を組合わせた図形に基いて対象物を認識する手段を備える、対象物認識装置、であることが望ましい。   Furthermore, it is desirable that the recognition means is an object recognition device provided with means for recognizing an object based on a combination of the planes extracted by the plane extraction means.

さらに対象物のテンプレートを記録する記憶手段と、前記平面と前記テンプレートを照合する照合手段とを備え、前記認識手段は、前記照合手段において前記テンプレートと一致する前記平面に基いて前記対象物を認識する手段を備える、対象物認識装置、であることが望ましい。   The apparatus further comprises storage means for recording a template of the object, and collation means for collating the plane with the template, wherein the recognition means recognizes the object based on the plane that matches the template in the collation means. It is desirable that the object recognition apparatus includes means for performing the above-described operation.

また、本発明は、対象物の位置を表す距離画像データに基いて前記対象物のエッジに係る情報を抽出し、前記情報に基いて前記対象物を認識する、対象物認識装置、であることを特徴とする。   Further, the present invention is an object recognition device that extracts information related to an edge of the object based on distance image data representing the position of the object and recognizes the object based on the information. It is characterized by.

さらに自装置の位置及び姿勢を認識するためのGPS及び慣性センサを備え、前記距離画像データは、前記GPS及び前記慣性センサにおいて認識された前記自装置の位置及び姿勢に基づいたデータである、対象物認識装置、であることが望ましい。   Further, the object includes a GPS and an inertial sensor for recognizing the position and orientation of the own device, and the distance image data is data based on the position and orientation of the own device recognized by the GPS and the inertial sensor. It is desirable to be an object recognition device.

また、本発明は、対象物の位置を表す距離画像データに基いて前記対象物のエッジに係る情報を抽出する抽出ステップと、前記情報に基いて前記対象物を認識する認識ステップ、を備える対象物認識方法、であることを特徴とする。   The present invention also includes an extraction step of extracting information related to the edge of the target object based on distance image data representing the position of the target object, and a recognition step of recognizing the target object based on the information. It is an object recognition method.

また、本発明は、対象物の位置を表す距離画像データを複数取得する距離画像データ取得ステップと、複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出ステップと、抽出された前記第1の条件を満たす前記距離画像データに基いて前記対象物のエッジに係る情報を抽出する第2の抽出ステップと、前記情報に基いて前記対象物を認識する認識ステップ、を備える対象物認識方法、であることを特徴とする。   Further, the present invention provides a distance image data acquisition step for acquiring a plurality of distance image data representing the position of an object, and a step of extracting the distance image data satisfying a first condition from the plurality of acquired distance image data. A first extraction step, a second extraction step for extracting information relating to an edge of the object based on the extracted distance image data satisfying the first condition, and the object based on the information. An object recognition method comprising: a recognition step for recognizing.

また、本発明は、光を対象物へ発射する発射ステップと、前記対象物で反射した前記光が入射される入射ステップと、入射された前記光のレベルを計測する入射光レベル計測ステップと、入射された前記光より前記対象物の位置を表す距離画像データを複数取得する距離画像データ取得ステップと、複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出ステップと、抽出された前記第1の条件を満たす前記距離画像データ及び前記レベルに基いて前記対象物のエッジに係る情報を抽出する第2の抽出ステップと、前記エッジに係る情報に基いて前記対象物を認識する認識ステップ、を備える対象物認識方法、であることを特徴とする。
Further, the present invention includes a launching step of emitting light to an object, an incident step in which the light reflected by the object is incident, an incident light level measuring step of measuring the level of the incident light, A distance image data acquisition step for acquiring a plurality of distance image data representing the position of the object from the incident light, and extracting the distance image data satisfying a first condition from the plurality of acquired distance image data A first extraction step; a second extraction step for extracting information relating to the edge of the object based on the distance image data and the level satisfying the extracted first condition; and information relating to the edge And a recognition step for recognizing the object on the basis of the object recognition method.

本実施例の対象物認識装置のブロック図を図1に示す。制御部11は、レーザ発射部12がパルスレーザPoを発射する時刻を表す発射時刻信号Toを、レーザ発射部12及び測距回路部15へ出力する。また、パルスレーザPoの強度を表す発射強度信号Voが制御部11からレーザ発射部12へ出力される。   A block diagram of the object recognition apparatus of the present embodiment is shown in FIG. The control unit 11 outputs a firing time signal To that indicates the time at which the laser emitting unit 12 emits the pulse laser Po to the laser emitting unit 12 and the distance measuring circuit unit 15. Further, a firing intensity signal Vo representing the intensity of the pulse laser Po is output from the control unit 11 to the laser emitting unit 12.

レーザ発射部12は、入力された発射時刻信号To及び発射強度信号Voにしたがって走査光学系13へパルスレーザPoを発射する。   The laser emitting unit 12 emits a pulse laser Po to the scanning optical system 13 in accordance with the input emission time signal To and the emission intensity signal Vo.

走査光学系13は、レーザ発射部12から発射されたパルスレーザPoを2軸方向に走査してパルスレーザPoを外部へ発射し、また、対象物によって反射されたパルスレーザPiを入射する。入射されたパルスレーザPiは光−電気変換部14へ出力される。また、走査光学系13は、パルスレーザPo発射時における走査角度のAZ角Φ及びEL角Ψを表す発射角度(Φo,Ψo)を後述する座標変換部171に出力する。   The scanning optical system 13 scans the pulse laser Po emitted from the laser emitting unit 12 in the biaxial direction, emits the pulse laser Po to the outside, and enters the pulse laser Pi reflected by the object. The incident pulse laser Pi is output to the photoelectric converter 14. Further, the scanning optical system 13 outputs the firing angle (Φo, ψo) representing the AZ angle Φ and the EL angle Ψ of the scanning angle when the pulse laser Po is emitted to the coordinate conversion unit 171 described later.

光−電気変換部14は、入力されたパルスレーザPiを電気パルスEiに変換する。変換された電気パルスEiは測距回路部15及び入射光レベル計測部16へ出力される。   The photoelectric conversion unit 14 converts the input pulse laser Pi into an electric pulse Ei. The converted electric pulse Ei is output to the distance measuring circuit unit 15 and the incident light level measuring unit 16.

測距回路部15は、入力された電気パルスEiより得られる入射時刻信号Tiと、パルスレーザPoの発射時刻を表す発射時刻信号Toを用いて、Ti−Toで表される計算を行い、パルスレーザPoを発射してからパルスレーザPiが入射されるまでの時間を求める。またcを光速とすると(Ti−To)×c/2で表される計算により、対象物までの距離Roが求められる。求められた距離Roは座標変換部171へ出力される。   The distance measuring circuit unit 15 performs a calculation represented by Ti-To using the incident time signal Ti obtained from the input electric pulse Ei and the emission time signal To representing the emission time of the pulse laser Po, and performs a calculation represented by Ti-To. The time from when the laser Po is emitted until the pulse laser Pi is incident is obtained. If c is the speed of light, the distance Ro to the object can be obtained by calculation represented by (Ti−To) × c / 2. The obtained distance Ro is output to the coordinate conversion unit 171.

入射光レベル計測部16は、入力された電気パルスEiからパルスレーザPiの入射光レベルViを計測する。計測された入射光レベルViはエッジ候補抽出部173へ出力される。   The incident light level measurement unit 16 measures the incident light level Vi of the pulse laser Pi from the input electric pulse Ei. The measured incident light level Vi is output to the edge candidate extraction unit 173.

座標変換部171は、入力された発射角度(Φo,Ψo)及び対象物までの距離Roからなる距離画像データ(Ro,Φo,Ψo)を極座標(Ro,Φo,Ψo)からXo=RocosΨosinΦo、Yo=RocosΨocosΦo、Zo=RosinΨoで表されるデカルト座標(Xo,Yo,Zo)に変換する。極座標とデカルト座標の関係は図2に示すとおりである。座標変換された距離画像データ(Xo,Yo,Zo)と対象物までの距離Roはそれぞれ対応させて距離画像データ抽出部172へ出力される。   The coordinate conversion unit 171 calculates the distance image data (Ro, Φo, Ψo) including the input launch angle (Φo, Ψo) and the distance Ro to the object from the polar coordinates (Ro, Φo, Ψo), Xo = Rocos ΨosinΦo, Yo. = Rocos [Psi] ocos [Phi] o, and Zo = Rosin [Psi] o (Xo, Yo, Zo). The relationship between polar coordinates and Cartesian coordinates is as shown in FIG. The distance image data (Xo, Yo, Zo) subjected to coordinate conversion and the distance Ro to the object are output to the distance image data extraction unit 172 in association with each other.

なお、本発明では対象物を構成する平面を抽出するために充分な量の距離画像データが必要であるので、発射角度(Φo,Ψo)を変えながらパルスレーザPoを繰り返し発射し、反射されたパルスレーザPiを入射することにより、複数取得した前記距離画像データを取得している。したがって、座標変換部171では、複数取得した前記距離画像データが座標変換されて、距離画像データ抽出部172へ出力される。   In the present invention, a sufficient amount of distance image data is necessary to extract the plane constituting the object. Therefore, the pulse laser Po is repeatedly emitted and reflected while changing the emission angle (Φo, Ψo). A plurality of the acquired distance image data are acquired by entering a pulse laser Pi. Therefore, the coordinate conversion unit 171 performs coordinate conversion on the plurality of acquired distance image data, and outputs the result to the distance image data extraction unit 172.

距離画像データ抽出部172は、特定範囲の距離Rd〜Rd+ΔRに含まれる、距離Roに対応する距離画像データ(Xo,Yo,Zo)を抽出する。   The distance image data extraction unit 172 extracts distance image data (Xo, Yo, Zo) corresponding to the distance Ro included in the distances Rd to Rd + ΔR in the specific range.

抽出される距離の範囲を表すΔRの値は、ΔRと距離Rdとの比率を考慮して誤差が問題とならないような値に設定される。例えばRd=1000[m]、ΔR=10[m]とすると距離を要因とする入射光レベルの差、つまり距離Rd及びRd+ΔRにおける入射光レベルの差は数%であり、この程度であれば誤差は問題にならない。抽出された距離画像データ(Xo,Yo,Zo)はエッジ候補抽出部173及び平面判定部175へ出力される。   The value of ΔR representing the range of distances to be extracted is set to a value that does not cause an error in consideration of the ratio between ΔR and the distance Rd. For example, if Rd = 1000 [m] and ΔR = 10 [m], the difference in incident light level due to distance, that is, the difference in incident light level at distances Rd and Rd + ΔR is several percent. Is not a problem. The extracted distance image data (Xo, Yo, Zo) is output to the edge candidate extraction unit 173 and the plane determination unit 175.

エッジ候補抽出部173は、入力された距離画像データ(Xo,Yo,Zo)に対応する入射光レベルViを用いて、対象物を構成する平面の辺または頂点にあたる、エッジラインまたは頂点エッジを表す距離画像データの候補である、エッジ候補を抽出する。これは、入射光レベルViが所定値、例えば距離画像データの入射光レベルの最大値の1/2以下、の条件を満たす計測点がエッジの一部を構成する候補として抽出される。このように入射光レベルの違いによってエッジ候補か否かが判断されるのは、平面が異なれば対象物認識装置から入射されるレーザの入射範囲や入射角が異なることにより入射光レベルも異なるからである。図3において、(a)、(b)、(c)の順に対象物3がレーザ4に照射される範囲が小さくなるので、(a)、(b)、(c)の順に入射光レベルは小さくなる。また、入射光レベルは入射されるレーザの角度によっても異なり、面に対して垂直に近い角度で照射されるほど大きい。図4においては(a)、(b)、(c)の順に入射光レベルは小さくなる。特に対象物が直方体状である場合、互いに隣接する2つの面がほぼ垂直であるので両面に入射される入射光レベルの差は非常に大きくなる。   The edge candidate extraction unit 173 uses the incident light level Vi corresponding to the input distance image data (Xo, Yo, Zo) to represent an edge line or vertex edge corresponding to a side or vertex of a plane constituting the object. Edge candidates that are distance image data candidates are extracted. The measurement points satisfying the condition that the incident light level Vi is a predetermined value, for example, ½ or less of the maximum value of the incident light level of the distance image data, are extracted as candidates constituting a part of the edge. The reason for determining whether or not an edge candidate is based on the difference in the incident light level is that if the plane is different, the incident light level is different depending on the incident range and angle of the laser incident from the object recognition device. It is. In FIG. 3, since the range in which the object 3 is irradiated on the laser 4 becomes smaller in the order of (a), (b), and (c), the incident light level is in the order of (a), (b), and (c). Get smaller. Further, the incident light level varies depending on the angle of the incident laser, and is so large that the light is irradiated at an angle close to perpendicular to the surface. In FIG. 4, the incident light level decreases in the order of (a), (b), and (c). In particular, when the object has a rectangular parallelepiped shape, the two adjacent surfaces are almost perpendicular, so the difference in the incident light level incident on both surfaces becomes very large.

また、エッジ候補抽出部173は、エッジラインの抽出に充分な範囲の距離画像データ数が抽出されたかどうかの判定を行い、距離画像データの数が充分でないと判定したときには距離画像データ抽出部172にエッジ候補データを再度要求する。要求された距離画像データ抽出部172は、距離の範囲をΔR増加してRd+ΔR〜Rd+2ΔRの条件を満たす距離Roに対応する距離画像データを抽出し、それ以後充分なデータ数が抽出されるまで距離の範囲をΔRずつ増加させ、上述の動作を繰り返す。   The edge candidate extraction unit 173 determines whether or not the number of distance image data in a range sufficient for edge line extraction has been extracted. If it is determined that the number of distance image data is not sufficient, the distance image data extraction unit 172 Request edge candidate data again. The requested distance image data extraction unit 172 increases the distance range by ΔR, extracts distance image data corresponding to the distance Ro satisfying the condition of Rd + ΔR to Rd + 2ΔR, and thereafter, until the sufficient number of data is extracted. And the above operation is repeated.

充分な距離画像データ数が抽出されたと判断したときには、エッジ候補抽出部173はエッジ候補データからエッジ候補ラインを抽出する。例えば図5に示すように、まず距離画像データの中から任意の1点を抽出し、その点をエッジ候補点D1とする。そして、エッジ候補点D1と最も距離が近いエッジ候補点D2を結ぶエッジ候補ラインL1を想定し、その他のエッジ候補データがエッジ候補ラインL1を中心とする所定の円筒形などの立体図形の空間の中に所定の個数以上存在するときに、このエッジ候補ラインL1が実際のエッジラインであると判断する。この円筒形などの立体図形の空間の大きさ及びエッジ候補データの所定の個数は、パルスレーザPoの発射回数や発射角度(Φo,Ψo)の範囲などを考慮して予め決定される。エッジ候補ラインを表す直線式は一般的な幾何数学にある直線の方程式を用いればよい。   When it is determined that a sufficient number of distance image data has been extracted, the edge candidate extraction unit 173 extracts edge candidate lines from the edge candidate data. For example, as shown in FIG. 5, first, an arbitrary point is extracted from the distance image data, and that point is set as an edge candidate point D1. Then, assuming an edge candidate line L1 that connects the edge candidate point D2 that is closest to the edge candidate point D1, the other edge candidate data is in a space of a three-dimensional figure such as a predetermined cylinder centered on the edge candidate line L1. When a predetermined number or more exist, the edge candidate line L1 is determined to be an actual edge line. The size of the space of the solid figure such as the cylindrical shape and the predetermined number of edge candidate data are determined in advance in consideration of the number of firings of the pulse laser Po, the range of firing angles (Φo, Ψo), and the like. The straight line expression representing the edge candidate line may be a straight line equation in general geometric mathematics.

なお、ここで自動車など特定の対象物を認識する場合にはある程度エッジラインの長さは想定できるので、迅速な抽出処理を行うため、想定される対象物の大きさをもとにエッジラインの長さを所定値の範囲内であると予め設定することもできる。また同じく自動車など特定の対象物を検出する場合には平面の存在する位置の範囲も所定の範囲内と想定できるので、エッジラインの存在する範囲を所定の範囲に限定するように設定することもできる。   In addition, when recognizing a specific target object such as an automobile, the length of the edge line can be assumed to some extent. Therefore, in order to perform a quick extraction process, the edge line size is determined based on the assumed target size. It is also possible to preset the length to be within a predetermined value range. Similarly, when detecting a specific object such as an automobile, the range of the position where the plane exists can also be assumed to be within the predetermined range, so the range where the edge line exists can be set to be limited to the predetermined range. it can.

本処理によってエッジラインL1が抽出されるとともに、そのエッジラインL1の両端の距離画像データである、平面の頂点を表す頂点エッジV1、V2が得られる。このエッジラインの端点である頂点エッジの位置は、立体図形の長さを伸縮し、そのときの立体図形に含まれるエッジ候補データの個数の増減を求めることによりエッジラインの端点を求めてもよいし、エッジ候補データの位置と個数の分布から求めてもよい。得られたエッジ候補ラインL1及び頂点エッジV1、V2はエッジ候補抽出部173から仮想平面計算部174に出力される。   The edge line L1 is extracted by this process, and vertex edges V1 and V2 representing the vertexes of the plane, which are distance image data at both ends of the edge line L1, are obtained. The position of the vertex edge that is the end point of the edge line may be obtained by expanding or contracting the length of the solid figure and obtaining the increase or decrease of the number of edge candidate data included in the solid figure at that time. Alternatively, it may be obtained from the distribution of the position and number of edge candidate data. The obtained edge candidate line L1 and vertex edges V1 and V2 are output from the edge candidate extraction unit 173 to the virtual plane calculation unit 174.

仮想平面計算部174は、図6に記載されたように、求められたエッジラインL1を一辺とする複数の仮想平面の候補を設定し、その情報を、平面判定部175に出力する。平面の方程式は一般的な幾何数学における平面の方程式を用いればよい。   As illustrated in FIG. 6, the virtual plane calculation unit 174 sets a plurality of virtual plane candidates having the obtained edge line L <b> 1 as one side, and outputs the information to the plane determination unit 175. The plane equation may be a plane equation in general geometric mathematics.

平面判定部175は、仮想平面計算部174から出力された情報に基づく複数の仮想平面S1、S2、S3…を含む立体図形(例えば薄い直方体)F1、F2、F3を設定し、設定した立体図形それぞれが、距離画像データ抽出部172から出力された距離画像データをどれだけ含むかを算出する。多くの距離画像データを含む立体図形に含まれる平面ほど実在する平面の可能性が高いと判定する。例えば、立体図形F2が距離画像データを最も多く含む場合には、立体図形F2に含まれる仮想平面S2が対象物を構成する実在する平面の一つとして判定され、抽出される。   The plane determination unit 175 sets a solid figure (for example, a thin rectangular parallelepiped) F1, F2, and F3 including a plurality of virtual planes S1, S2, S3... Based on information output from the virtual plane calculation unit 174, and sets the solid figure Each of them calculates how much distance image data output from the distance image data extraction unit 172 is included. It is determined that a plane included in a solid figure including a lot of distance image data has a higher possibility of a real plane. For example, when the three-dimensional figure F2 includes the largest amount of distance image data, the virtual plane S2 included in the three-dimensional figure F2 is determined as one of the existing planes constituting the object and extracted.

ここで、例えば対象物が立方体や直方体などある1つの平面のエッジラインが他の1つの平面のエッジラインでもある場合を想定し、効率よく平面を抽出できるよう、平面判定部175が仮想平面計算部174から出力された情報に基づく複数の仮想平面の中から少なくとも平面を2つ同時に抽出してもよい。このとき、複数の平面を抽出する条件としては、例えば、平面を含む立体図形に含まれる距離画像データの数が所定値以上であるとすることが考えられる。また、平面判定部175において、少なくとも1つの平面が抽出されれば、抽出された平面を構成する少なくとも4つのエッジライン及び4個の頂点エッジが抽出されるため、それらの情報を仮想平面計算部174に出力し、仮想平面計算部174はそれらの情報を利用して新たな仮想平面を設定してもよい。さらに、上述の記載ではエッジ候補抽出部173がエッジライン及び頂点エッジを求めているが、エッジラインを求めることなくまず上述した通りに頂点エッジを求め、その頂点エッジを仮想平面計算部174に出力し、仮想平面計算部は頂点エッジをもとに仮想平面を設定するようにしてもよい。   Here, for example, assuming that the edge line of one plane such as a cube or a rectangular parallelepiped is also the edge line of another plane, the plane determination unit 175 performs virtual plane calculation so that the plane can be efficiently extracted. At least two planes may be simultaneously extracted from a plurality of virtual planes based on the information output from the unit 174. At this time, as a condition for extracting a plurality of planes, for example, it is conceivable that the number of distance image data included in the solid figure including the planes is equal to or greater than a predetermined value. Further, if at least one plane is extracted in the plane determination unit 175, at least four edge lines and four vertex edges constituting the extracted plane are extracted. And the virtual plane calculation unit 174 may set a new virtual plane using the information. Further, in the above description, the edge candidate extraction unit 173 obtains the edge line and the vertex edge, but first obtains the vertex edge as described above without obtaining the edge line, and outputs the vertex edge to the virtual plane calculation unit 174. The virtual plane calculation unit may set a virtual plane based on the vertex edge.

なお現実には、自動車等などの対象物は完全な平面から構成されることはほとんどない。したがって対象物を適切に抽出するためには、平面のみならず、若干凹状や凸状になった部分などを含んだ略平面も抽出する必要がある。そのため、略平面の凹凸により、同一の略平面によって反射され、本対象物認識装置に入射されるレーザパルスの入射光レベルに差があったとしても、本対象物認識装置はその差を誤差の範囲とするようエッジ候補抽出部173を設定することなどにより、略平面であっても抽出できるようにする。なお、本明細書において記載されている平面には略平面も含まれるものとする。   In reality, an object such as an automobile is hardly composed of a complete plane. Therefore, in order to appropriately extract an object, it is necessary to extract not only a plane but also a substantially plane including a slightly concave or convex portion. Therefore, even if there is a difference in the incident light level of the laser pulse that is reflected by the same substantially flat surface due to the unevenness of the substantially flat surface and is incident on the object recognition device, the object recognition device recognizes the difference as an error. For example, by setting the edge candidate extraction unit 173 so as to be within a range, it is possible to extract even a substantially flat surface. Note that the plane described in this specification includes a substantially plane.

続いて本実施例におけるフローチャートを図7に示す。まず制御部11から出力される発射時刻信号Toと光−電気変換部14においてパルスレーザPoから変換された電気パルスEoとから測距回路部15にて求められたRoと、走査光学系13から出力された発射角度(Φo,Ψo)に基いて極座標(Ro,Φo,Ψo)で表される距離画像データを取得する(S101)。   Next, a flowchart in the present embodiment is shown in FIG. First, Ro obtained by the ranging circuit unit 15 from the emission time signal To output from the control unit 11 and the electric pulse Eo converted from the pulse laser Po in the photoelectric conversion unit 14, and the scanning optical system 13. Distance image data represented by polar coordinates (Ro, Φo, Ψo) is acquired based on the output launch angles (Φo, Ψo) (S101).

座標変換部171は、距離画像データを、極座標(Ro,Φo,Ψo)からXo=RocosΨosinΦo、Yo=RocosΨocosΦo、Zo=RosinΨo、で表されるデカルト座標(Xo,Yo,Zo)へ座標変換し、座標変換された距離画像データ(Xo,Yo,Zo)及び対象物までの距離Roをそれぞれ対応させて距離画像データ抽出部172へ出力する(S102)。   The coordinate converter 171 converts the distance image data from polar coordinates (Ro, Φo, Ψo) to Cartesian coordinates (Xo, Yo, Zo) represented by Xo = Rocos ΨosinΦo, Yo = Rocos ΨocosΦo, and Zo = Rosin Ψo, The coordinate image-converted distance image data (Xo, Yo, Zo) and the distance Ro to the object are associated with each other and output to the distance image data extraction unit 172 (S102).

距離画像データ抽出部172は、取得した距離画像データから、対象物までの距離Roが特定範囲の距離Rd〜Rd+ΔRに含まれる距離画像データを抽出する。抽出される距離の範囲を表すΔRの値は、ΔRと距離Rdとの比率を考慮して誤差が問題とならないような値に設定される(S103)。   The distance image data extraction unit 172 extracts, from the acquired distance image data, distance image data in which the distance Ro to the object is included in the distances Rd to Rd + ΔR in the specific range. The value of ΔR representing the range of distance to be extracted is set to a value that does not cause an error in consideration of the ratio between ΔR and the distance Rd (S103).

エッジ候補抽出部173は、得られた距離画像データに対応する入射光レベルViを用いてエッジ候補データを抽出する(S104)。また、エッジ候補抽出部173は、エッジラインの抽出に充分な範囲の距離画像データ数が抽出されたかどうかの判定を行い、充分でないと判定したときにはS103の処理を再度行う。このとき、距離の範囲をΔR増加してRd+ΔR〜Rd+2ΔRの条件を満たす距離Roに対応する距離画像データを抽出する。したがって、S105において、充分な距離画像データ数が抽出されたと判定されるまで距離の範囲をΔRずつ増加させ、S103乃至S105の動作を繰り返す(S105)。   The edge candidate extraction unit 173 extracts edge candidate data using the incident light level Vi corresponding to the obtained distance image data (S104). Further, the edge candidate extraction unit 173 determines whether or not the number of distance image data in a range sufficient for edge line extraction has been extracted. If it is determined that the distance image data is not sufficient, the process of S103 is performed again. At this time, the distance range is increased by ΔR, and distance image data corresponding to the distance Ro satisfying the condition of Rd + ΔR to Rd + 2ΔR is extracted. Therefore, the distance range is increased by ΔR until it is determined in S105 that a sufficient number of distance image data has been extracted, and the operations of S103 to S105 are repeated (S105).

充分な範囲の距離画像データが抽出されたと判定されたときには、エッジ候補抽出部173は、S104において抽出されたエッジ候補データからエッジラインを抽出する。   When it is determined that a sufficient range of distance image data has been extracted, the edge candidate extraction unit 173 extracts edge lines from the edge candidate data extracted in S104.

本抽出処理によって抽出されたエッジラインL1は仮想平面計算部174へ出力される(S106)。   The edge line L1 extracted by this extraction process is output to the virtual plane calculation unit 174 (S106).

仮想平面計算部174は、求められたエッジラインL1を一辺とする複数の仮想平面の候補を設定し、その情報を、平面判定部175に出力する(S107)。   The virtual plane calculation unit 174 sets a plurality of virtual plane candidates having the obtained edge line L1 as one side, and outputs the information to the plane determination unit 175 (S107).

平面判定部175は、仮想平面計算部174から出力された情報に基づく複数の仮想平面S1、S2、S3…を含む立体図形F1、F2、F3…を設定し、設定した立体図形それぞれが、S103で得られた距離画像データをどれだけ含むかを算出する。多くの距離画像データを含む立体図形に含まれる平面ほど実在する平面の可能性が高いと判定する(S108)。
このように本発明においては、対象物を認識するにあたり、取得した距離画像データからまず対象物のエッジラインを抽出し、そのエッジラインを一辺とする平面を抽出するので、対象物を認識するための距離画像データの処理に用いられる計算量が削減される。また、かかる計算量の削減により、迅速に対象物を認識できるので、対象物が高速で移動する場合でも正確に対象物を認識することができる。
The plane determination unit 175 sets solid figures F1, F2, F3... Including a plurality of virtual planes S1, S2, S3... Based on the information output from the virtual plane calculation unit 174, and each set solid figure is S103. The amount of distance image data obtained in step 1 is calculated. It is determined that there is a higher possibility of an actual plane as the plane included in the three-dimensional figure including more distance image data (S108).
As described above, in the present invention, when recognizing an object, first, an edge line of the object is extracted from the acquired distance image data, and a plane having the edge line as one side is extracted. The amount of calculation used to process the distance image data is reduced. Moreover, since the object can be recognized quickly by reducing the amount of calculation, the object can be accurately recognized even when the object moves at high speed.

図8は、本発明における対象物認識装置を自動車の検出に用いた例である。自動車が道路を通過する範囲にレーザを照射するよう備えられた対象物認識装置のレーザ照射部5よりレーザを照射して平面a、平面bを認識し、所定の範囲内を通過する自動車の存在及び外形を即時に認識することができる。また、本対象物認識装置を駐車場に設置することによって自動車の位置の把握も可能である。さらに本対象物認識装置は、飛行場や空港における飛行機の侵入や位置の把握等も行うことができ、また特定の場所における戦車等の車両の検出といった防衛用途にも用いることができる。
FIG. 8 shows an example in which the object recognition apparatus according to the present invention is used for detection of an automobile. Presence of a vehicle passing through a predetermined range by irradiating a laser from the laser irradiation unit 5 of the object recognition device provided to irradiate a laser on a range where the vehicle passes the road to recognize the plane a and the plane b And the outer shape can be recognized immediately. In addition, it is possible to grasp the position of the automobile by installing the object recognition apparatus in a parking lot. Furthermore, the object recognition apparatus can perform intrusion and position determination of an airplane at an airfield or airport, and can also be used for defense applications such as detection of a vehicle such as a tank in a specific place.

本実施例の対象物認識装置を、図9のブロック図で表す。制御部21、レーザ発射部22、走査光学系23、光−電気変換部24、測距回路部25、入射光レベル計測部26、座標変換部271、距離画像データ抽出部272、エッジ候補抽出部273、仮想平面計算部274は、それぞれ実施例1における制御部11、レーザ発射部12、走査光学系13、光−電気変換部14、測距回路部15、入射光レベル計測部16、座標変換部171、距離画像データ抽出部172、エッジ候補抽出部173、仮想平面計算部174と同一機能であるので、冗長を避けるため、その説明を省略する。本実施例では実施例1の構成に加えて、3次元図形作成部276を備えることを特徴とする。これにより、データ処理部27は複数の面からなる3次元画像を出力するので、対象物の特定をより正確に行うことができる。   The object recognition apparatus of a present Example is represented with the block diagram of FIG. Control unit 21, laser emitting unit 22, scanning optical system 23, photoelectric conversion unit 24, ranging circuit unit 25, incident light level measurement unit 26, coordinate conversion unit 271, distance image data extraction unit 272, edge candidate extraction unit 273 and the virtual plane calculation unit 274 are the control unit 11, the laser emitting unit 12, the scanning optical system 13, the optical-electrical conversion unit 14, the distance measuring circuit unit 15, the incident light level measurement unit 16, and the coordinate conversion in the first embodiment, respectively. Since the functions are the same as those of the unit 171, the distance image data extraction unit 172, the edge candidate extraction unit 173, and the virtual plane calculation unit 174, description thereof is omitted to avoid redundancy. In the present embodiment, in addition to the configuration of the first embodiment, a three-dimensional graphic creation unit 276 is provided. Thereby, since the data processing unit 27 outputs a three-dimensional image composed of a plurality of surfaces, the object can be specified more accurately.

平面判定部275は、実在する平面の可能性が高いと判定して抽出した平面についての情報を、3次元図形作成部276へ出力する。   The plane determination unit 275 outputs information about the plane extracted by determining that there is a high possibility of an existing plane to the three-dimensional figure creation unit 276.

3次元図形作成部276は、平面判定部275より入力された平面の情報を図示しない記録部へ保存する。複数の平面が保存されると、それら複数の平面を組合わせた3次元画像を作成し、出力する。   The three-dimensional figure creation unit 276 stores the plane information input from the plane determination unit 275 in a recording unit (not shown). When a plurality of planes are stored, a three-dimensional image obtained by combining the plurality of planes is created and output.

続いて本実施例におけるフローチャートを図10に示す。S201〜S208のステップは実施例1におけるS101〜S108のステップとそれぞれ同一であり、冗長を避けるため、その説明を省略する。   Next, a flowchart in the present embodiment is shown in FIG. Steps S201 to S208 are the same as steps S101 to S108 in the first embodiment, respectively, and the description thereof is omitted to avoid redundancy.

3次元図形作成部276は、S208で抽出された平面を記憶し、複数の平面を記憶するとそれらの平面を組合わせた3次元図形を作成する(S209)。   The three-dimensional graphic creation unit 276 stores the plane extracted in S208, and when a plurality of planes are stored, creates a three-dimensional graphic combining these planes (S209).

図11は、本実施例における対象物認識装置を用いて自動車を検出する例である。本実施例にかかる対象物認識装置では例えば対象物6の平面c、平面d、平面eからなる3次元画像を対象物から抽出する。抽出された3次元画像情報は図12にあるように把握される。この3次元画像を得ることにより対象物全体の形状を凡そ想定することが可能になり、対象物を認識する精度が向上する。
FIG. 11 is an example in which a vehicle is detected using the object recognition apparatus in the present embodiment. In the object recognition apparatus according to the present embodiment, for example, a three-dimensional image composed of the plane c, the plane d, and the plane e of the object 6 is extracted from the object. The extracted three-dimensional image information is grasped as shown in FIG. By obtaining this three-dimensional image, it becomes possible to roughly assume the shape of the entire object, and the accuracy of recognizing the object is improved.

本実施例の対象物認識装置を、図13のブロック図で表す。制御部31、レーザ発射部32、走査光学系33、光−電気変換部34、測距回路部35、入射光レベル計測部36、座標変換部371、距離画像データ抽出部372、エッジ候補抽出部373、仮想平面計算部374は、それぞれ実施例1における、制御部11、レーザ発射部12、走査光学系13、光−電気変換部14、測距回路部15、入射光レベル計測部16、座標変換部171、距離画像データ抽出部172、エッジ候補抽出部173、仮想平面計算部174と同一機能であるので、冗長を避けるため、その説明を省略する。本実施例では実施例1の構成に加えて、平面テンプレート記憶部377及び平面テンプレート照合部378を備えることを特徴とする。これにより、データを取得することにより得られた平面と、予め用意されたテンプレートを比較し対象物を特定することができるので、特に対象物の計測から得られる平面の大きさ及び対象物の向きが分かっているときに、迅速に対象物の特定を行うことができる。   The object recognition apparatus of a present Example is represented with the block diagram of FIG. Control unit 31, laser emitting unit 32, scanning optical system 33, photoelectric conversion unit 34, distance measuring circuit unit 35, incident light level measuring unit 36, coordinate conversion unit 371, distance image data extraction unit 372, edge candidate extraction unit 373 and virtual plane calculation unit 374 are the control unit 11, laser emitting unit 12, scanning optical system 13, photoelectric conversion unit 14, ranging circuit unit 15, incident light level measurement unit 16, coordinates in Example 1, respectively. Since it has the same function as the conversion unit 171, the distance image data extraction unit 172, the edge candidate extraction unit 173, and the virtual plane calculation unit 174, description thereof is omitted to avoid redundancy. In the present embodiment, in addition to the configuration of the first embodiment, a planar template storage unit 377 and a planar template matching unit 378 are provided. As a result, the plane obtained by acquiring the data and the template prepared in advance can be compared to identify the object, and in particular, the size of the plane obtained from the measurement of the object and the direction of the object When it is known, it is possible to quickly identify an object.

平面判定部375は、実在する平面の可能性が高いと判定して抽出した平面の情報を、平面テンプレート照合部378へ出力する。   The plane determination unit 375 outputs the plane information extracted by determining that the possibility of an existing plane is high to the plane template matching unit 378.

平面テンプレート記憶部377は、予め対象物の平面として想定される、対象物の種類などにより異なる1つまたは複数のテンプレートを記憶部に備えており、平面テンプレート照合部378へ出力する。   The planar template storage unit 377 includes one or a plurality of templates, which are assumed in advance as the plane of the object, depending on the type of the object, in the storage unit, and outputs the template to the planar template matching unit 378.

平面テンプレート照合部378は、入力された平面の情報とテンプレートを照合し、一致すると判断した平面の情報を出力する。   The plane template collation unit 378 collates the input plane information with the template, and outputs the plane information determined to match.

このように本実施例における対象物認識装置によれば、対象物の外形の一部にあたる平面をテンプレートと照合して対象物の特定を行うので、対象物の外形全体から対象物を認識するよりも、対象物を認識するための処理に必要な計算量を削減させることができる。   As described above, according to the object recognition device of the present embodiment, the object is identified by collating a plane corresponding to a part of the object outline with the template, so that the object is recognized from the entire object outline. In addition, it is possible to reduce the amount of calculation required for the process for recognizing the object.

続いて本実施例におけるフローチャートを図14に示す。S301〜S308のステップは実施例1におけるS101〜S108のステップとそれぞれ同一であり、冗長を避けるため、その説明を省略する。   Next, a flowchart in the present embodiment is shown in FIG. The steps S301 to S308 are the same as the steps S101 to S108 in the first embodiment, respectively, and the description thereof is omitted to avoid redundancy.

平面テンプレート照合部378は、S308で抽出された平面を、予め用意されたテンプレートと照合し、一致すると判断した平面の情報を出力する。(S310)。   The plane template collation unit 378 collates the plane extracted in S308 with a template prepared in advance, and outputs information on the plane determined to match. (S310).

図15は、本実施例における対象物認識装置を用いて自動車を検出する装置の例である。本装置において例えば対象物6の測定点データから平面f及び平面gを抽出できたとする。これら2つの平面を、図16にあるように車種の違いに応じて用意されたテンプレートα、β、γと照合を行い、平面f及び平面gはテンプレートγと符合すると判定される。このときテンプレートγの大きさや位置によって車種を認識することができる。   FIG. 15 is an example of an apparatus for detecting an automobile using the object recognition apparatus in the present embodiment. In this apparatus, for example, it is assumed that the plane f and the plane g can be extracted from the measurement point data of the object 6. These two planes are collated with templates α, β, and γ prepared according to the difference in vehicle type as shown in FIG. 16, and it is determined that the plane f and the plane g coincide with the template γ. At this time, the vehicle type can be recognized by the size and position of the template γ.

例えば本実施例における対象物認識装置により自動車を認識する場合には、自動車の外形全体を認識して対象物である自動車の外形を抽出しなくとも、一般に車両の大きさの範囲は予め想定できるので、例えば自動車の外形のうちの前方の2平面について、平面の大きさ、奥行き、間隔等を事前に用意したテンプレートデータと比較することによって自動車の存在の有無や、大型小型等の車種類別の分類を行うことができ、駐車場の入退場車両数や、その入退場した車両の車種類別情報等を迅速に把握することができる。
For example, when a vehicle is recognized by the object recognition apparatus according to the present embodiment, the range of the size of the vehicle can generally be assumed in advance without recognizing the entire outline of the automobile and extracting the outline of the automobile that is the object. So, for example, for the two planes in front of the outline of the car, the size, depth, spacing, etc. of the plane are compared with the template data prepared in advance, whether there is a car, Classification can be performed, and the number of vehicles entering and leaving the parking lot, information on the types of vehicles entering and leaving the vehicle, and the like can be quickly grasped.

第4の実施例の構成について、図17を用いて説明する。レーザ発射部42、走査光学系43、光−電気変換部44、測距回路部45、入射光レベル計測部46、距離画像データ抽出部472、エッジ候補抽出部473、仮想平面計算部474、平面判定部475は、それぞれ実施例1における、レーザ発射部12、走査光学系13、光−電気変換部14、測距回路部15、入射光レベル計測部16、距離画像データ抽出部172、エッジ候補抽出部173、仮想平面計算部174、平面判定部175と同一機能であるので、冗長を避けるため、その説明を省略する。本実施例では実施例1の構成に加えて、慣性センサ48及びGPS49を備えることを特徴とする。実施例1乃至3では、対象物認識装置の位置は固定されていたが、本実施例では対象物認識装置が移動体に搭載され、位置が変化する。本実施例によれは、慣性センサ48及びGPS49により自装置の位置及び姿勢を把握することができるので、対象物認識装置が高速で移動する場合においても、対象物を迅速に認識することができる。   The configuration of the fourth embodiment will be described with reference to FIG. Laser emitting unit 42, scanning optical system 43, photoelectric conversion unit 44, distance measuring circuit unit 45, incident light level measuring unit 46, distance image data extracting unit 472, edge candidate extracting unit 473, virtual plane calculating unit 474, plane The determination unit 475 is the laser emitting unit 12, the scanning optical system 13, the optical-electrical conversion unit 14, the distance measuring circuit unit 15, the incident light level measuring unit 16, the distance image data extracting unit 172, and the edge candidate in the first embodiment. Since it has the same function as the extraction unit 173, the virtual plane calculation unit 174, and the plane determination unit 175, its description is omitted to avoid redundancy. In this embodiment, in addition to the configuration of the first embodiment, an inertial sensor 48 and a GPS 49 are provided. In the first to third embodiments, the position of the object recognition device is fixed. However, in this embodiment, the object recognition device is mounted on a moving body, and the position changes. According to the present embodiment, since the position and orientation of the device itself can be grasped by the inertial sensor 48 and the GPS 49, the object can be quickly recognized even when the object recognition device moves at a high speed. .

制御部41は、レーザ発射部42にパルスレーザを発射する時刻を指示する発射時刻信号Toをレーザ発射部42及び測距回路部45のほか慣性センサ48、GPS49へ出力する。   The control unit 41 outputs, to the inertial sensor 48 and the GPS 49, in addition to the laser emitting unit 42 and the distance measuring circuit unit 45, the laser emitting unit 42 instructs the laser emitting unit 42 to emit the pulse laser.

慣性センサ48は、対象物認識装置の姿勢を表す、入力された発射時刻信号Toの時刻におけるロール、ピッチ、ヨーの3軸の回転角(κo,φo,ωo)をデータ処理部47の座標変換部471へ出力する。   The inertial sensor 48 converts the rotation angles (κo, φo, ωo) of the three axes of roll, pitch, and yaw at the time of the input launch time signal To that represents the attitude of the object recognition device to the coordinate conversion of the data processing unit 47. Output to the unit 471.

GPS49は、入力された発射時刻信号Toで表される時刻における対象物認識装置の位置(xo,yo,zo)を座標変換部471へ出力する。   The GPS 49 outputs the position (xo, yo, zo) of the object recognition device at the time represented by the input launch time signal To to the coordinate conversion unit 471.

座標変換部471は、距離Ro、レーザパルス発射時における発射角度(Φo,Ψo)、対象物認識装置の位置(xo,yo,zo)及び姿勢(κo,φo,ωo)を入力する。また、レーザパルスの入射時における対象物認識装置の位置(xi,yi,zi)及び姿勢(κi,φi,ωi)を入力する。そして図18にあるように、取得した距離画像データ(Ro,Φo,Ψo)をレーザパルス発射時における対象物認識装置の位置(xo,yo,zo)及び姿勢(κo,φo,ωo)と、レーザパルスの入射時における対象物認識装置の位置(xi,yi,zi)及び姿勢(κi,φi,ωi)を用いて既存の方法により補正し、座標変換することにより、デカルト座標におけるパルスレーザの反射位置(Xo,Yo,Zo)を求める。   The coordinate conversion unit 471 inputs the distance Ro, the firing angle (Φo, Ψo) at the time of laser pulse emission, the position (xo, yo, zo) and the posture (κo, φo, ωo) of the object recognition device. Further, the position (xi, yi, zi) and posture (κi, φi, ωi) of the object recognition device at the time of incidence of the laser pulse are input. Then, as shown in FIG. 18, the acquired distance image data (Ro, Φo, Ψo) is converted into the position (xo, yo, zo) and posture (κo, φo, ωo) of the object recognition device at the time of laser pulse emission. The position (xi, yi, zi) and the posture (κi, φi, ωi) of the object recognition device at the time of laser pulse incidence are corrected by the existing method and coordinate conversion is performed. The reflection position (Xo, Yo, Zo) is obtained.

続いて本実施例におけるフローチャートは実施例1におけるフローチャートと同じである。ただしS402について、座標変換部471は取得された距離画像データについて、座標変換部471は、取得した距離画像データ(Ro,Φo,Ψo)をレーザパルス発射時における対象物認識装置の位置(xo,yo,zo)及び姿勢(κo,φo,ωo)と、レーザパルスの入射時における対象物認識装置の位置(xi,yi,zi)及び姿勢(κi,φi,ωi)を用いて既存の方法により補正し、座標変換することにより、デカルト座標におけるパルスレーザの反射位置(Xo,Yo,Zo)を求める。   Subsequently, the flowchart in the present embodiment is the same as the flowchart in the first embodiment. However, for S402, the coordinate conversion unit 471 uses the acquired distance image data, and the coordinate conversion unit 471 uses the acquired distance image data (Ro, Φo, Ψo) as the position (xo, yo, zo) and posture (κo, φo, ωo) and the position (xi, yi, zi) and posture (κi, φi, ωi) of the object recognition device at the time of incidence of the laser pulse. The reflection position (Xo, Yo, Zo) of the pulse laser in Cartesian coordinates is obtained by correcting and converting the coordinates.

また、図19に示すように、実施例2と同様にデータ処理部57に3次元図形作成部576を備えてもよい。または図20に示すように、実施例3と同様にデータ処理部67に平面テンプレート記憶部677、平面テンプレート照合部678を備えてもよい。
Further, as shown in FIG. 19, the data processing unit 57 may include a three-dimensional figure creation unit 576 as in the second embodiment. Alternatively, as illustrated in FIG. 20, the data processing unit 67 may include a planar template storage unit 677 and a planar template matching unit 678 as in the third embodiment.

第5の実施例の構成について、図21を用いて説明する。制御部71、レーザ発射部72、走査光学系73、光−電気変換部74、入射光レベル計測部76、距離画像データ抽出部772、エッジ候補抽出部773、仮想平面計算部774、平面判定部775は、それぞれ実施例1における、制御部11、レーザ発射部12、走査光学系13、入射光レベル計測部16、距離画像データ抽出部172、エッジ候補抽出部173、仮想平面計算部174、平面判定部175と同一機能であり、冗長を避けるため、その説明を省略する。本実施例は実施例1における測距回路部15の代わりに入射時刻計測部75を備え、座標変換部771で対象物までの距離Roを求める。   The configuration of the fifth embodiment will be described with reference to FIG. Control unit 71, laser emitting unit 72, scanning optical system 73, photoelectric conversion unit 74, incident light level measurement unit 76, distance image data extraction unit 772, edge candidate extraction unit 773, virtual plane calculation unit 774, plane determination unit Reference numeral 775 denotes a control unit 11, a laser emitting unit 12, a scanning optical system 13, an incident light level measurement unit 16, a distance image data extraction unit 172, an edge candidate extraction unit 173, a virtual plane calculation unit 174, and a plane in the first embodiment. The function is the same as that of the determination unit 175, and the description thereof is omitted to avoid redundancy. In this embodiment, an incident time measuring section 75 is provided instead of the distance measuring circuit section 15 in the first embodiment, and a coordinate converter 771 obtains a distance Ro to the object.

光−電気変換部74は、入力されたパルスレーザPiを電気パルスEiに変換し、電気パルスEiを入射光レベル計測部76、及び入射時刻計測部75へ出力する。   The photoelectric conversion unit 74 converts the input pulse laser Pi into an electrical pulse Ei, and outputs the electrical pulse Ei to the incident light level measurement unit 76 and the incident time measurement unit 75.

入射時刻計測部75は入射された電気パルスEiよりパルスレーザPiの入射時刻信号Tiを求める。求められた入射時刻はデータ処理部77の座標変換部771へ出力される。   The incident time measuring unit 75 obtains the incident time signal Ti of the pulse laser Pi from the incident electric pulse Ei. The obtained incident time is output to the coordinate conversion unit 771 of the data processing unit 77.

座標変換部771は、入射時刻信号Ti、及び制御部71より入力された発射時刻信号Toより(Ti−To)×c/2の計算式により距離Roを求め、実施例1と同様に入力された距離画像データ(Ro,Φo,Ψo)を極座標(Ro,Φo,Ψo)からXo=RocosΨosinΦo、Yo=RocosΨocosΦo、Zo=RosinΨoで表されるデカルト座標(Xo,Yo,Zo)に変換する。なお、図22に示すとおり、実施例2と同様にデータ処理部87に3次元図形作成部876を備えてもよい。または図23に示すとおり、実施例3と同様にデータ処理部97に平面テンプレート記憶部977、平面テンプレート照合部978を備えてもよい。   The coordinate conversion unit 771 obtains the distance Ro from the incident time signal Ti and the firing time signal To input from the control unit 71 by a calculation formula of (Ti−To) × c / 2, and is input in the same manner as in the first embodiment. Distance image data (Ro, Φo, Ψo) is converted from polar coordinates (Ro, Φo, Ψo) to Cartesian coordinates (Xo, Yo, Zo) represented by Xo = Rocos ΨosinΦo, Yo = Rocos ΨocosΦo, and Zo = Rosin Ψo. As shown in FIG. 22, the data processing unit 87 may include a three-dimensional graphic creation unit 876 as in the second embodiment. Alternatively, as shown in FIG. 23, the data processing unit 97 may include a planar template storage unit 977 and a planar template matching unit 978 as in the third embodiment.

なお、上述の全ての実施例において、対象物認識装置は発射角度(Φo,Ψo)を変えながらパルスレーザを連続的に発射し、反射されたパルスレーザを入射することにより、対象物全体の距離画像データを取得するよう構成しているが、それに限定されるものではなく、図24に示すようにレーザ等の光を一度に対象物全体に照射し、複数の測定点データを同時に取得するような構成にしてもよい。   In all the above-described embodiments, the object recognition apparatus continuously emits a pulse laser while changing the emission angle (Φo, Ψo), and the reflected pulse laser is incident, whereby the distance of the entire object is detected. Although it is configured to acquire image data, the present invention is not limited to this, and as shown in FIG. 24, the entire object is irradiated with light such as a laser at one time, and a plurality of measurement point data are acquired simultaneously. Any configuration may be used.

また、実施例5において、上述した構成に加えてさらにGPS及び慣性センサを加えた構成としてもよい。また、エッジ候補となる距離画像データを抽出するにあたり、エッジ候補抽出部が入射光レベルをもとに距離画像データを抽出する代わりに、パルスレーザの発射光レベルと入射光レベルの比を比較した反射率をもとに距離画像データを抽出してもよい。また、全ての実施例において、距離画像データ抽出部と座標変換部の順序を逆転させ、まず特定の距離の範囲にあたる距離画像データの抽出を行ってから、抽出されたデータを極座標からデカルト座標に変換するようにしてもよい。このように本発明は上述の実施例に限定されるものではなく、当業者において想到できる範囲で実施の態様を変更するものについても、本発明の思想に含まれる。
In the fifth embodiment, a GPS and an inertial sensor may be added to the above-described configuration. In addition, when extracting the distance image data as the edge candidate, the edge candidate extraction unit compared the ratio of the pulsed laser emission light level to the incident light level instead of extracting the distance image data based on the incident light level. The distance image data may be extracted based on the reflectance. In all the embodiments, the order of the distance image data extraction unit and the coordinate conversion unit is reversed. First, the distance image data corresponding to a specific distance range is extracted, and then the extracted data is changed from polar coordinates to Cartesian coordinates. You may make it convert. As described above, the present invention is not limited to the above-described embodiments, and modifications of the embodiments within the scope conceivable by those skilled in the art are also included in the concept of the present invention.

第1の実施例における対象物認識装置を説明するブロック図The block diagram explaining the target object recognition apparatus in a 1st Example. 極座標とデカルト座標の関係を表す図Diagram showing the relationship between polar coordinates and Cartesian coordinates レーザを対象物へ照射する様子を表す図A diagram showing how a laser beam is irradiated onto an object レーザを対象物へ照射する様子を表す図A diagram showing how a laser beam is irradiated onto an object エッジラインを抽出する様子を表す図Diagram showing how edge lines are extracted 対象物の平面を抽出する様子を表す図A figure showing how to extract the plane of an object 第1の実施例における対象物認識方法を説明するフローチャートThe flowchart explaining the target object recognition method in 1st Example. 第1の実施例における対象物認識装置を説明する図The figure explaining the target object recognition apparatus in a 1st Example. 第2の実施例における対象物認識装置を説明するブロック図The block diagram explaining the target object recognition apparatus in 2nd Example. 第2の実施例における対象物認識方法を説明するフローチャートThe flowchart explaining the target object recognition method in 2nd Example. 第2の実施例における対象物認識装置を説明する図The figure explaining the target object recognition apparatus in 2nd Example. 第2の実施例における対象物認識装置により得られる平面の図The figure of the plane obtained by the target object recognition apparatus in 2nd Example 第3の実施例における対象物認識装置を説明するブロック図The block diagram explaining the target object recognition apparatus in 3rd Example. 第3の実施例における対象物認識方法を説明するフローチャートThe flowchart explaining the target object recognition method in 3rd Example. 第3の実施例における対象物認識装置を説明する図The figure explaining the target object recognition apparatus in 3rd Example. 第3の実施例におけるテンプレート照合の様子を説明する図The figure explaining the mode of template collation in a 3rd Example 第4の実施例における対象物認識装置を説明するブロック図The block diagram explaining the target object recognition apparatus in a 4th Example. 極座標とデカルト座標、及び対象物認識装置の位置及び姿勢の関係を表す図A diagram showing the relationship between polar coordinates and Cartesian coordinates, and the position and orientation of the object recognition device 第4の実施例における対象物認識装置を説明するブロック図The block diagram explaining the target object recognition apparatus in a 4th Example. 第4の実施例における対象物認識装置を説明するブロック図The block diagram explaining the target object recognition apparatus in a 4th Example. 第5の実施例における対象物認識装置を説明するブロック図Block diagram for explaining an object recognition apparatus in the fifth embodiment 第5の実施例における対象物認識装置を説明するブロック図Block diagram for explaining an object recognition apparatus in the fifth embodiment 第5の実施例における対象物認識装置を説明するブロック図Block diagram for explaining an object recognition apparatus in the fifth embodiment 対象物認識装置が対象物へビームを照射する図Figure of target object recognition device irradiating target object with beam 対象物認識装置が対象物へビームを照射する図Figure of target object recognition device irradiating target object with beam

符号の説明Explanation of symbols

1、5、7、8、9:対象物認識装置
2、3、6:対象物
4:レーザ
11、21、31、41、51、61、71、81、91:制御部
12、22、32、42、52、62、72、82、92:レーザ発射部
13、23、33、43、53、63、73、83、93:走査光学系
14、24、34、44、54、64、74、84、94:光−電気変換部
15、25、35、45、55、65:測距回路部
16、26、36、46、56、66、76、86、96:入射光レベル計測部
17、27、37、47、57、67、77、87、97:データ処理部
171、271、371、471、571、671、771、871、971:座標変換部
172、272、372、472、572、672、772、872、972:距離画像データ抽出部
173、273、373、473、573、673、773、873、973:エッジ候補抽出部
174、274、374、474、574、674、774、874、974;仮想平面計算部
175、275、375、474、575、675、775、875、975:平面判定部
276、576、876:3次元図形作成部
377、677、977:平面テンプレート記憶部
378、678、978:平面テンプレート照合部
48、58、68:慣性センサ
49、59、69:GPS
75、85、95:入射時刻計測部

1, 5, 7, 8, 9: Object recognition device 2, 3, 6: Object 4: Laser 11, 21, 31, 41, 51, 61, 71, 81, 91: Control unit 12, 22, 32 42, 52, 62, 72, 82, 92: Laser emitting units 13, 23, 33, 43, 53, 63, 73, 83, 93: Scanning optical systems 14, 24, 34, 44, 54, 64, 74 , 84, 94: photoelectric conversion units 15, 25, 35, 45, 55, 65: ranging circuit units 16, 26, 36, 46, 56, 66, 76, 86, 96: incident light level measuring unit 17 27, 37, 47, 57, 67, 77, 87, 97: Data processing units 171, 271, 371, 471, 571, 671, 771, 871, 971: Coordinate conversion units 172, 272, 372, 472, 572 , 672, 772, 872, 972: Distance image Data extraction unit 173, 273, 373, 473, 573, 673, 773, 873, 973: edge candidate extraction unit 174, 274, 374, 474, 574, 674, 774, 874, 974; virtual plane calculation unit 175, 275, 375, 474, 575, 675, 775, 875, 975: plane determination units 276, 576, 876: three-dimensional figure creation units 377, 677, 977: plane template storage units 378, 678, 978: plane template matching unit 48, 58, 68: Inertial sensors 49, 59, 69: GPS
75, 85, 95: Incident time measuring unit

Claims (1)

光を対象物へ発射する発射手段と、
前記対象物で反射した前記光が入射される入射手段と、
入射された前記光のレベルを計測する入射光レベル計測手段と、
入射された前記光より前記対象物の位置を表す距離画像データを複数取得する距離画像データ取得手段と、
複数取得した前記距離画像データのうち、第1の条件を満たす前記距離画像データを抽出する第1の抽出手段と、
抽出された前記第1の条件を満たす前記距離画像データ及び前記レベルに基いて前記対象物のエッジに係る情報を抽出する第2の抽出手段と、
前記エッジに係る情報に基いて前記対象物を認識する認識手段と
前記エッジに係る情報に基いて仮想平面を設定する設定手段と、
前記設定手段において設定された前記仮想平面のうち、第3の条件を満たす仮想平面である平面を抽出する平面抽出手段を備え、
記認識手段は、前記平面抽出手段において抽出された前記平面に基いて前記対象物を認識するとともに、
前記第3の条件は、前記仮想平面を含む立体図形に含まれる前記距離画像データの数に基いて定められる対象物認識装置。
Launching means for launching light onto the object;
An incident means on which the light reflected by the object is incident;
Incident light level measuring means for measuring the level of the incident light;
Distance image data acquisition means for acquiring a plurality of distance image data representing the position of the object from the incident light;
A first extraction means for extracting the distance image data satisfying a first condition from the plurality of the obtained distance image data;
Second extraction means for extracting information related to an edge of the object based on the distance image data and the level satisfying the extracted first condition;
Recognizing means for recognizing the object based on the information on the edge, and setting means for setting a virtual plane based on the information on the edge;
Of the virtual planes set by the setting means, comprising plane extraction means for extracting a plane that is a virtual plane that satisfies a third condition,
Before SL recognition means may recognize the object based on the plane that has been extracted in the plane extraction means,
The object recognition apparatus in which the third condition is determined based on the number of the distance image data included in the solid figure including the virtual plane.
JP2005138430A 2005-05-11 2005-05-11 Object recognition device Expired - Fee Related JP4779431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005138430A JP4779431B2 (en) 2005-05-11 2005-05-11 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005138430A JP4779431B2 (en) 2005-05-11 2005-05-11 Object recognition device

Publications (2)

Publication Number Publication Date
JP2006317221A JP2006317221A (en) 2006-11-24
JP4779431B2 true JP4779431B2 (en) 2011-09-28

Family

ID=37538035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005138430A Expired - Fee Related JP4779431B2 (en) 2005-05-11 2005-05-11 Object recognition device

Country Status (1)

Country Link
JP (1) JP4779431B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010146357A (en) * 2008-12-19 2010-07-01 Panasonic Electric Works Co Ltd Method and apparatus for three-dimensional image processing
JP5473683B2 (en) * 2010-03-09 2014-04-16 三菱電機株式会社 Feature detection system
US8666656B2 (en) 2011-03-04 2014-03-04 Mitsubishi Electric Corporation Object detection device and navigation device
TW201418662A (en) * 2012-11-15 2014-05-16 Nat Applied Res Laboratories Remote crack measurement method and device thereof
JP6399840B2 (en) * 2014-07-22 2018-10-03 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6788537B2 (en) * 2017-03-28 2020-11-25 本田技研工業株式会社 Object edge detection method using a laser ranging device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0777408A (en) * 1993-07-12 1995-03-20 Sekisui Chem Co Ltd End section position measuring method for object
JP3225501B2 (en) * 1995-08-31 2001-11-05 日本精機株式会社 Distance measuring device
JPH10143659A (en) * 1996-11-06 1998-05-29 Komatsu Ltd Object detector
JP2000180547A (en) * 1998-12-18 2000-06-30 Hitachi Ltd Obstacle detecting device
JP2000206241A (en) * 1999-01-13 2000-07-28 Honda Motor Co Ltd Radar apparatus
JP2003141567A (en) * 2001-11-07 2003-05-16 Japan Science & Technology Corp Three-dimensional city model generating device and method of generating three-dimensional city model

Also Published As

Publication number Publication date
JP2006317221A (en) 2006-11-24

Similar Documents

Publication Publication Date Title
US11906670B2 (en) Interference mitigation for light detection and ranging
Ghorpade et al. Obstacle detection and avoidance algorithm for autonomous mobile robot using 2D LiDAR
CN102460065A (en) Information processing apparatus, information processing method, and program
CN112861653A (en) Detection method, system, equipment and storage medium for fusing image and point cloud information
US20150288947A1 (en) Position and location detection of objects
CN1940591A (en) System and method of target tracking using sensor fusion
US10739439B2 (en) Laser positioning system and position measuring method using the same
CN110411366A (en) A kind of detection method and electronic equipment of road depth of accumulated water
CN110799802B (en) Object measurement for light detection and ranging system
CN108780149B (en) Method for improving the detection of at least one object in the surroundings of a motor vehicle by indirect measurement of a sensor, control unit, driver assistance system and motor vehicle
EP3769120A1 (en) Object detection system and method
JPWO2019194255A1 (en) Arithmetic processing unit, object identification system, object identification method, automobile, vehicle lighting equipment
CN111580116A (en) Method for evaluating target detection performance of vehicle-mounted system and electronic equipment
CN110687521B (en) Method for calibrating vehicle-mounted laser radar
CN112668603A (en) Method and device for generating training data for a recognition model for recognizing objects in sensor data, training method and control method
US20210117702A1 (en) Methods and systems for identifying material composition of objects
CN114663526A (en) Obstacle detection method, obstacle detection device, robot and computer-readable storage medium
JP4779431B2 (en) Object recognition device
CN113835101A (en) Vehicle positioning method and device based on radar point cloud and storage medium
CN202903176U (en) Visual range finder of laser auxiliary machine
KR102683455B1 (en) Object detection system and method using multi-coordinate system features of lidar data
Li et al. Real time obstacle detection in a water tank environment and its experimental study
WO2021152340A1 (en) Object recognition method and object recognition device
US11640703B2 (en) Method for classifying measuring points of a point cloud
JP7027574B2 (en) A method for determining the alignment of the photoelectric sensor by the scan point of the sensor image, and the photoelectric sensor.

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080212

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080613

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees