[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6673030B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP6673030B2
JP6673030B2 JP2016110599A JP2016110599A JP6673030B2 JP 6673030 B2 JP6673030 B2 JP 6673030B2 JP 2016110599 A JP2016110599 A JP 2016110599A JP 2016110599 A JP2016110599 A JP 2016110599A JP 6673030 B2 JP6673030 B2 JP 6673030B2
Authority
JP
Japan
Prior art keywords
target
information processing
frequency spectrum
unit
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016110599A
Other languages
Japanese (ja)
Other versions
JP2017215272A (en
Inventor
山本 康平
康平 山本
前野 蔵人
蔵人 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2016110599A priority Critical patent/JP6673030B2/en
Publication of JP2017215272A publication Critical patent/JP2017215272A/en
Application granted granted Critical
Publication of JP6673030B2 publication Critical patent/JP6673030B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing device, an information processing method, and a program.

近年、ITS(Intelligent Transport Systems)や、路上監視システムなどにおいて、走行車両の車種を識別するための種々の手法が提案されている。   2. Description of the Related Art In recent years, in ITS (Intelligent Transport Systems), road monitoring systems, and the like, various methods for identifying the type of traveling vehicle have been proposed.

例えば、特許文献1には、走行車両が検知領域内を通過する際に受信した反射波に係る強度と持続時間とを、予め記憶したモデルパターンと比較することで車種を識別する技術が開示されている。   For example, Patent Literature 1 discloses a technique for identifying a vehicle type by comparing the intensity and duration of a reflected wave received when a traveling vehicle passes through a detection area with a model pattern stored in advance. ing.

また、例えば、特許文献2には、走行車両が検知領域内を通過する際に受信した反射波の強度変化の持続時間から求められる車両の長さ及び高さを、予め記憶した車種ごとのデータと比較することで、車種を識別する技術が開示されている。   In addition, for example, in Patent Document 2, the length and height of the vehicle obtained from the duration of the intensity change of the reflected wave received when the traveling vehicle passes through the detection area are stored in advance for each vehicle type data. A technology for discriminating a vehicle type by comparing with a vehicle type is disclosed.

また、例えば、特許文献3には、アレーアンテナを備える車両搭載のレーダを用いて、物標の地面からの高さを算出する技術が開示されている。   Further, for example, Patent Literature 3 discloses a technique of calculating the height of a target from the ground using a vehicle-mounted radar having an array antenna.

特開平11−272988号公報JP-A-11-272988 特開2014−99123号公報JP 2014-99123 A 特開2014−52187号公報JP 2014-52187 A

しかし、特許文献1に記載の技術を用いる場合、反射波の持続時間を計測するためには、検知領域を広く設定することが困難である。さらには、レーダの設置条件として、送受信アンテナを車両の走行レーンの側面側に向けることが求められる。このため、例えば、異なるレーンを走行する車両2台が同時に検知領域を通過する場合には、反射波の強度や持続時間が2台分合成されるため、車種を正しく識別することできない可能性が高い。   However, when the technology described in Patent Document 1 is used, it is difficult to set a wide detection area in order to measure the duration of the reflected wave. Furthermore, as a radar installation condition, it is required that the transmitting / receiving antenna be directed to the side of the traveling lane of the vehicle. Therefore, for example, when two vehicles traveling in different lanes pass through the detection region at the same time, the intensity and duration of the reflected waves are combined for two vehicles, and there is a possibility that the vehicle type cannot be correctly identified. high.

また、特許文献2に記載の技術を用いる場合、レーダを車両の鉛直上に設置するためには、当該レーダを固定するための支柱などが必要とされるため、設置コストが高額となる傾向がある。   In addition, when the technology described in Patent Document 2 is used, a column for fixing the radar is required in order to install the radar vertically on the vehicle, so that the installation cost tends to be high. is there.

また、特許文献3に記載の技術を用いる場合、アレーアンテナを備えるレーダを使用する必要があるが、上記のようなレーダは、一般に複雑な回路を有する。このため、厳重なノイズ対策が求められるほか、構成機器が高価となる問題がある。   In addition, when the technique described in Patent Document 3 is used, it is necessary to use a radar having an array antenna. However, such a radar generally has a complicated circuit. For this reason, strict noise countermeasures are required, and there is a problem that component devices are expensive.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、精度の高い物標識別をより安価に実現することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することにある。   Therefore, the present invention has been made in view of the above-described problems, and an object of the present invention is to provide a new and improved information processing method capable of realizing high-precision object marking at a lower cost. An object is to provide an apparatus, an information processing method, and a program.

上記課題を解決するために、本発明のある観点によれば、検出された物標に係る周波数スペクトルに基づいて抽出される特徴量の2次元的パターン形状を抽象化する第1の階層と、前記物標に係る周波数スペクトルから検出された物標候補の分析情報と前記第1の階層からの出力とに基づいて前記物標の識別クラスを決定する第2の階層と、を含む多層ニューラルネットワークを用いて前記物標の識別を行う物標識別部、を備え、前記特徴量は、前記周波数スペクトルに基づくスペクトログラムから抽出される振幅値に関する部分スペクトログラムまたは距離値に関する部分スペクトログラムのうち、少なくともいずれか一方を含む、情報処理装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, a first hierarchy that abstracts a two-dimensional pattern shape of a feature amount extracted based on a frequency spectrum of a detected target, A multi-layer neural network including a second layer that determines an identification class of the target based on analysis information of the target candidate detected from the frequency spectrum of the target and an output from the first layer A target marker discriminating unit that identifies the target by using at least one of a partial spectrogram related to an amplitude value or a partial spectrogram related to a distance value extracted from a spectrogram based on the frequency spectrum. An information processing device including one of them is provided.

前記物標候補の分析情報は、振幅強度、速度情報、距離情報または角度情報のうち、少なくともいずれかを含んでもよい。   The analysis information of the target candidate may include at least one of amplitude intensity, speed information, distance information, and angle information.

前記情報処理装置は、前記周波数スペクトルを時間方向に展開して得たスペクトログラムから前記物標候補に近傍のデータを前記特徴量として抽出する特徴抽出部、をさらに備えてもよい。   The information processing apparatus may further include a feature extraction unit configured to extract data near the target candidate as the feature amount from a spectrogram obtained by expanding the frequency spectrum in a time direction.

前記情報処理装置は、前記周波数スペクトルの強度に基づいて、少なくとも1つ以上の前記物標候補を検出する物標検出部、をさらに備えてもよい。   The information processing apparatus may further include a target detection unit that detects at least one or more target candidates based on the intensity of the frequency spectrum.

前記情報処理装置は、複数の前記物標候補に係る時間的な対応関係を示す追尾結果を出力する物標追尾部、をさらに備え、前記物標識別部は、前記多層ニューラルネットワークにより出力される前記識別クラスと前記追尾結果とに基づいて、前記物標の識別を行ってもよい。   The information processing apparatus further includes a target tracking unit that outputs a tracking result indicating a temporal correspondence relation between the plurality of target candidates, and the target marker unit is output by the multilayer neural network. The target may be identified based on the identification class and the tracking result.

前記物標識別部は、前記追尾結果に対応する複数の前記識別クラスのうち最頻出する識別クラスに基づいて、前記物標の識別を行ってもよい。   The target marking unit may identify the target based on the most frequently occurring identification class among the plurality of identification classes corresponding to the tracking result.

前記物標識別部は、2つ以上の異なる前記物標候補における周波数差が所定の閾値を超える場合、当該物標候補に係る前記識別クラスを、前記物標の識別に用いなくてもよい。   When the frequency difference between two or more different target candidates exceeds a predetermined threshold, the target marker separate unit may not use the identification class related to the target candidate for the identification of the target.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、検出された物標に係る周波数スペクトルに基づいて抽出される特徴量の2次元的パターン形状を抽象化する第1の階層と、前記物標に係る周波数スペクトルから検出された物標候補の分析情報と前記第1の階層からの出力とに基づいて前記物標の識別クラスを決定する第2の階層と、を含む多層ニューラルネットワークを用いて前記物標の識別を行う物標識別部、を備え、前記特徴量は、前記周波数スペクトルに基づくスペクトログラムから抽出される振幅値に関する部分スペクトログラムまたは距離値に関する部分スペクトログラムのうち、少なくともいずれか一方を含む、情報処理装置、として機能させるためのプログラムが提供される。   According to another embodiment of the present invention, there is provided a computer configured to abstract a two-dimensional pattern shape of a feature amount extracted based on a frequency spectrum of a detected target. A first hierarchy, and a second hierarchy that determines an identification class of the target based on analysis information of the target candidate detected from the frequency spectrum of the target and an output from the first hierarchy. A target marker discriminating unit that identifies the target by using a multilayer neural network including: the feature amount is a partial spectrogram related to an amplitude value or a partial spectrogram related to a distance value extracted from a spectrogram based on the frequency spectrum. And a program for functioning as an information processing device including at least one of them.

また、上記課題を解決するために、本発明の別の観点によれば、多層ニューラルネットワークを用いた情報処理方法であって、検出された物標に係る周波数スペクトルに基づいて抽出される特徴量の2次元的パターン形状を抽象化することと、前記物標に係る周波数スペクトルから検出された物標候補の分析情報と抽象化された前記特徴量の2次元的パターンとに基づいて前記物標の識別クラスを決定することと、を含み、前記特徴量は、前記周波数スペクトルに基づくスペクトログラムから抽出される振幅値に関する部分スペクトログラムまたは距離値に関する部分スペクトログラムのうち、少なくともいずれか一方を含む、情報処理方法が提供される。   According to another embodiment of the present invention, there is provided an information processing method using a multilayer neural network, wherein a feature amount extracted based on a frequency spectrum of a detected target is provided. Abstracting the two-dimensional pattern shape of the target, and analyzing the target candidate based on the analysis information of the target candidate detected from the frequency spectrum of the target and the abstracted two-dimensional pattern of the feature amount. Determining the discrimination class of the information processing, wherein the feature amount includes at least one of a partial spectrogram related to an amplitude value or a partial spectrogram related to a distance value extracted from a spectrogram based on the frequency spectrum. A method is provided.

以上説明したように本発明によれば、精度の高い物標識別をより安価に実現することが可能となる。   As described above, according to the present invention, it is possible to realize high-precision object labeling at lower cost.

本発明の実施形態の概要を説明するための説明図である。It is an explanatory view for explaining an outline of an embodiment of the present invention. 同実施形態に係る情報処理装置の機能ブロック図である。FIG. 3 is a functional block diagram of the information processing apparatus according to the embodiment. 同実施形態に係る物標検出部による物標候補の検出について説明するための説明図である。FIG. 9 is an explanatory diagram for describing detection of a target candidate by the target detection unit according to the embodiment; 同実施形態に係る特徴抽出部により抽出される特徴量のデータ構造例を示す図である。FIG. 3 is a diagram illustrating an example of a data structure of a feature amount extracted by a feature extraction unit according to the embodiment. 同実施形態に係る多層ニューラルネットワークのネットワーク構造例を示す図である。FIG. 3 is a diagram illustrating an example of a network structure of the multilayer neural network according to the embodiment. 同実施形態に係る物標追尾部により出力される追尾結果の一例である。It is an example of the tracking result output by the target tracking unit according to the embodiment. 同実施形態に係る情報処理装置の処理の流れを示すフローチャートである。It is a flowchart showing a flow of processing of the information processing apparatus according to the same embodiment. 本発明に係る情報処理装置のハードウェア構成例である。2 is a hardware configuration example of an information processing apparatus according to the present invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the specification and the drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

<1.背景>
近年、ITSなどの路上監視システムでは、各種のセンサを用いて走行車両の車種を識別する技術が用いられている。上記のような技術には、例えば、画像認識処理による車種識別が挙げられる。しかし、一般に撮像センサは、日中や夜間における日照の差や、雨や雪などによる天候の影響を受けやすい。このため、屋外における継続的な監視に用いる場合、上記のような影響を排除するための手段が求められる。
<1. Background>
2. Description of the Related Art In recent years, a road monitoring system such as ITS uses a technology for identifying a type of a traveling vehicle using various sensors. Examples of the above technology include vehicle type identification by image recognition processing. However, the image sensor is generally susceptible to differences in sunshine during the day or at night, and to weather such as rain and snow. For this reason, when used for continuous monitoring outdoors, means for eliminating the above-mentioned effects are required.

一方、上述した特許文献1や特許文献2に記載されるように、マイクロ波レーダを用いた車種識別手法も知られている。マイクロ波レーダは、日照や天候の影響を受けづらい性質を有するため、耐環境性の求められる用途においては、撮像センサと比較して優位な利点を持つ。   On the other hand, as described in Patent Literature 1 and Patent Literature 2 described above, a vehicle type identification method using a microwave radar is also known. Microwave radar has a property that it is hard to be affected by sunshine and weather, and thus has an advantage over an image sensor in applications requiring environmental resistance.

しかし、マイクロ波レーダを用いる車種識別では、橋梁等の高所にマイクロ波レーダを設置することが求められるため、設置コストが増大する傾向があった。   However, in the vehicle type identification using the microwave radar, it is required to install the microwave radar at a high place such as a bridge, and the installation cost tends to increase.

本発明のある実施形態に係る情報処理装置、情報処理方法、およびプログラムは、上記の点に着目して発想されたものであり、マイクロ波レーダを路側に設置することで、設置コストを大幅に低減することが可能である。また、本発明のある実施形態に係る情報処理装置、情報処理方法、およびプログラムは、多層ニューラルネットワークを採用することで、精度の高い車種識別を実現することが可能である。以降に説明される本発明の実施形態では、本発明に係る情報処理装置の構造上の特徴を挙げながら、当該特徴が奏する効果について述べる。   An information processing apparatus, an information processing method, and a program according to an embodiment of the present invention have been conceived by paying attention to the above points. By installing a microwave radar on the roadside, the installation cost is significantly reduced. It is possible to reduce. In addition, the information processing apparatus, the information processing method, and the program according to an embodiment of the present invention can realize highly accurate vehicle type identification by employing a multilayer neural network. In the embodiments of the present invention described below, the effects of the features will be described while citing the structural features of the information processing apparatus according to the present invention.

<2.実施形態>
[2.1.本実施形態の概要]
まず、図1を参照して、本発明のある実施形態の概要について説明する。図1は、本実施形態の概要を説明するための説明図である。図1を参照すると、本実施形態に係る情報処理装置10は、マイクロ波レーダにより、走行する車両などの物標O1からの反応を取得する。この際、本実施形態に係る情報処理装置10は、図1に示されるように、路側に設定されてよい。
<2. Embodiment>
[2.1. Overview of the present embodiment]
First, an outline of an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram for explaining the outline of the present embodiment. Referring to FIG. 1, an information processing apparatus 10 according to the present embodiment acquires a reaction from a target O1 such as a running vehicle by a microwave radar. At this time, the information processing device 10 according to the present embodiment may be set on the roadside as shown in FIG.

また、本実施形態に係る情報処理装置10は、例えば、指向性の狭いアンテナを備えるCW(Continuous Wave;連続波)タイプのマイクロ波レーダなどを用いてよい。   The information processing apparatus 10 according to the present embodiment may use, for example, a CW (Continuous Wave; continuous wave) type microwave radar having an antenna with narrow directivity.

図1に示すように、本実施形態に係る情報処理装置10は、マイクロ波レーダから送信されたマイクロ波が物標O1に接触した際に発生する反射波を受信信号として取得することができる。この際、ドップラー効果により、上記の受信信号には、物標O1に係る種々の影響が観測され得る。具体的には、上記の受信信号は、物標O1の表面積と距離とに依存して信号強度が変化し、物標O1の速度に依存して周波数が変化する。   As shown in FIG. 1, the information processing apparatus 10 according to the present embodiment can acquire, as a reception signal, a reflected wave generated when a microwave transmitted from a microwave radar comes into contact with a target O1. At this time, due to the Doppler effect, various effects related to the target O1 can be observed in the received signal. Specifically, the signal intensity of the received signal changes depending on the surface area and the distance of the target O1, and the frequency changes depending on the speed of the target O1.

また、情報処理装置10が、互いに異なる発振周波数を有する複数の送信波を用いる場合、アンテナと物標O1との距離を計測することが可能である。さらに、車線とレーダの位置関係が予め明確であれば、物標O1に係る強度と距離とから、アンテナと物標O1との角度を推定可能である。すなわち、本実施形態に係る情報処理装置10は、マイクロ波レーダにより、物標O1に係る強度、速度、距離および角度の情報を取得することができる。   Further, when the information processing apparatus 10 uses a plurality of transmission waves having different oscillation frequencies, it is possible to measure the distance between the antenna and the target O1. Furthermore, if the positional relationship between the lane and the radar is clear in advance, the angle between the antenna and the target O1 can be estimated from the intensity and the distance related to the target O1. That is, the information processing apparatus 10 according to the present embodiment can acquire information on the intensity, speed, distance, and angle of the target O1 using the microwave radar.

本実施形態に係る情報処理装置10は、上記のように得られた情報、また当該情報から分析され得る各種の情報を、多層ニューラルネットワークに入力することで、物標O1の識別を精度高く実現することが可能である。以降の説明では、本実施形態に係る情報処理装置10の機能構成、および処理について詳細に説明する。   The information processing apparatus 10 according to the present embodiment realizes the identification of the target O1 with high accuracy by inputting the information obtained as described above and various types of information that can be analyzed from the information to the multilayer neural network. It is possible to In the following description, the functional configuration and processing of the information processing device 10 according to the present embodiment will be described in detail.

[2.2.情報処理装置10の機能構成例]
次に、図2を参照して、本実施形態に係る情報処理装置10の機能構成例について説明する。図2は、本実施形態に係る情報処理装置10の機能ブロック図である。図2を参照すると、本実施形態に係る情報処理装置10は、レーダ110、信号処理部120、物標検出部130、特徴抽出部140、物標追尾部150、及び物標識別部160を備える。以下、上記の各構成について詳細に説明する。
[2.2. Functional configuration example of information processing apparatus 10]
Next, an example of a functional configuration of the information processing apparatus 10 according to the present embodiment will be described with reference to FIG. FIG. 2 is a functional block diagram of the information processing apparatus 10 according to the present embodiment. Referring to FIG. 2, the information processing apparatus 10 according to the present embodiment includes a radar 110, a signal processing unit 120, a target detection unit 130, a feature extraction unit 140, a target tracking unit 150, and a target marking unit 160. . Hereinafter, each of the above configurations will be described in detail.

(レーダ110)
レーダ110は、ミリ波などの電波を物標に向けて送信し、反射波を受信する機能を有する。このため、本実施形態に係るレーダ110は、例えば、単一の受信素子を有するCW型のレーダであってよい。また、本実施形態に係るレーダ110は、複数の発振周波数を段階的または連続的に切り替えて送信する機能を有する。
(Radar 110)
The radar 110 has a function of transmitting a radio wave such as a millimeter wave toward a target and receiving a reflected wave. Therefore, the radar 110 according to the present embodiment may be, for example, a CW-type radar having a single receiving element. Further, the radar 110 according to the present embodiment has a function of switching a plurality of oscillation frequencies in a stepwise or continuous manner and transmitting.

(信号処理部120)
信号処理部120は、レーダ110が受信した信号を周波数分析し、ドップラー周波数に関する周波数スペクトルを算出する機能を有する。本実施形態に係る信号処理部120は、物標に係る速度v[m/s]、および距離r[m]を算出することが可能である。
(Signal processing unit 120)
The signal processing unit 120 has a function of analyzing the frequency of the signal received by the radar 110 and calculating a frequency spectrum related to the Doppler frequency. The signal processing unit 120 according to the present embodiment can calculate the speed v [m / s] and the distance r [m] of the target.

信号処理部120は、例えば、下記の数式(1)を用いて物標に係る速度v[m/s]を算出してよい。   The signal processing unit 120 may calculate the speed v [m / s] of the target using, for example, the following equation (1).

Figure 0006673030
Figure 0006673030

ここで、上記の数式(1)におけるλ[m]は、送信波の波長を示している。また、ドップラー周波数f[Hz]は、レーダ110が受信した受信信号を高速フーリエ変換(FFT;Fast Fourier Transform)を用いて算出される。 Here, λ [m] in the above equation (1) indicates the wavelength of the transmission wave. Further, the Doppler frequency f d [Hz] is calculated by using a fast Fourier transform (FFT) for a received signal received by the radar 110.

また、信号処理部120は、例えば、下記の数式(2)を用いて物標に係る距離r[m]を算出してよい。この際、レーダ110は、上述したとおり、複数の発振周波数を段階的または連続的に切り替えて送信する機能を有してよい。   In addition, the signal processing unit 120 may calculate the distance r [m] related to the target using, for example, the following equation (2). At this time, as described above, the radar 110 may have a function of switching a plurality of oscillation frequencies stepwise or continuously and transmitting.

Figure 0006673030
Figure 0006673030

ここで、上記の数式(2)におけるΔf[Hz]は、発信周波数の差を示し、Δφ[rad]は、発信周波数間の信号位相差を示している。また、上記の数式(2)におけるc[m/s]は、光速である。 Here, Δf s [Hz] in the above equation (2) indicates a difference between transmission frequencies, and Δφ s [rad] indicates a signal phase difference between the transmission frequencies. Further, c [m / s] in the above equation (2) is the speed of light.

以上示したように、本実施形態に係る信号処理部120は、高速フーリエ変換を用いて、ドップラー周波数に関する周波数スペクトルを取得することが可能である。   As described above, the signal processing unit 120 according to the present embodiment can acquire the frequency spectrum related to the Doppler frequency using the fast Fourier transform.

(物標検出部130)
物標検出部130は、信号処理部120により取得された周波数スペクトルの強度に基づいて、少なくとも1つ以上の物標候補を検出する機能を有する。ここで、本実施形態に係る物標候補は、周波数スペクトルのピーク検出結果である特定周波数を示してよい。本実施形態に係る物標検出部130による物標候補検出の詳細については、後述する。
(Target detection unit 130)
The target detection unit 130 has a function of detecting at least one or more target candidates based on the intensity of the frequency spectrum acquired by the signal processing unit 120. Here, the target candidate according to the present embodiment may indicate a specific frequency that is a peak detection result of a frequency spectrum. Details of target candidate detection by the target detection unit 130 according to the present embodiment will be described later.

(特徴抽出部140)
特徴抽出部140は、物標検出部130が検出した物標候補に係る特徴量を抽出する機能を有する。ここで、本実施形態に係る特徴量は、周波数スペクトルに基づくスペクトログラムから抽出される振幅値に関する部分スペクトログラムまたは距離値に関する部分スペクトログラムのうち、少なくともいずれか一方を含んでよい。本実施形態に係る特徴抽出部140は、物標候補に係る周波数スペクトルを時間方向に展開して得たスペクトログラムから、上記の物標候補に近傍のデータを特徴量として抽出する。本実施形態に係る特徴抽出部140による特徴量抽出の詳細については、後述する。
(Feature extraction unit 140)
The feature extraction unit 140 has a function of extracting a feature amount related to a target candidate detected by the target detection unit 130. Here, the feature quantity according to the present embodiment may include at least one of a partial spectrogram related to an amplitude value and a partial spectrogram related to a distance value extracted from a spectrogram based on a frequency spectrum. The feature extraction unit 140 according to the present embodiment extracts, as a feature amount, data near the target candidate from a spectrogram obtained by expanding the frequency spectrum of the target candidate in the time direction. Details of the feature amount extraction by the feature extraction unit 140 according to the present embodiment will be described later.

(物標追尾部150)
物標追尾部150は、物標検出部130が検出した複数の物標候補に係る時間的な対応関係を示す追尾結果を出力する機能を有する。本実施形態に係る物標追尾部150は、物標候補に係る速度や距離の整合性を考慮することで、上記の追尾結果を出力することができる。
(Target tracking unit 150)
The target tracking unit 150 has a function of outputting a tracking result indicating a temporal correspondence relationship between a plurality of target candidates detected by the target detection unit 130. The target tracking unit 150 according to the present embodiment can output the above tracking result by considering the consistency of the speed and the distance of the target candidate.

具体的には、本実施形態に係る物標追尾部150は、物標検出部130から任意時間ごとに出力される物標候補の追尾を行う。本実施形態に係る物標追尾部150は、例えば、ある時刻kの物標候補と、次の時刻k+1の物標候補とを対応付ける際、時刻kの物標候補に係る速度と、時刻k+1において検出された複数(i=1,・・・,N個)の物標候補に係る速度との誤差が最小となるように処理を行ってよい。具体的には、下記の数式(3)により表現される。   Specifically, the target tracking unit 150 according to the present embodiment tracks target candidates output from the target detection unit 130 at arbitrary time intervals. The target tracking unit 150 according to the present embodiment, for example, when associating the target candidate at a certain time k with the target candidate at the next time k + 1, at the speed related to the target candidate at the time k, at the time k + 1 The processing may be performed such that an error from the speed of the plurality of detected (i = 1,..., N) target candidates is minimized. Specifically, it is expressed by the following equation (3).

Figure 0006673030
Figure 0006673030

なお、上記の数式(3)においては、時刻k+1のs個目の物標候補が、時刻kの物標候補と対応付けられる場合を示している。本実施形態に係る物標追尾部150は、上記の操作を時刻ごとに繰り返すことで、物標候補の追尾を行うことができる。なお、本実施形態に係る物標追尾部150により出力される追尾結果は、後述する物標識別部160による識別に用いられてよい。本実施形態に係る追尾結果を用いた物標識別の詳細については、後述する。   Note that the above equation (3) shows a case where the s-th target candidate at time k + 1 is associated with the target candidate at time k. The target tracking unit 150 according to the present embodiment can track the target candidate by repeating the above operation for each time. Note that the tracking result output by the target tracking unit 150 according to the present embodiment may be used for identification by the target marking unit 160 described later. The details of each object marker using the tracking result according to the present embodiment will be described later.

(物標識別部160)
物標識別部160は、特徴抽出部140が抽出した特徴量を用いて、機械学習モデルに基づく物標識別を行う機能を有する。このため、本実施形態に係る物標識別部160は、検出された物標に係る周波数スペクトルに基づいて抽出される特徴量の2次元的パターン形状を抽象化する第1の階層と、上記物標に係る周波数スペクトルから検出された物標候補の分析情報と上記第1の階層からの出力とに基づいて上記物標の識別クラスを決定する第2の階層と、を含む多層ニューラルネットワークを含んでよい。
(Object marker separate section 160)
The object marker classification unit 160 has a function of performing object marker classification based on a machine learning model using the feature amount extracted by the feature extraction unit 140. For this reason, the object marker distinction unit 160 according to the present embodiment includes a first layer that abstracts a two-dimensional pattern shape of a feature amount extracted based on the frequency spectrum of the detected object, A multi-layer neural network including a second layer that determines the identification class of the target based on the analysis information of the target candidate detected from the frequency spectrum of the target and the output from the first layer. Is fine.

ここで、上記物標候補の分析情報は、振幅強度、速度情報、距離情報または角度情報のうち、少なくともいずれかを含んでよい。   Here, the analysis information of the target candidate may include at least one of amplitude intensity, speed information, distance information, and angle information.

また、本実施形態に係る物標識別部160は、多層ニューラルネットワークにより出力される識別クラスと物標追尾部150により出力される追尾結果とに基づいて、物標の識別を行う機能を有してもよい。   In addition, the target marking unit 160 according to the present embodiment has a function of identifying a target based on the identification class output by the multilayer neural network and the tracking result output by the target tracking unit 150. You may.

この際、本実施形態に係る物標識別部160は、追尾結果に対応する複数の識別クラスのうち最頻出する識別クラスに基づいて、物標の識別を行うことができる。   At this time, the object sign classification unit 160 according to the present embodiment can identify the target based on the most frequently occurring identification class among the plurality of identification classes corresponding to the tracking result.

また、本実施形態に係る物標識別部160は、2つ以上の異なる物標候補における周波数差が所定の閾値を超える場合、当該物標候補に係る前記識別クラスを、物標の識別に用いないことを特徴の一つとする。本実施形態に係る物標識別部160による物標識別の詳細については、後述する。   When the frequency difference between two or more different target candidates exceeds a predetermined threshold, the target marker classification unit 160 according to the present embodiment uses the identification class for the target candidate for target identification. Is one of the features. The details of each object label by the object marker separate unit 160 according to the present embodiment will be described later.

[2.3.物標候補検出の詳細]
次に、本実施形態に係る物標候補検出の詳細について説明する。上述したとおり、本実施形態に係る物標検出部130は、信号処理部120により取得された周波数スペクトルの強度に基づいて、少なくとも1つ以上の物標候補を検出する機能を有する。図3は、本実施形態に係る物標検出部130による物標候補の検出について説明するための説明図である。
[2.3. Details of target candidate detection]
Next, details of target candidate detection according to the present embodiment will be described. As described above, the target detection unit 130 according to the present embodiment has a function of detecting at least one or more target candidates based on the intensity of the frequency spectrum acquired by the signal processing unit 120. FIG. 3 is an explanatory diagram for describing detection of a target candidate by the target detection unit 130 according to the present embodiment.

図3には、レーダ110の検知領域A1に進入する物標O1が示されている。なお、図3における矢印は、物標O1の進行方向を示している。図3に示すように、物標O1がレーダ110の検知領域A1に進入した場合、得られる周波数スペクトルには、物標O1の材質や距離、面積に依存した振幅成分が検出され得る。また、この際、上記の周波数スペクトルは、物標O1の速度に比例する。   FIG. 3 shows a target O1 entering the detection area A1 of the radar 110. Note that the arrow in FIG. 3 indicates the traveling direction of the target O1. As shown in FIG. 3, when the target O1 enters the detection area A1 of the radar 110, an amplitude component depending on the material, the distance, and the area of the target O1 can be detected in the obtained frequency spectrum. At this time, the frequency spectrum is proportional to the speed of the target O1.

本実施形態に係る物標検出部130は、物標O1に依存する上記の振幅成分を検出するために、上記の周波数スペクトル上でピーク検出を行う。この際、本実施形態に係る物標検出部130は、例えば、所定の閾値Tを超える振幅成分のみを複数抽出し、抽出した複数の振幅成分から昇順にn個選出することで、ピーク検出を行ってもよい。上述したとおり、本実施形態では、物標検出部130による周波数スペクトルのピーク検出結果である特定周波数を物標候補と称する。   The target detection unit 130 according to the present embodiment performs peak detection on the frequency spectrum in order to detect the amplitude component depending on the target O1. At this time, the target detecting unit 130 according to the present embodiment, for example, extracts only a plurality of amplitude components exceeding a predetermined threshold T and selects n pieces from the extracted plurality of amplitude components in ascending order, thereby performing peak detection. May go. As described above, in the present embodiment, the specific frequency that is the peak detection result of the frequency spectrum by the target detection unit 130 is referred to as a target candidate.

また、図3には、レーダ110に対する物標O1の反射範囲R1が示されている。このように、物標O1において電波の反射が発生する部位は、物標O1の形状と、レーダ110と物標O1との距離及び角度に依存することがわかる。例えば、物標O1がトラックのように車長の長い物標である場合、反射範囲R1を構成する幅方向の2線r1およびr2の間隔は車長に応じて広がり、物標O1が軽自動車のように車長の短い物標である場合、反射範囲R1を構成する幅方向の2線r1およびr2の間隔は車長に応じて狭まる。   FIG. 3 shows a reflection range R1 of the target O1 with respect to the radar 110. As described above, it can be seen that the portion of the target O1 where the radio wave is reflected depends on the shape of the target O1, the distance and the angle between the radar 110 and the target O1. For example, when the target O1 is a long target such as a truck, the distance between the two lines r1 and r2 in the width direction that constitutes the reflection range R1 is widened according to the vehicle length, and the target O1 is a light vehicle. In the case of a target having a short vehicle length as described above, the interval between the two lines r1 and r2 in the width direction forming the reflection range R1 becomes narrower according to the vehicle length.

また、ここで、物標O1が等速直線的に移動していると仮定した場合、レーダ110により観測される物標O1の速度は、物標O1の移動方向と、反射範囲R1を構成する幅方向の2線r1およびr2と、の角度に依存する。すなわち、レーダ110により観測される周波数は、物標O1の車長に依存した帯域幅を有することとなる。このため、上記の周波数帯域幅には、物標O1の車長に関する特徴が現れることが期待される。また、周波数に対する振幅成分の分布傾向には、物標O1の形状(例えば、凹凸など)に係る特徴が含まれることも期待される。さらには、上記の特徴に係る時間的な変動を観察することで、物標O1に形状に係る性質をより正確に捉える効果も期待される。   Here, assuming that the target O1 moves linearly at a constant speed, the speed of the target O1 observed by the radar 110 constitutes the moving direction of the target O1 and the reflection range R1. It depends on the angle between the two lines r1 and r2 in the width direction. That is, the frequency observed by the radar 110 has a bandwidth that depends on the vehicle length of the target O1. For this reason, it is expected that a feature relating to the vehicle length of the target O1 appears in the frequency bandwidth. Further, it is expected that the distribution tendency of the amplitude component with respect to the frequency includes a feature related to the shape (for example, unevenness) of the target O1. Further, by observing the temporal variation related to the above-described feature, an effect of more accurately capturing the property related to the shape of the target O1 is expected.

[2.4.特徴量抽出の詳細]
次に、本実施形態に係る特徴量抽出の詳細について説明する。上述したとおり、本実施形態に係る特徴抽出部140は、物標検出部130が検出した物標候補に係る特徴量を抽出する。この際、本実施形態に係る特徴抽出部140は、物標候補に係る周波数スペクトルを時間方向に展開して得られる時間−周波数表現(スペクトログラム)から、上記の特徴量を抽出してよい。
[2.4. Details of feature extraction]
Next, details of the feature amount extraction according to the present embodiment will be described. As described above, the feature extraction unit 140 according to the present embodiment extracts a feature amount related to a target candidate detected by the target detection unit 130. At this time, the feature extraction unit 140 according to the present embodiment may extract the above-described feature amount from a time-frequency expression (spectrogram) obtained by expanding the frequency spectrum of the target candidate in the time direction.

図4は、本実施形態に係る特徴抽出部140により抽出される特徴量のデータ構造例を示す図である。ここで、図4には、縦軸に周波数[Hz]が示され、横軸に時間[s]が示されている。また、図4に示される各セルCは、それぞれの時間および周波数ビンに対応している。また、図4には、物標検出部130により検出された物標候補OC1が示されている。   FIG. 4 is a diagram illustrating an example of a data structure of a feature amount extracted by the feature extracting unit 140 according to the present embodiment. Here, in FIG. 4, the vertical axis represents frequency [Hz], and the horizontal axis represents time [s]. Each cell C shown in FIG. 4 corresponds to each time and frequency bin. FIG. 4 shows a target candidate OC1 detected by the target detection unit 130.

図4に示すように、本実施形態に係る特徴抽出部140は、物標候補OC1の時間及び周波数に近傍のデータ(部分スペクトログラム)を特徴量として抽出することができる。この際、本実施形態に係る特徴抽出部140は、例えば、目標となる物標候補OC1の周波数から−100〜+100Hzの範囲、かつ物標候補OC1が得られた時間から過去1秒以内に該当するすべての振幅値データを特徴量として抽出してもよい。また、特徴抽出部140は、例えば、データを蓄積することで、物標候補OC1よりも時間の進んだデータを特徴量として選択してもよい。このように、特徴抽出部140が、物標候補OC1の近傍周波数から局所的に特徴量を抽出することで、速度の異なる複数の物標が存在する場合でも、当該複数の物標をそれぞれ独立に識別することが可能となる。   As shown in FIG. 4, the feature extraction unit 140 according to the present embodiment can extract data (partial spectrogram) near the time and frequency of the target candidate OC1 as a feature amount. At this time, the feature extraction unit 140 according to the present embodiment, for example, falls within the range of −100 to +100 Hz from the frequency of the target target candidate OC1, and within one second from the time when the target candidate OC1 was obtained. Alternatively, all the amplitude value data to be extracted may be extracted as the feature amount. The feature extraction unit 140 may, for example, accumulate the data and select, as the feature amount, data whose time is earlier than the target candidate OC1. As described above, the feature extracting unit 140 locally extracts the feature amount from the frequency near the target candidate OC1, so that even when there are a plurality of targets having different speeds, the plurality of targets can be independently determined. Can be identified.

さらに、本実施形態に係るレーダ110が複数の発振周波数を段階的に切り替えて送信する機能を有する場合、特徴抽出部140は、異なる発振周波数を有する信号間の周波数スペクトルの位相差を計算することで、上述した数式(2)から、図4に示す各セルCが距離値に相当するスペクトログラムを求めることができる。この場合、本実施形態に係る特徴抽出部140は、上記の距離に係るスペクトログラムから目標となる物標候補OC1に近傍のデータ(部分スペクトログラム)を選択し、特徴量として抽出してもよい。   Furthermore, when the radar 110 according to the present embodiment has a function of switching a plurality of oscillation frequencies in a stepwise manner and transmitting, the feature extraction unit 140 calculates the phase difference of the frequency spectrum between signals having different oscillation frequencies. Then, from the above equation (2), a spectrogram in which each cell C shown in FIG. 4 corresponds to a distance value can be obtained. In this case, the feature extracting unit 140 according to the present embodiment may select data (partial spectrogram) in the vicinity of the target target candidate OC1 from the spectrogram related to the distance and extract the data as a feature amount.

[2.5.物標識別の詳細]
次に、本実施形態に係る物標識別の詳細について説明する。上述したとおり、本実施形態に係る物標識別部160は、特徴抽出部140が抽出した特徴量を用いて、機械学習モデルに基づく物標識別を行う機能を有する。この際、本実施形態に係る物標識別部160は、特徴抽出部140が抽出した振幅値に関する部分スペクトログラムと、距離値に関する部分スペクトログラムと、のうちいずれか一方、または両方を特徴量として入力し、物標の識別を行うことができる。
[2.5. Details by object sign]
Next, details of each object marker according to the present embodiment will be described. As described above, the object marker classification unit 160 according to the present embodiment has a function of performing object classification based on a machine learning model using the feature amount extracted by the feature extraction unit 140. At this time, the object marker classification unit 160 according to the present embodiment inputs one or both of a partial spectrogram related to the amplitude value and a partial spectrogram related to the distance value extracted by the feature extracting unit 140 as a feature amount. , The target can be identified.

また、本実施形態に係る物標識別部160は、上記の特徴量のほか、物標候補に係る分析情報を用いることで、精度の高い物標識別を実現することを特徴の一つとする。ここで、上記の分析情報は、物標候補に係る振幅強度、速度情報、距離情報、または角度情報などを含んでよい。   Further, one of the features of the object marker classification unit 160 according to the present embodiment is to realize highly accurate object marker classification by using analysis information on target candidates in addition to the above-described feature amounts. Here, the analysis information may include amplitude intensity, speed information, distance information, angle information, and the like related to the target candidate.

本実施形態に係る物標識別部160は、例えば、多層ニューラルネットワークを用いて物標の識別を行ってよい。図5は、本実施形態に係る多層ニューラルネットワークのネットワーク構造例を示す図である。   For example, the landmark distinction unit 160 according to the present embodiment may identify a target using a multilayer neural network. FIG. 5 is a diagram illustrating a network structure example of the multilayer neural network according to the present embodiment.

図5を参照すると、本実施形態に係る多層ニューラルネットワークは、第1の入力層I1、第2の入力層I2、第1の階層L1、および第2の階層L2を含んで構成される。   Referring to FIG. 5, the multilayer neural network according to the present embodiment includes a first input layer I1, a second input layer I2, a first layer L1, and a second layer L2.

ここで、第1の入力層I1は、特徴抽出部140により抽出された特徴量を入力する入力層であってよい。上述したとおり、上記の特徴量は、物標候補に基づいて抽出される振幅値に関する部分スペクトログラムと距離値に関する部分スペクトログラムとのうち少なくともいずれか一方を含んでよい。また、図5を参照すると、第1の入力層I1は、第1の階層L1に結合される。   Here, the first input layer I1 may be an input layer for inputting the feature amount extracted by the feature extraction unit 140. As described above, the feature amount may include at least one of a partial spectrogram related to an amplitude value and a partial spectrogram related to a distance value extracted based on the target candidate. Also, referring to FIG. 5, the first input layer I1 is coupled to the first layer L1.

また、第1の階層L1は、第1の入力層I1から入力される特徴量の2次元的パターン形状を抽象化する畳み込みニューラルネットワークであってよい。畳み込みニューラルネットワークは、本実施形態に係る特徴量のように近傍のセル同士が意味を持つデータと相性が良いことが知られている。このため、本実施形態では、畳み込みニューラルネットワークを採用することで、物標の識別性能を高める効果が期待される。   Further, the first hierarchy L1 may be a convolutional neural network that abstracts the two-dimensional pattern shape of the feature quantity input from the first input layer I1. It is known that a convolutional neural network is compatible with data in which neighboring cells have meaning, such as the feature value according to the present embodiment. For this reason, in this embodiment, the effect of improving the target object identification performance is expected by employing the convolutional neural network.

また、本実施形態に係る第1の階層L1は、例えば、複数の畳み込み(Convolution)層、プーリング(Pooling)層、および活性化関数などにより構成され得る。上記のプーリング層には、例えば、広く用いられるMax−PoolingやSum−Pooligなどが挙げられる。また、上記の活性化関数には、ReLU(Rectified Linear Unit)や、tanhなどが挙げられる。なお、本実施形態に係る第1の階層L1の構成は、上記に挙げた例に限定されず、柔軟に変形され得る。また、図5を参照すると、第1の階層L1は、第2の階層L2に結合される。   In addition, the first layer L1 according to the present embodiment may be configured by, for example, a plurality of Convolution layers, a Pooling layer, an activation function, and the like. Examples of the pooling layer include Max-Pooling and Sum-Pooling which are widely used. The activation function includes ReLU (Rectified Linear Unit), tanh, and the like. Note that the configuration of the first layer L1 according to the present embodiment is not limited to the above-described example, and can be flexibly modified. Also, referring to FIG. 5, the first layer L1 is connected to the second layer L2.

また、第2の入力層I2は、物標検出部130により得られた物標候補に係る振幅強度、速度情報、距離情報、角度情報などを入力する入力層であってよい。図5を参照すると、第2の入力層I2は、第2の階層L2に結合される。   Further, the second input layer I2 may be an input layer for inputting amplitude intensity, speed information, distance information, angle information, and the like relating to a target candidate obtained by the target detection unit 130. Referring to FIG. 5, the second input layer I2 is coupled to a second layer L2.

また、第2の階層L2は、第2の入力層I2から入力される物標候補の分析情報と第1の階層L2からの出力とに基づいて物標の識別クラスを決定する機能を有する。具体的には、本実施形態に係る第2の階層L2は、第1の階層L1により抽象化された特徴量の2次元的パターンと、物標候補に係る振幅強度、速度情報、距離情報、角度情報などに基づいて、物標の識別クラスを出力してよい。   The second layer L2 has a function of determining a target identification class based on target candidate analysis information input from the second input layer I2 and output from the first layer L2. Specifically, the second layer L2 according to the present embodiment includes a two-dimensional pattern of the feature amount abstracted by the first layer L1, the amplitude intensity, speed information, distance information, The identification class of the target may be output based on the angle information or the like.

すなわち、本実施形態に係る多層ニューラルネットワークでは、部分スペクトログラム上の振幅または距離の分布パターンを学習することに加え、当該分布パターンがどのような振幅強度、速度、距離、角度に関する状況において発生し得るかを統合的に学習することが可能である。このため、本実施形態に係る多層ニューラルネットワークによれば、種々の状況に応じた上記の分布パターンを学習する効果が期待できる。   That is, in the multilayer neural network according to the present embodiment, in addition to learning the distribution pattern of the amplitude or the distance on the partial spectrogram, the distribution pattern can occur in any amplitude intensity, speed, distance, and angle-related situation. It is possible to learn in an integrated manner. For this reason, according to the multilayer neural network according to the present embodiment, the effect of learning the distribution pattern according to various situations can be expected.

なお、本実施形態に係る第2の階層L2は、例えば、1つ以上の全結合(Fully−connected)層や活性化関数により構成され得る。本実施形態に係る第2の階層L2の構成は、第1の階層L1の構成と同様に、柔軟に変形され得る。   Note that the second layer L2 according to the present embodiment can be composed of, for example, one or more fully-connected layers and an activation function. The configuration of the second layer L2 according to the present embodiment can be flexibly modified, like the configuration of the first layer L1.

以上説明したように、本実施形態に係る物標識別部160は、図4に例示する多層ニューラルネットワークを用いることで、物標の識別クラスを決定することが可能である。なお、上記の識別クラスは、例えば、小型車、中型車、大型車など複数のクラスを含んでよい。また、本実施形態に係る識別クラスは、ハードウェア機器由来のノイズや、多重反射による偽像などのクラスを含んでもよい。この場合、物標検出部130により物標以外のものが物標候補として検出された際にも、識別の精度を高めることが可能である。   As described above, the object marking unit 160 according to the present embodiment can determine the identification class of the object by using the multilayer neural network illustrated in FIG. In addition, the above-mentioned identification class may include a plurality of classes such as a small car, a medium-sized car, and a large car. Further, the identification class according to the present embodiment may include a class such as noise derived from hardware devices and a false image due to multiple reflection. In this case, even when a target other than the target is detected by the target detection unit 130 as a target candidate, the accuracy of identification can be increased.

[2.6.追尾結果を用いた物標の識別]
次に、本実施形態に係る追尾結果を用いた物標の識別について説明する。本実施形態に係る物標識別部160は、上記で説明した多層ニューラルネットワークにより出力される識別クラスに加え、物標追尾部150による物標候補の追尾結果を用いることで、より精度の高い物標識別を行うことが可能である。
[2.6. Target identification using tracking results]
Next, identification of a target using the tracking result according to the present embodiment will be described. The object marker classification unit 160 according to the present embodiment uses the tracking result of the target candidate by the target tracking unit 150 in addition to the identification class output by the multilayer neural network described above, so that a more accurate object can be obtained. It is possible to perform labeling.

図6は、本実施形態に係る物標追尾部150により出力された追尾結果の一例を示している。図6に示す一例には、物標候補OCに係る追尾結果T1が示されている。この際、本実施形態に係る物標識別部160は、追尾結果T1に係るM個の物標候補OCに係る識別クラスを上述した多層ニューラルネットワークにより求め、最頻出する識別クラスを最終的な物標の識別クラスとして決定することができる。すなわち、本実施形態に係る物標識別部160は、同一物標である可能性が極めて高い物標候補の集合に基づき、統計的手法による識別を行うことで、より精度の高い物標識別を実現することが可能である。   FIG. 6 illustrates an example of a tracking result output by the target tracking unit 150 according to the present embodiment. In an example shown in FIG. 6, a tracking result T1 relating to the target candidate OC is shown. At this time, the object marker classification unit 160 according to the present embodiment obtains the identification classes of the M target candidates OC related to the tracking result T1 by using the multilayer neural network described above, and determines the most frequently occurring identification class as the final object. It can be determined as a target identification class. In other words, the object marker classification unit 160 according to the present embodiment performs identification by a statistical method based on a set of target objects having a very high possibility of being the same target, thereby identifying a more accurate object marker. It is possible to realize.

また、この際、本実施形態に係る物標識別部160は、2つ以上の異なる物標候補OCにおける周波数差fdiffが所定の閾値を超える場合、多層ニューラルネットワークにより出力される該当する物標候補OCの識別クラスを、最終的な識別クラスの決定処理から除外してよい。具体的には、物標識別部160は、下記の数式(4)の基準を満たす物標候補OCに対応する上記の識別クラスを除外することができる。なお、下記の数式(4)におけるfthは、任意の正の実数であってよい。 Also, at this time, when the frequency difference f diff in two or more different target candidates OC exceeds a predetermined threshold, the target marker classification unit 160 according to the present embodiment outputs the corresponding target output by the multilayer neural network. The identification class of the candidate OC may be excluded from the final identification class determination process. Specifically, the target marker classification unit 160 can exclude the above-described identification class corresponding to the target candidate OC that satisfies the criterion of the following Expression (4). Note that f th in the following equation (4) may be any positive real number.

Figure 0006673030
Figure 0006673030

本実施形態に係る物標識別部160が上記の数式(4)に基づく処理を行うことで、抽出した部分スペクトログラムに2つ以上の物標候補を由来とする振幅成分が混在している場合でも、当該部分スペクトログラムに係る識別結果を除外することが可能となる。   Even when the extracted partial spectrogram includes amplitude components derived from two or more target candidates, the target marker discriminating unit 160 according to the present embodiment performs the processing based on the above equation (4). , It is possible to exclude the identification result related to the partial spectrogram.

[2.7.情報処理装置10の処理の流れ]
次に、本実施形態に係る情報処理装置10の処理の流れについて説明する。図7は、本実施形態に係る情報処理装置10の処理の流れを示すフローチャートである。
[2.7. Process flow of information processing device 10]
Next, a processing flow of the information processing apparatus 10 according to the present embodiment will be described. FIG. 7 is a flowchart illustrating a flow of a process of the information processing apparatus 10 according to the present embodiment.

図7を参照すると、まず、情報処理装置10の信号処理部120は、レーダ110が受信した信号を周波数分析し、ドップラー周波数に関する周波数スペクトルを算出する(S1101)。   Referring to FIG. 7, first, the signal processing unit 120 of the information processing device 10 performs frequency analysis on a signal received by the radar 110, and calculates a frequency spectrum related to a Doppler frequency (S1101).

次に、物標検出部130は、ステップS1101において取得された周波数スペクトルの強度に基づいて、少なくとも1つ以上の物標候補を検出する(S1102)。   Next, the target detection unit 130 detects at least one or more target candidates based on the intensity of the frequency spectrum acquired in step S1101 (S1102).

次に、特徴抽出部140は、ステップS1102において検出された物標候補に係る特徴量を抽出する(1103)。   Next, the feature extraction unit 140 extracts a feature amount related to the target candidate detected in step S1102 (1103).

次に、物標追尾部150は、ステップS1102において検出された物標候補の追尾を行い、追尾結果を出力する(S1104)。   Next, the target tracking unit 150 performs tracking of the target candidate detected in step S1102, and outputs a tracking result (S1104).

次に、物標識別部160は、ステップS1103において抽出された特徴量と、ステップS1102において検出された物標候補の分析情報とを用いて、機械学習モデルに基づく物標識別を行う(S1105)。   Next, the object marker classification unit 160 performs object marker classification based on a machine learning model using the feature amount extracted in step S1103 and the analysis information of the target candidate detected in step S1102 (S1105). .

続いて、物標識別部160は、ステップS1105において出力される識別モデルと、ステップS1104で出力される追尾結果とに基づいて、物標の最終的な識別クラスを決定し、当該識別結果を出力する(S1106)。   Subsequently, based on the identification model output in step S1105 and the tracking result output in step S1104, the target marker classification unit 160 determines the final identification class of the target, and outputs the identification result. (S1106).

<3.ハードウェア構成例>
次に、本発明に係る情報処理装置10のハードウェア構成例について説明する。図8は、本発明に係る情報処理装置10のハードウェア構成例を示すブロック図である。図8を参照すると、情報処理装置10は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力部878と、出力部879と、記憶部880と、ドライブ881と、接続ポート882と、通信部883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
<3. Example of hardware configuration>
Next, an example of a hardware configuration of the information processing apparatus 10 according to the present invention will be described. FIG. 8 is a block diagram illustrating a hardware configuration example of the information processing apparatus 10 according to the present invention. Referring to FIG. 8, for example, the information processing apparatus 10 includes a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input unit 878, and an output unit 879. , A storage unit 880, a drive 881, a connection port 882, and a communication unit 883. Note that the hardware configuration shown here is an example, and some of the components may be omitted. Further, components other than the components shown here may be further included.

(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、記憶部880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(CPU 871)
The CPU 871 functions as, for example, an arithmetic processing device or a control device, and controls the entire operation of each component or a part thereof based on various programs recorded in the ROM 872, the RAM 873, the storage unit 880, or the removable recording medium 901. .

(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ROM 872, RAM 873)
The ROM 872 is a means for storing programs read by the CPU 871, data used for calculations, and the like. The RAM 873 temporarily or permanently stores, for example, a program read by the CPU 871 and various parameters that appropriately change when the program is executed.

(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(Host bus 874, bridge 875, external bus 876, interface 877)
The CPU 871, the ROM 872, and the RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission. On the other hand, the host bus 874 is connected to, for example, an external bus 876 having a relatively low data transmission speed via a bridge 875. The external bus 876 is connected to various components via an interface 877.

(入力部878)
入力部878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、マイク、及びレバー等が用いられる。さらに、入力部878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(Input unit 878)
For the input unit 878, for example, a mouse, a keyboard, a touch panel, a button, a switch, a microphone, a lever, and the like are used. Further, as the input unit 878, a remote controller (hereinafter, remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used.

(出力部879)
出力部879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置(表示装置)、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、出力部879は、上述したような各種のレーダを含んでよい。
(Output unit 879)
The output unit 879 includes, for example, a display device (display device) such as a CRT (Cathode Ray Tube), an LCD, or an organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile. Is a device capable of visually or audibly notifying a user. In addition, the output unit 879 may include various radars as described above.

(記憶部880)
記憶部880は、各種のデータを格納するための装置である。記憶部880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(Storage unit 880)
The storage unit 880 is a device for storing various data. As the storage unit 880, for example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, or a magneto-optical storage device is used.

(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(Drive 881)
The drive 881 is, for example, a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information on the removable recording medium 901.

(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(Removable recording medium 901)
The removable recording medium 901 is, for example, a DVD medium, a Blu-ray (registered trademark) medium, an HD DVD medium, various semiconductor storage media, and the like. Of course, the removable recording medium 901 may be, for example, an IC card on which a non-contact type IC chip is mounted, or an electronic device.

(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(Connection port 882)
The connection port 882 is, for example, a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.

(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(External connection device 902)
The external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.

(通信部883)
通信部883は、ネットワーク903に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。また、内線電話網や携帯電話事業者網等の電話網に接続してもよい。
(Communication unit 883)
The communication unit 883 is a communication device for connecting to the network 903. For example, a communication card for a wired or wireless LAN, Bluetooth (registered trademark), or WUSB (Wireless USB), a router for optical communication, an ADSL (Asymmetric) Digital Subscriber Line) or a modem for various communications. Further, it may be connected to a telephone network such as an extension telephone network or a mobile telephone carrier network.

<4.まとめ>
以上説明したように、本発明に係る情報処理装置10は、多層ニューラルネットワークを用いた物標識別を行うことを特徴の一つとする。また、本発明に係る多層ニューラルネットワークでは、部分スペクトログラム上の振幅または距離の分布パターンを学習することに加え、当該分布パターンがどのような振幅強度、速度、距離、角度に関する状況において発生し得るかを統合的に学習することができる。係る構成によれば、精度の高い物標識別をより安価に実現することが可能となる。
<4. Summary>
As described above, one of the features of the information processing apparatus 10 according to the present invention is that the information processing apparatus 10 performs object labeling using a multilayer neural network. Further, in the multilayer neural network according to the present invention, in addition to learning the distribution pattern of the amplitude or the distance on the partial spectrogram, what kind of amplitude intensity, speed, distance, and angle can be generated in the distribution pattern? Can be integratedly learned. According to such a configuration, it is possible to realize highly accurate object labeling at a lower cost.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   As described above, the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that those skilled in the art to which the present invention pertains can conceive various changes or modifications within the scope of the technical idea described in the claims. It is understood that these also belong to the technical scope of the present invention.

例えば、上記実施形態では、物標の例として車両を挙げて説明したが、本発明は係る例に限定されない。例えば、本実施形態に係る物標は、船舶や無人航空機などを含んでよい。   For example, in the above embodiment, the vehicle has been described as an example of the target, but the present invention is not limited to this example. For example, the target according to the present embodiment may include a ship, an unmanned aerial vehicle, and the like.

また、上記実施形態では、電波を放射するレーダを例に説明したが、本発明は、音波を放射するレーダを用いて実現されてもよい。   Further, in the above embodiment, a radar that radiates radio waves has been described as an example, but the present invention may be implemented using a radar that radiates sound waves.

また、上記実施形態では、高速フーリエ変換によるスペクトログラムの振幅値を用いる場合を例に述べたが、本発明では、ウェーブレット変換によるスペクトログラムのウェーブレット係数が用いられてもよい。   Further, in the above embodiment, the case where the amplitude value of the spectrogram by the fast Fourier transform is used has been described as an example. However, in the present invention, the wavelet coefficient of the spectrogram by the wavelet transform may be used.

また、上記実施形態では、物標追尾部150が物標候補の速度に基づいて追尾を行う場合を例に説明したが、本発明に係る物標候補の追尾は、物標候補の距離に基づいて実現されてもよいし、物標候補の速度および距離の両方に基づいて実現されてもよい。   In the above-described embodiment, the case where the target tracking unit 150 performs tracking based on the speed of the target candidate has been described as an example. However, tracking of the target candidate according to the present invention is based on the distance of the target candidate. Or may be realized based on both the speed and the distance of the target candidate.

また、上記実施形態では、第1の階層L1と第2の階層L2が直接される結合される場合を例に述べたが、本発明に係る多層ニューラルネットワークのネットワーク構造は、係る例に限定されないのは、言うまでもない。   Further, in the above embodiment, the case where the first layer L1 and the second layer L2 are directly connected is described as an example, but the network structure of the multilayer neural network according to the present invention is not limited to such an example. It goes without saying.

また、本発明の情報処理装置10の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、情報処理装置10の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   Further, each step in the processing of the information processing apparatus 10 of the present invention does not necessarily need to be processed in a time series in the order described in the flowchart. For example, each step in the processing of the information processing device 10 may be processed in an order different from the order described in the flowchart, or may be processed in parallel.

10 情報処理装置
110 レーダ
120 信号処理部
130 物標検出部
140 特徴抽出部
150 物標追尾部
160 物標識別部
I1 第1の入力層
I2 第2の入力層
L1 第1の階層
L2 第2の階層
REFERENCE SIGNS LIST 10 information processing device 110 radar 120 signal processing unit 130 target detection unit 140 feature extraction unit 150 target tracking unit 160 target sign distinction unit I1 first input layer I2 second input layer L1 first layer L2 second hierarchy

Claims (9)

検出された物標に係る周波数スペクトルに基づいて抽出される特徴量の2次元的パターン形状を抽象化する第1の階層と、前記物標に係る周波数スペクトルから検出された物標候補の分析情報と前記第1の階層からの出力とに基づいて前記物標の識別クラスを決定する第2の階層と、を含む多層ニューラルネットワークを用いて前記物標の識別を行う物標識別部、
を備え、
前記特徴量は、前記周波数スペクトルに基づくスペクトログラムから抽出される振幅値に関する部分スペクトログラムまたは距離値に関する部分スペクトログラムのうち、少なくともいずれか一方を含む、
情報処理装置。
A first hierarchy that abstracts a two-dimensional pattern shape of a feature quantity extracted based on a frequency spectrum of the detected target, and analysis information of target candidates detected from the frequency spectrum of the target And a second layer that determines the identification class of the target based on the output from the first layer and a second layer that determines the classification of the target based on the output from the first layer.
With
The feature amount includes at least one of a partial spectrogram related to an amplitude value or a partial spectrogram related to a distance value extracted from a spectrogram based on the frequency spectrum,
Information processing device.
前記物標候補の分析情報は、振幅強度、速度情報、距離情報、または角度情報のうち、少なくともいずれかを含む、
請求項1に記載の情報処理装置。
The analysis information of the target candidate includes at least one of amplitude intensity, speed information, distance information, or angle information,
The information processing device according to claim 1.
前記周波数スペクトルを時間方向に展開して得たスペクトログラムから前記物標候補に近傍のデータを前記特徴量として抽出する特徴抽出部、
をさらに備える、
請求項1または2に記載の情報処理装置。
A feature extraction unit that extracts data near the target candidate from the spectrogram obtained by expanding the frequency spectrum in the time direction as the feature amount;
Further comprising,
The information processing apparatus according to claim 1.
前記周波数スペクトルの強度に基づいて、少なくとも1つ以上の前記物標候補を検出する物標検出部、
をさらに備える、
請求項1〜3のいずれかに記載の情報処理装置。
A target detection unit that detects at least one or more target candidates based on the intensity of the frequency spectrum;
Further comprising,
The information processing device according to claim 1.
複数の前記物標候補に係る時間的な対応関係を示す追尾結果を出力する物標追尾部、
をさらに備え、
前記物標識別部は、前記多層ニューラルネットワークにより出力される前記識別クラスと前記追尾結果とに基づいて、前記物標の識別を行う、
請求項1〜4のいずれかに記載の情報処理装置。
A target tracking unit that outputs a tracking result indicating a temporal correspondence relationship between the plurality of target candidates,
Further comprising
The target marker distinction unit performs the identification of the target based on the identification class and the tracking result output by the multilayer neural network,
The information processing apparatus according to claim 1.
前記物標識別部は、前記追尾結果に対応する複数の前記識別クラスのうち最頻出する識別クラスに基づいて、前記物標の識別を行う、
請求項5に記載の情報処理装置。
The target marker distinction unit performs the identification of the target based on the most frequently occurring identification class among the plurality of identification classes corresponding to the tracking result,
The information processing device according to claim 5.
前記物標識別部は、2つ以上の異なる前記物標候補における周波数差が所定の閾値を超える場合、当該物標候補に係る前記識別クラスを、前記物標の識別に用いない、
請求項6に記載の情報処理装置。
When the frequency difference between two or more different target candidates exceeds a predetermined threshold, the target marker separate unit does not use the identification class related to the target candidate for the identification of the target.
The information processing device according to claim 6.
コンピュータを、
検出された物標に係る周波数スペクトルに基づいて抽出される特徴量の2次元的パターン形状を抽象化する第1の階層と、前記物標に係る周波数スペクトルから検出された物標候補の分析情報と前記第1の階層からの出力とに基づいて前記物標の識別クラスを決定する第2の階層と、を含む多層ニューラルネットワークを用いて前記物標の識別を行う物標識別部、
を備え、
前記特徴量は、前記周波数スペクトルに基づくスペクトログラムから抽出される振幅値に関する部分スペクトログラムまたは距離値に関する部分スペクトログラムのうち、少なくともいずれか一方を含む、
情報処理装置、
として機能させるためのプログラム。
Computer
A first hierarchy that abstracts a two-dimensional pattern shape of a feature quantity extracted based on a frequency spectrum of the detected target, and analysis information of target candidates detected from the frequency spectrum of the target And a second layer that determines the identification class of the target based on the output from the first layer and a second layer that determines the classification of the target based on the output from the first layer.
With
The feature amount includes at least one of a partial spectrogram related to an amplitude value or a partial spectrogram related to a distance value extracted from a spectrogram based on the frequency spectrum,
Information processing equipment,
Program to function as
多層ニューラルネットワークを用いた情報処理方法であって、
検出された物標に係る周波数スペクトルに基づいて抽出される特徴量の2次元的パターン形状を抽象化することと、
前記物標に係る周波数スペクトルから検出された物標候補の分析情報と抽象化された前記特徴量の2次元的パターンとに基づいて前記物標の識別クラスを決定することと、
を含み、
前記特徴量は、前記周波数スペクトルに基づくスペクトログラムから抽出される振幅値に関する部分スペクトログラムまたは距離値に関する部分スペクトログラムのうち、少なくともいずれか一方を含む、
情報処理方法。
An information processing method using a multilayer neural network,
Abstracting the two-dimensional pattern shape of the feature quantity extracted based on the frequency spectrum of the detected target;
Determining the identification class of the target based on the analysis information of the target candidate detected from the frequency spectrum of the target and the two-dimensional pattern of the abstracted feature amount;
Including
The feature amount includes at least one of a partial spectrogram related to an amplitude value or a partial spectrogram related to a distance value extracted from a spectrogram based on the frequency spectrum,
Information processing method.
JP2016110599A 2016-06-02 2016-06-02 Information processing apparatus, information processing method, and program Active JP6673030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016110599A JP6673030B2 (en) 2016-06-02 2016-06-02 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110599A JP6673030B2 (en) 2016-06-02 2016-06-02 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2017215272A JP2017215272A (en) 2017-12-07
JP6673030B2 true JP6673030B2 (en) 2020-03-25

Family

ID=60575633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110599A Active JP6673030B2 (en) 2016-06-02 2016-06-02 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6673030B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109116821B (en) * 2018-09-04 2021-04-06 江苏远望仪器集团有限公司 Ship monitoring system, method and device
KR102128006B1 (en) * 2018-09-14 2020-06-29 국방과학연구소 Apparatus and method for classifying active pulse
US11906657B2 (en) * 2018-10-02 2024-02-20 Fortem Technologies, Inc. System and method for drone and object classification
KR102395937B1 (en) * 2019-06-11 2022-05-11 한국과학기술연구원 Health state prediction method and system based on gait time-frequency analysis
KR102399672B1 (en) * 2019-06-11 2022-05-20 한국과학기술연구원 Method and system for personal identification based on gait time-frequency analysis
US11531080B2 (en) 2019-07-24 2022-12-20 Cypress Semiconductor Corporation Leveraging spectral diversity for machine learning-based estimation of radio frequency signal parameters
DE112020003708T5 (en) * 2019-08-06 2022-06-09 Sony Group Corporation Information processing apparatus, information processing method and program
JP7447578B2 (en) * 2020-03-13 2024-03-12 株式会社リコー Information processing device, information processing method and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2953561B2 (en) * 1995-02-14 1999-09-27 防衛庁技術研究本部長 Target automatic class identification method
JP2834071B2 (en) * 1996-05-13 1998-12-09 日本電気株式会社 Target signal automatic detection method and device
DE19706576A1 (en) * 1997-02-20 1998-08-27 Alsthom Cge Alcatel Device and method for the environment-adaptive classification of objects
JP2000171545A (en) * 1998-12-09 2000-06-23 Nec Corp Method and apparatus for detection of target signal
US8682821B2 (en) * 2011-08-08 2014-03-25 Robert Bosch Gmbh Method for detection of movement of a specific type of object or animal based on radar signals

Also Published As

Publication number Publication date
JP2017215272A (en) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6673030B2 (en) Information processing apparatus, information processing method, and program
CN111352110B (en) Method and device for processing radar data
US10657815B2 (en) Vehicular information systems and methods
JP5821419B2 (en) Moving object detection apparatus, moving object detection method, and computer program for moving object detection
CN105717507A (en) Radar system for vehicle and operating method thereof
Cho et al. A support vector machine approach to CMOS-based radar signal processing for vehicle classification and speed estimation
JP6350329B2 (en) Target classifier
JP2010132056A (en) Sensing device, sensing method, and vehicle control device
JP2017207348A (en) Radar device and sensor fusion device using the same
CN114332708A (en) Traffic behavior detection method and device, electronic equipment and storage medium
CN113109802A (en) Target motion state judgment method and device, radar equipment and storage medium
US20210398425A1 (en) Vehicular information systems and methods
Zhuang et al. Edge-based traffic flow data collection method using onboard monocular camera
KR102060286B1 (en) Radar object detection threshold value determination method using image information and radar object information generation device using the same
WO2013038561A1 (en) Driving lane evaluation apparatus, driving lane evaluation method, and driving lane evaluation computer program
Lei et al. Identifying and correcting the errors of vehicle trajectories from roadside millimetre‐wave radars
CN113625232B (en) Method, device, medium and equipment for restraining multipath false target in radar detection
US12094330B2 (en) Traffic prediction apparatus, system, method, and non-transitory computer readable medium
KR102038381B1 (en) Apparatus for recognizing pedestrian and vehicle using doppler information and method thereof
JP2017116445A (en) Object detection device
Czyżewski et al. Comparative study on the effectiveness of various types of road traffic intensity detectors
CN113625266A (en) Method, device, storage medium and equipment for detecting low-speed target by using radar
KR102475760B1 (en) Method and appararus of distinguishing of a specific object using multichannel radar
US20240142575A1 (en) Method and apparatus with neural network training
JP2007232653A (en) On-vehicle radar system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200217

R150 Certificate of patent or registration of utility model

Ref document number: 6673030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150