JP6084810B2 - Tracking processing apparatus and tracking processing method - Google Patents
Tracking processing apparatus and tracking processing method Download PDFInfo
- Publication number
- JP6084810B2 JP6084810B2 JP2012237773A JP2012237773A JP6084810B2 JP 6084810 B2 JP6084810 B2 JP 6084810B2 JP 2012237773 A JP2012237773 A JP 2012237773A JP 2012237773 A JP2012237773 A JP 2012237773A JP 6084810 B2 JP6084810 B2 JP 6084810B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- tracking
- likelihood
- unit
- feature information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 10
- 230000033001 locomotion Effects 0.000 claims description 79
- 238000001514 detection method Methods 0.000 claims description 44
- 230000005540 biological transmission Effects 0.000 claims description 10
- 230000001419 dependent effect Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 description 218
- 238000000034 method Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 11
- 230000004927 fusion Effects 0.000 description 11
- 238000007476 Maximum Likelihood Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、物標の追尾処理に用いられる、追尾処理装置、及び追尾処理方法に関する。 The present invention relates to a tracking processing device and a tracking processing method used for target tracking processing.
物標から反射されたレーダ信号等を用いて、物標を追尾(TT:Target Tracking)する追尾装置が知られている(例えば、特許文献1〜3参照)。レーダ信号は、レーダアンテナを用いたスキャン動作によって得られる。レーダ信号は、複数の物標について、位置を特定するデータを含んでいる。得られたレーダ信号は、追尾装置へ出力される。追尾装置は、上記のデータを用いて、追尾中の物標の位置を特定する。追尾装置は、特定した位置等の情報を用いて、追尾中の物標の運動を推定する。
2. Description of the Related Art A tracking device that tracks a target (TT: Target Tracking) using a radar signal or the like reflected from the target is known (see, for example,
特許文献1に記載の装置は、複数の物標について、位置等を観測することで、探知データを取得する。この装置は、探知データ等を用いて、追尾物標の航跡を算出し、その後、当該航跡のデータを保持する。また、この装置は、探知データと航跡との関連付けを行う。
The apparatus described in
ところで、追尾装置は、追尾中の物標がどのような運動状態にあるかを、定期的に参照する。そして、追尾装置は、過去の算出結果と、最新時点のレーダ信号に含まれる情報と、を用いて、最新時点における追尾物標の運動状態を推定する。具体的には、例えば、追尾装置は、追尾中の物標について、過去の算出結果を基に、最新時点での位置を、推定位置として算出する。次いで、追尾装置は、最新時点のレーダ信号で特定される複数の物標のうち、上記推定位置に最も近い物標を、追尾物標であると判定する。追尾装置は、当該追尾対象について、観測されたデータを用いて、最新時点における追尾物標の運動を推定する。 By the way, the tracking device periodically refers to the motion state of the target being tracked. Then, the tracking device estimates the motion state of the tracking target at the latest time using the past calculation result and the information included in the radar signal at the latest time. Specifically, for example, the tracking device calculates a position at the latest time as an estimated position based on a past calculation result for a target being tracked. Next, the tracking device determines that the target closest to the estimated position among the plurality of targets specified by the radar signal at the latest time point is the tracking target. The tracking device estimates the movement of the tracking target at the latest time point using the observed data for the tracking target.
しかしながら、追尾中の船舶の航行によって生じる波又はクラッタが、上記推定位置の近傍に発生する場合がある。この場合、追尾装置は、当該波又はクラッタを、追尾物標であると誤って判定するおそれがある。このような誤判定が生じた場合、追尾装置は、本来の物標とは異なる波又はクラッタについて、追尾処理を行うこととなり、正確な追尾処理を行うことができない。 However, there is a case where a wave or clutter generated by the navigation of the tracking vessel is generated in the vicinity of the estimated position. In this case, the tracking device may erroneously determine the wave or clutter as a tracking target. When such an erroneous determination occurs, the tracking device performs a tracking process for a wave or clutter that is different from the original target, and cannot perform an accurate tracking process.
また、追尾物標の位置については、予測誤差と、観測誤差とが生じる。予測誤差とは、追尾処理において、上記推定位置と、追尾物標の実際の位置とのずれ量をいう。また、観測誤差とは、追尾物標について、レーダ信号を基に特定される位置と、実際の位置とのずれ量をいう。そこで、上記予測誤差を、予め設定したモデルに従って導出し、且つ、上記観測誤差を、予め設定したモデルに従って導出することが考えられる。しかしながら、このような構成では、予測誤差と、観測誤差のそれぞれについて、モデル化が必要であり、実用に耐えるモデルの作成は、非常に困難となる。 In addition, a prediction error and an observation error occur with respect to the position of the tracking target. The prediction error refers to a deviation amount between the estimated position and the actual position of the tracking target in the tracking process. Further, the observation error refers to the amount of deviation between the position specified based on the radar signal and the actual position for the tracking target. Therefore, it is conceivable that the prediction error is derived according to a preset model, and the observation error is derived according to a preset model. However, in such a configuration, it is necessary to model each of the prediction error and the observation error, and it is very difficult to create a model that can withstand practical use.
本発明は、上記実情に鑑みることにより、複数の物標のなかから、追尾対象を、確実且つ簡易に検出することができる、追尾処理装置、及び追尾処理方法を提供することを目的とする。 In view of the above circumstances, an object of the present invention is to provide a tracking processing device and a tracking processing method capable of reliably and easily detecting a tracking target from among a plurality of targets.
(1)上記課題を解決するために、この発明のある局面に係わる追尾処理装置は、追尾対象として選択された物標を追尾するための追尾処理装置であって、検出部と、尤度判定部と、運動推定部と、面積判定部と、を備えている。前記検出部は、複数の物標について、代表点の情報を含む特徴情報を検出するように構成されている。前記尤度判定部は、複数の前記代表点の少なくとも一部について、それぞれ、前記追尾対象の代表点に該当する尤度を算出するように構成されている。前記運動推定部は、前記追尾対象として特定された前記物標の前記特徴情報を用いて、前記追尾対象の運動状態を推定するように構成されている。前記面積判定部は、面積を判定するように構成されている。前記尤度判定部は、算出された前記尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定する。 (1) In order to solve the above-described problem, a tracking processing device according to an aspect of the present invention is a tracking processing device for tracking a target selected as a tracking target, and includes a detection unit and likelihood determination. A movement estimation unit, and an area determination unit . The detection unit is configured to detect feature information including representative point information for a plurality of targets. The likelihood determining unit is configured to calculate a likelihood corresponding to the representative point to be tracked for at least some of the plurality of representative points. The motion estimation unit is configured to estimate a motion state of the tracking target using the feature information of the target specified as the tracking target. The area determination unit is configured to determine an area. The likelihood determination unit specifies the tracking target from among the plurality of targets based on the calculated likelihood.
さらに、前記検出部は、複数の前記物標の少なくとも一部について、前記代表点の情報以外の特徴情報を、追加の特徴情報として検出する。前記尤度判定部は、追加の前記特徴情報について、前記追尾対象の特徴情報に該当する尤度を算出し、且つ、当該尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定する。前記検出部は、送信信号に対する前記追尾対象を含む複数の前記物標での反射波であるエコー信号を検出し、且つ、当該エコー信号によって特定されるエコー像を検出し、且つ、当該エコー像の面積を追加の前記特徴情報として検出する。前記面積判定部は、前記追尾対象の前記エコー像の前記面積が所定のしきい値を超えているか否かを判定する。前記運動推定部は、前記面積が所定のしきい値以下である場合、前記運動状態を推定する時点での前記追尾対象の前記特徴情報を用いて、前記運動状態を算出し、且つ、前記面積が所定のしきい値を超えている場合、前記運動状態を算出する時点での前記追尾対象の前記特徴情報を用いることなく、前記運動状態を算出する。 Furthermore , the detection unit detects, as additional feature information, feature information other than the representative point information for at least some of the plurality of targets. The likelihood determination unit calculates a likelihood corresponding to the feature information of the tracking target for the additional feature information, and determines the tracking target from a plurality of the targets based on the likelihood. Identify. The detection unit detects an echo signal that is a reflected wave from the plurality of targets including the tracking target with respect to a transmission signal, detects an echo image specified by the echo signal, and detects the echo image Are detected as additional feature information. The area determination unit determines whether the area of the echo image to be tracked exceeds a predetermined threshold value. When the area is equal to or less than a predetermined threshold, the motion estimation unit calculates the motion state using the feature information of the tracking target at the time of estimating the motion state, and the area When is exceeding a predetermined threshold value, the motion state is calculated without using the feature information of the tracking target at the time of calculating the motion state.
(2)より好ましくは、前記検出部は、送信信号に対する各前記物標での反射波であるエコー信号を用いて、各前記特徴情報を検出する。追加の前記特徴情報は、前記エコー信号によって特定されるエコー像の形状情報、前記エコー信号のレベル、各前記物標の周囲の状態を特定する情報、及び、前記エコー信号に関するドップラーシフト量の少なくとも一つを含む。 ( 2 ) More preferably, the said detection part detects each said feature information using the echo signal which is the reflected wave in each said target with respect to a transmission signal. The additional feature information includes at least the shape information of the echo image specified by the echo signal, the level of the echo signal, the information specifying the surrounding state of each target, and the Doppler shift amount related to the echo signal. Including one.
(3)好ましくは、各前記特徴情報は、数値によって表される情報であり、前記尤度判定部は、各前記特徴情報毎に、確率密度関数を用いて、各前記尤度を算出する。 ( 3 ) Preferably, each said feature information is information represented by a numerical value, and the said likelihood determination part calculates each said likelihood using a probability density function for every said feature information.
(4)より好ましくは、前記確率密度関数は、各前記特徴情報毎に設定される。各前記確率密度関数において平均の値として用いられる値は、対応する特徴情報について、尤度が算出される前に予め推定された値である。前記尤度判定部は、各確率密度関数において、対応する前記特徴情報を独立変数として用いる。また、前記尤度判定部は、前記独立変数に従属する従属変数を、前記尤度として算出する。 ( 4 ) More preferably, the probability density function is set for each feature information. The value used as the average value in each probability density function is a value estimated in advance before the likelihood is calculated for the corresponding feature information. The likelihood determining unit uses the corresponding feature information as an independent variable in each probability density function. The likelihood determination unit calculates a dependent variable that depends on the independent variable as the likelihood.
(5)より好ましくは、前記尤度判定部は、同一物標についての前記尤度を互いに乗算することで、総合尤度を算出する。また、前記尤度判定部は、各前記物標のうち、前記総合尤度が最も高い前記物標を、前記追尾対象として特定する。 ( 5 ) More preferably, the likelihood determination unit calculates an overall likelihood by multiplying the likelihoods of the same target by each other. Moreover, the said likelihood determination part specifies the said target with the said total likelihood highest among each said target as the said tracking object.
(6)より好ましくは、前記面積判定部は、確率密度関数を用いて前記面積を判定するように構成されている。前記確率密度変数の平均の値として用いられる値は、前記面積について、前記面積判定部で判定される前に予め推定された値である。前記所定のしきい値は、前記平均に基づいて設定される。 ( 6 ) More preferably, the said area determination part is comprised so that the said area may be determined using a probability density function. The value used as the average value of the probability density variable is a value estimated in advance for the area before being determined by the area determination unit. The predetermined threshold is set based on the average.
(7)上記課題を解決するために、この発明のある局面に係わる追尾処理方法は、追尾対象として選択された物標を追尾するための追尾処理方法であって、検出ステップと、尤度判定ステップと、運動推定ステップと、面積判定ステップと、を含む。前記検出ステップでは、複数の物標について、代表点の情報を含む特徴情報を検出する。前記尤度判定ステップでは、複数の前記代表点の少なくとも一部について、それぞれ、前記追尾対象の代表点に該当する尤度を算出する。前記運動推定ステップでは、前記追尾対象として特定された前記物標の前記特徴情報を用いて、前記追尾対象の運動状態を推定する。前記面積判定ステップでは、面積を判定する。前記尤度判定ステップでは、算出された前記尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定する。さらに、前記検出ステップでは、複数の前記物標の少なくとも一部について、前記代表点の情報以外の特徴情報を、追加の特徴情報として検出する。前記尤度判定ステップでは、追加の前記特徴情報について、前記追尾対象の特徴情報に該当する尤度を算出し、且つ、当該尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定する。前記検出ステップでは、送信信号に対する前記追尾対象を含む複数の前記物標での反射波であるエコー信号を検出し、且つ、当該エコー信号によって特定されるエコー像を検出し、且つ、当該エコー像の面積を追加の前記特徴情報として検出する。前記面積判定ステップでは、前記追尾対象の前記エコー像の前記面積が所定のしきい値を超えているか否かを判定する。前記運動推定ステップでは、前記面積が所定のしきい値以下である場合、前記運動状態を推定する時点での前記追尾対象の前記特徴情報を用いて、前記運動状態を算出し、且つ、前記面積が所定のしきい値を超えている場合、前記運動状態を算出する時点での前記追尾対象の前記特徴情報を用いることなく、前記運動状態を算出する。 ( 7 ) In order to solve the above-described problem, a tracking processing method according to an aspect of the present invention is a tracking processing method for tracking a target selected as a tracking target, including a detection step and likelihood determination. A step, a motion estimation step, and an area determination step . In the detection step, feature information including representative point information is detected for a plurality of targets. In the likelihood determination step, the likelihood corresponding to the representative point to be tracked is calculated for at least some of the representative points. In the motion estimation step, the motion state of the tracking target is estimated using the feature information of the target specified as the tracking target. In the area determining step, the area is determined. In the likelihood determining step, the tracking target is specified from among the plurality of targets based on the calculated likelihood. Furthermore, in the detection step, feature information other than the representative point information is detected as additional feature information for at least some of the plurality of targets. In the likelihood determination step, for the additional feature information, a likelihood corresponding to the feature information of the tracking target is calculated, and the tracking target is selected from a plurality of the targets based on the likelihood. Identify. In the detection step, an echo signal that is a reflected wave at the plurality of targets including the tracking target with respect to the transmission signal is detected, an echo image specified by the echo signal is detected, and the echo image is detected Are detected as additional feature information. In the area determining step, it is determined whether or not the area of the echo image to be tracked exceeds a predetermined threshold value. In the motion estimation step, when the area is equal to or smaller than a predetermined threshold, the motion state is calculated using the feature information of the tracking target at the time of estimating the motion state, and the area When is exceeding a predetermined threshold value, the motion state is calculated without using the feature information of the tracking target at the time of calculating the motion state.
本発明によると、複数の物標のなかから、追尾物標を、確実、且つ簡易に検出することができる、追尾処理装置、及び追尾処理方法を提供することができる。 According to the present invention, it is possible to provide a tracking processing device and a tracking processing method that can reliably and easily detect a tracking target from among a plurality of targets.
以下、本発明を実施するための形態について、図面を参照しつつ説明する。本発明は、追尾対象として選択された物標を追尾する、追尾処理装置として広く適用することができる。以下では、追尾対象として設定された物標を「追尾物標」という。また、以下では、図中同一または相当部分には、同一符号を付してその説明は繰り返さない。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The present invention can be widely applied as a tracking processing apparatus that tracks a target selected as a tracking target. Hereinafter, a target set as a tracking target is referred to as a “tracking target”. In the following, the same or corresponding parts in the drawings are denoted by the same reference numerals, and description thereof will not be repeated.
図1は、本発明の実施形態に係る追尾処理装置3を含む、レーダ装置1のブロック図である。本実施形態のレーダ装置1は、例えば、漁船等の船舶に備えられる舶用レーダである。レーダ装置1は、主に他船等の物標の探知に用いられる。また、レーダ装置1は、追尾物標として選択された物標を追尾することが可能に構成されている。レーダ装置1は、複数の追尾物標を、同時に追尾可能に構成されている。レーダ装置1は、追尾物標の運動状態を推定するように構成されている。本実施形態では、レーダ装置1は、上記運動状態として、追尾物標の推定速度ベクトルを算出する。推定速度ベクトルとは、追尾物標について推定される、進行方向及び進行速度を示すベクトルである。レーダ装置1は、追尾物標の推定速度ベクトルを、画面に表示する。尚、以下では、レーダ装置1が備えられている船舶を「自船」という。
FIG. 1 is a block diagram of a
図1に示すように、レーダ装置1は、アンテナユニット2と、追尾処理装置3と、表示器4と、を備えている。
As shown in FIG. 1, the
アンテナユニット2は、アンテナ5と、受信部6と、A/D変換部7と、を含んでいる。
The
アンテナ5は、指向性の強いパルス状電波を送信可能なレーダアンテナである。また、アンテナ5は、物標からの反射波であるエコー信号を受信するように構成されている。即ち、物標のエコー信号は、アンテナ5からの送信信号に対する、物標での反射波である。レーダ装置1は、パルス状電波を送信してからエコー信号を受信するまでの時間を測定する。これにより、レーダ装置1は、物標までの距離rを検出することができる。アンテナ5は、水平面上で360°回転可能に構成されている。アンテナ5は、パルス状電波の送信方向を変えながら(アンテナ角度を変えながら)、電波の送受信を繰り返し行うように構成されている。以上の構成で、レーダ装置1は、自船周囲の平面上の物標を、360°にわたり探知することができる。
The antenna 5 is a radar antenna capable of transmitting a pulsed radio wave having strong directivity. The antenna 5 is configured to receive an echo signal that is a reflected wave from a target. That is, the echo signal of the target is a reflected wave at the target with respect to the transmission signal from the antenna 5. The
なお、以下の説明では、パルス状電波を送信してから次のパルス状電波を送信するまでの動作を「スイープ」という。また、電波の送受信を行いながらアンテナを360°回転させる動作を「スキャン」と呼ぶ。以下では、あるスキャンのことを、「nスキャン」といい、nスキャンから1個前のスキャンのことを、「n−1スキャン」という。同様に、nスキャンからm個前のスキャンのことを、「n−mスキャン」という。尚、n、mは、何れも自然数である。また、以下では、動作について特に説明なき場合、nスキャン時点におけるレーダ装置1の動作を説明する。
In the following description, an operation from transmission of a pulsed radio wave to transmission of the next pulsed radio wave is referred to as “sweep”. The operation of rotating the antenna 360 ° while transmitting / receiving radio waves is called “scan”. In the following, a certain scan is referred to as an “n scan”, and a scan immediately before the n scan is referred to as an “n−1 scan”. Similarly, m scans before n scans are referred to as “nm scans”. Note that n and m are natural numbers. In the following, the operation of the
受信部6は、アンテナ5で受信したエコー信号を検波して増幅する。受信部6は、増幅したエコー信号を、A/D変換部7へ出力する。A/D変換部7は、アナログ形式のエコー信号をサンプリングし、複数ビットからなるデジタルデータ(エコーデータ)に変換する。ここで、上記エコーデータは、アンテナ5が受信したエコー信号の強度(信号レベル)を特定するデータを含んでいる。A/D変換部7は、エコーデータを、追尾処理装置3へ出力する。
The receiving unit 6 detects and amplifies the echo signal received by the antenna 5. The reception unit 6 outputs the amplified echo signal to the A /
追尾処理装置3は、複数の物標の中から選択された物標を、追尾物標として特定し、且つ、当該追尾物標の追尾処理を行うように構成されている。より具体的には、追尾処理装置3は、追尾物標の推定速度ベクトル、及び追尾物標の推定位置等を算出するように構成されている。
The
追尾処理装置3は、CPU、RAM及びROM(図示せず)等を含むハードウェアを用いて構成されている。また、追尾処理装置3は、ROMに記憶された追尾処理プログラムを含む、ソフトウェアを用いて構成されている。
The
上記追尾処理プログラムは、本発明に係る追尾処理方法を、追尾処理装置3に実行させるためのプログラムである。上記ハードウェアとソフトウェアとは、協働して動作するように構成されている。これにより、追尾処理装置3を、スイープメモリ8、信号処理部9、エコー検出部10、及び追尾処理部11等として機能させることができる。追尾処理装置3は、1スキャン毎に、以下に説明する処理を行うように構成されている。
The tracking processing program is a program for causing the
追尾処理装置3は、信号処理部9と、エコー検出部(検出部)10と、追尾処理部11と、を有している。
The
信号処理部9は、フィルタ処理等を施すことにより、エコーデータに含まれる干渉成分と、不要な波形データと、を除去する。また、信号処理部9は、物標エコー像に関するエコーデータの特徴情報の検出を、行うように構成されている。信号処理部9は、処理したエコーデータを、エコー検出部10へ出力する。
The signal processing unit 9 removes interference components included in the echo data and unnecessary waveform data by performing filter processing or the like. The signal processing unit 9 is configured to detect feature information of echo data related to the target echo image. The signal processing unit 9 outputs the processed echo data to the
エコー検出部10は、物標エコー像の検出と、物標エコー像に関するエコーデータの特徴情報の検出とを、行うように構成されている。即ち、エコー検出部10は、物標エコー像検出部と、特徴情報抽出部と、を含んでいる。信号処理部9及びエコー検出部10によって、物標の特徴情報を検出するための検出部が、構成されている。
The
エコー検出部10は、信号処理部9からエコーデータを読み出すときの読出しアドレスに基づいて、当該エコーデータに対応する位置までの距離rを求める。また、アンテナ5からエコー検出部10へは、当該アンテナ5が現在どの方向を向いているか(アンテナ角度θ)を示すデータが出力されている。以上の構成で、エコー検出部10は、エコーデータを読み出す際には、当該エコーデータに対応する位置を、距離rとアンテナ角度θとの極座標で取得することができる。
The
エコー検出部10は、エコーデータに対応する位置に物標が存在するか否かを検出するように構成されている。エコー検出部10は、例えば、エコーデータに対応する位置の信号レベル、即ち、信号強度を判別する。エコー検出部10は、信号レベルが所定のしきいレベル値以上である位置には、物標が存在していると判別する。
The
次いで、エコー検出部10は、物標が存在している範囲を検出する。エコー検出部10は、例えば、物標が存在している一まとまりの領域を、物標エコー像が存在している領域として検出する。このようにして、エコー検出部10は、エコーデータを基に、物標エコー像を検出する。この物標エコー像の外郭形状は、物標の外郭形状と略合致する。但し、エコーデータに含まれるノイズ等に起因して、この物標エコー像の外郭形状と、物標の外郭形状とは、わずかに異なる。次に、エコー検出部10は、エコーデータを用いて、物標エコー像に関連する特徴情報を抽出する。
Next, the
図2は、自船100と、物標エコー像120との関係を説明するための模式的な平面図である。図2では、物標エコー像120は、矩形の像として例示されている。また、図2では、物標エコー像120によって特定される物標130が示されている。図2では、物標130の外郭形状は、物標エコー像120と合致した状態で表示されている。
FIG. 2 is a schematic plan view for explaining the relationship between the
図1及び図2に示すように、極座標系では、自船100の位置としての自船位置M1を基準として、自船位置M1からの直線距離が、距離rとして示され、自船位置M1周りの角度が、角度θとして示される。本実施形態では、自船位置M1は、アンテナ5の位置に相当する。エコー検出部10は、物標エコー像120の代表点Pの抽出に際しては、自船位置M1を中心とする、リング状部分の一部形状の像110を用いる。この像110は、第1直線111、第2直線112、第1円弧113、及び第2円弧114によって囲まれた領域の像である。
As shown in FIGS. 1 and 2, in the polar coordinate system, a straight line distance from the ship position M1 is indicated as a distance r with respect to the ship position M1 as the position of the
第1直線111は、物標エコー像120の後縁120aのうち自船位置M1に最も近い点と、自船位置M1と、を通る直線である。第2直線112は、物標エコー像120の前縁120bのうち自船位置M1に最も近い点と、自船位置M1と、を通る直線である。第1円弧113は、物標エコー像120のうち自船位置M1から最も近い部分120cを通る円弧である。第1円弧113の曲率中心点は、自船位置M1である。第2円弧114は、物標エコー像120のうち自船位置M1から最も遠い部分120dを通る円弧である。第2円弧114は、第1円弧113と同心である。
The first
図3は、物標エコー像120(物標130)に関して抽出されるデータを説明するためのデータ一覧表である。図2及び図3に示すように、本実施形態では、信号処理部9及びエコー検出部10は、協働して、物標エコー像120(物標130)について、下記12個のデータを、特徴情報データとして抽出する。即ち、エコー検出部10は、エコーデータ、及び物標エコー像120の画像データを基に、下記12個のテキストデータを抽出する。本実施形態では、12個のテキストデータとは、フラグのデータ201と、距離rpのデータ202と、終了角度θeのデータ203と、角度幅θwのデータ204と、最前縁距離rnのデータ205と、最後縁距離rfのデータ206と、面積ar(形状情報)のデータ207と、代表点Pの座標データ208と、エコーレベルecのデータ209と、隣接距離(物標の周囲の状態を特定する情報)adのデータ210と、ドップラーシフト量dsのデータ211と、時刻tmのデータ212と、である。
FIG. 3 is a data list for explaining data extracted with respect to the target echo image 120 (target 130). As shown in FIGS. 2 and 3, in the present embodiment, the signal processing unit 9 and the
上記のフラグは、例えば、物標エコー像120について、所定の状態であるか否か、等を特定するフラグである。このフラグは、「1」又は「0」等に設定されるように構成されている。
The above flag is a flag for specifying whether or not the
距離rpは、自船位置M1から物標エコー像120の代表点Pまでの直線距離である。本実施形態では、代表点Pは、像110の図心点である。終了角度θeは、物標エコー像120の検出が終わった時点における、前述のアンテナ角度θである。角度幅θwは、物標エコー像120について、自船位置M1回りの角度方向の幅である。角度幅θwは、第1直線111と第2直線112とがなす角度でもある。最前縁距離rnは、物標エコー像120の部分120cと、自船位置M1との距離である。最後縁距離rfは、物標エコー像120の部分120dと、自船位置M1との距離である。面積arは、リング状部分の一部形状の像110における面積であり、本実施形態では、物標エコー像120の面積として扱われる。
The distance rp is a linear distance from the ship position M1 to the representative point P of the
エコーレベルecは、物標エコー像120を特定するエコー信号の、強度を示している。この強度は、物標エコー像120を特定するエコー信号のピーク強度であってもよいし、当該エコー信号の強度の平均値であってもよい。本実施形態では、隣接距離adは、例えば、隣接する2つの物標エコー像120間の距離である。ドップラーシフト量dsは、例えば、アンテナ5から放射されたパルス信号の周波数と、物標エコー像120によって特定される物標130で反射したエコー信号の周波数と、の差である。ドップラーシフト量dsを基に、物標エコー像120によって特定される物標130と、自船100との相対速度を求めることが可能である。時刻tmは、物標エコー像120を検出した時点の時刻である。尚、エコー像120のデータは、予備のデータ領域を含んでいてもよい。本実施形態では、信号処理部9及びエコー検出部10は、各物標エコー像120について、上記12個の特徴情報を抽出する。これら12個の特徴情報のうち、代表点Pの位置以外の特徴情報は、本発明の「追加の特徴情報」の一例である。また、これら12個の特徴情報は、何れも、数値によって表される情報である。
The echo level ec indicates the intensity of an echo signal that identifies the
エコー検出部10で検出された複数の物標エコー像120の一例を、図4に示している。図4は、エコー検出部10で検出された、物標エコー像120を示す模式的な平面図である。図4では、一例として、nスキャン時点における4つの物標エコー像120(121,122,123,124)を示している。図4では、物標エコー像120(121,122,123,124)の形状は、それぞれ、物標130(131,132,133,134)の形状と合致している。
An example of a plurality of target echo
物標エコー像121によって特定される物標131,物標エコー像122によって特定される物標132,及び物標エコー像123によって特定される物標133は、例えば、小型船舶である。物標エコー像124によって特定される物標134は、例えば、大型船舶である。エコー検出部10は、nスキャン時点において、代表点Pとして、物標エコー像121の代表点P1(n)と、物標エコー像122の代表点P2(n)と、物標エコー像123の代表点P3(n)と、物標エコー像124の代表点P4(n)と、を検出している。以下では、物標131が、追尾物標140である場合を例に説明する。
The target 131 specified by the
図1〜図4に示すように、エコー検出部10は、各物標エコー像120についての特徴情報データ201〜212を、追尾処理部11へ出力する。
As shown in FIGS. 1 to 4, the
追尾処理部11は、複数の物標120のなかから、追尾物標140を特定し、且つ、当該追尾物標140の追尾処理を行うように構成されている。追尾物標140は、例えば、表示器4に表示された、複数の物標130を示すシンボル等を基に、オペレータによって選択される。オペレータによる、追尾物標140の選択指令は、例えば、オペレータが操作装置(図示せず)を操作することにより、発せられる。本実施形態では、追尾処理部11は、特に説明無き限り、X−Y座標系を基準に、処理を行うように構成されている。
The
追尾処理部11は、nスキャン時点(最新のスキャン時点)における、追尾物標140の推定速度ベクトルV1(n)を算出するように構成されている。また、追尾処理部11は、推定速度ベクトルV1(n)を表示器4に表示させるように、構成されている。
The
追尾処理部11は、特徴情報メモリ12と、選別部13と、関連付け部(尤度判定部)14と、面積判定部15と、運動推定部16と、を有している。
The
特徴情報メモリ12は、信号処理部9及びエコー検出部10から出力されたデータを蓄積するように構成されている。また、特徴情報メモリ12は、後述する関数f1〜f5に関連するデータを蓄積するように構成されている。特徴情報メモリ12は、(n−T)スキャン時点から、nスキャン時点までの各時点における、全ての物標エコー像120について、特徴情報データ201〜212を蓄積している。尚、定数Tは、予め設定されている値であり、例えば、数十程度である。
The
選別部13は、選別領域S1(n)を設定するように構成されている。選別領域S1(n)は、nスキャン時点における、追尾物標140の代表点(追尾代表点)PR(n)を選別するための領域である。選別部13は、エコー検出部10、関連付け部14、及び運動推定部16に接続されている。
The sorting
選別部13は、エコー検出部10から、nスキャン時点における、各物標エコー像120の代表点P(P1(n)〜P4(n))の座標データを受け付ける。また、選別部13は、(n−1)スキャン時点を算出基準時点とする、追尾物標140の推定速度ベクトルV1(n−1)のデータを、受け付ける。本実施形態では、選別部13は、運動推定部16から、上記推定速度ベクトルV1(n−1)のデータを受け付ける。
The
次に、選別部13は、追尾物標140の推定位置PRe(n−1)を検出する。この推定位置PRe(n−1)は、推定速度ベクトルV1(n−1)によって特定される位置である。推定位置PRe(n−1)は、nスキャン時点において、追尾物標140の代表点PR(n)が到達すると推定される位置である。選別部13は、この推定位置PRe(n−1)を中心にして、所定の半径を有する選別領域S1(n)を設定する。図4は、選別領域S1内に、物標エコー像121,122の代表点P1(n),P2(n)が含まれた状態を例示している。選別部13は、代表点P1(n),P2(n)のそれぞれについて、座標データ208を、関連付け部14へ出力する。
Next, the
関連付け部14は、推定位置PRe(n−1)と、nスキャン時点における追尾物標140の代表点PR(n)と、を関連付ける処理を行う。本実施形態では、関連付け部14は、選別領域S1(n)内の代表点P1(n),P2(n)のそれぞれについて、追尾物標140の代表点PR(n)に該当する尤度Lh100,Lh200を算出する。関連付け部14は、この尤度Lh100,Lh200に基づいて、nスキャン時点における追尾物標140代表点PR(n)を特定する。
The associating
関連付け部14は、関数更新部21と、尤度算出部22と、尤度比較部23と、を有している。
The associating
関数更新部21は、関連付け処理に用いる関数を更新するように構成されている。この関数として、本実施形態では、確率密度関数(ガウス関数、正規分布関数)が用いられる。本実施形態において、確率密度関数は、平均、及び分散を有する関数である。本実施形態では、確率密度関数は、過去の追尾結果を基に更新される。
The
本実施形態では、確率密度関数に用いられる特徴情報として、代表点PR(n)の位置情報と、追尾物標140についての面積arの情報と、追尾物標140についてのエコーレベルecの情報と、追尾物標140についての隣接距離adの情報と、追尾物標140につてのドップラーシフト量dsの情報と、が挙げられる。本実施形態では、1つの確率密度関数pdfが設定されている。 In the present embodiment, as the feature information used for the probability density function, the position information of the representative point PR (n), the area ar information about the tracking target 140, and the echo level ec information about the tracking target 140, Information on the adjacent distance ad for the tracking target 140 and information on the Doppler shift amount ds for the tracking target 140 are included. In the present embodiment, one probability density function pdf is set.
確率密度関数pdfは、代表点PRの位置の次元の関数f1と、面積arの次元の関数f2と、エコーレベルecの次元の関数f3と、隣接距離adの次元の関数f4と、ドップラーシフト量dsの次元の関数f5と、によって特定される関数である。関数f1〜f5は、それぞれ、確率密度関数であり、確率密度関数pdfは、多次元の確率密度関数である。関数更新部21は、関数f1〜f5を更新することで、確率密度関数pdfを更新する。尚、以下では、各上記関数f1〜f5を総称していう場合に、単に関数fという場合がある。
The probability density function pdf includes a function f1 of the dimension of the representative point PR, a function f2 of the area ar, a function f3 of the echo level ec, a function f4 of the adjacent distance ad, and a Doppler shift amount. It is a function specified by the function f5 of the dimension of ds. Each of the functions f1 to f5 is a probability density function, and the probability density function pdf is a multidimensional probability density function. The
以下では、関数更新部21における、確率密度関数pdfを更新する処理の流れの一例を説明する。図5は、関数更新部21における、確率密度関数pdfの更新についての処理の流れの一例を説明するためのフローチャートである。追尾処理装置3は、以下に示すフローチャートの各ステップを、図示しないメモリから読み出して実行する。このプログラムは、外部からインストールできる。このインストールされるプログラムは、例えば記録媒体に格納された状態で流通する。追尾処理装置3での処理は、各スキャン時点毎に行われる。また、本実施形態では、フローチャートについて説明する場合には、フローチャート以外の図面についても、適宜参照する。
Below, an example of the flow of the process which updates the probability density function pdf in the
本実施形態では、関数更新部21は、最尤推定処理を行う。具体的には、図5に示すように、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。関数更新部21は、例えば、まず、代表点PRの位置情報を選択する。即ち、関数更新部21は、代表点PRの位置に関する関数f1を更新する。
In the present embodiment, the
図6は、代表点PRについて、関数更新部21で更新される関数f1の一例を示すグラフ図である。関数f1は、平均μ11,μ12、及び分散σ112,σ122を有している。本実施形態において、平均は、各関数fにおける推定値に相当する。即ち、本実施形態の各関数fにおいて、平均の値として用いられる値は、対応する特徴情報について、尤度Lhが算出される前に予め推定された値である。図6のグラフのx軸は、x座標を示しており、y軸は、y座標を示している。また、図6のグラフの縦軸(z軸)は、尤度Lhを示している。
FIG. 6 is a graph showing an example of the function f1 updated by the
関数更新部21は、関数f1における平均μ11,μ12を算出する(ステップS102)。具体的には、関数更新部21は、追尾物標140の代表点PR(n−1)について、x座標の平均μ11、及びy座標の平均μ12を算出する。
The
本実施形態では、平均μ11は、下記式(1)によって算出される。
尚、Δdxiは、任意のiスキャン時点における、代表点PR(i)のx座標の予測誤差である。より具体的には、Δdxiは、iスキャン時点における、代表点PR(i)のx座標の(観測値−予測値)である。この場合の観測値とは、iスキャン時点でエコー検出部10によって検出された、代表点PR(i)のx座標である。また、予測値とは、(i−1)スキャン時点において運動推定部16で予測された、代表点PR(i)のx座標である。したがって、平均μ11は、(n−T)スキャン時点から(n−1)スキャン時点までの各スキャン時点における、代表点PRのx座標の予測誤差を平均した値である。
In the present embodiment, the average μ11 is calculated by the following formula (1).
Δdx i is a prediction error of the x coordinate of the representative point PR (i) at an arbitrary i scan time. More specifically, Δdx i is (observed value−predicted value) of the x coordinate of the representative point PR (i) at the time of i scan. The observed value in this case is the x coordinate of the representative point PR (i) detected by the
平均μ12は、平均μ11と同様にして算出される。即ち、平均μ12は、(n−T)スキャン時点から(n−1)スキャン時点までの各スキャン時点における、代表点PRのy座標の予測誤差を平均した値である。 The average μ12 is calculated in the same manner as the average μ11. That is, the average μ12 is a value obtained by averaging the prediction errors of the y coordinate of the representative point PR at each scan time from the (n−T) scan time to the (n−1) scan time.
次に、関数更新部21は、関数f1の分散σ112,σ122を算出する(ステップS103)。即ち、関数更新部21は、関数f1のx軸方向についての分散σ112と、y軸方向についての分散σ122と、を算出する。
Next, the
本実施形態では、分散σ112は、下記式(2)によって算出される。
分散σ122は、平均μ11と同様にして算出される。即ち、分散σ122は、式(2)のΔdxiをΔdyiに置き換え、且つ、μ11をμ12に置き換えた式によって算出される。このように、関数更新部21は、平均μ11,μ12、及び分散σ112,σ122を算出する。関数更新部21は、平均μ11,μ12、及び分散σ112,σ122を算出することで、関数f1を更新する。
Distributed Shiguma12 2 is calculated in the same manner as the average Myu11. That is, the dispersion Shiguma12 2 replaces the Derutadx i of formula (2) in Derutady i, and is calculated by the equation obtained by replacing the μ11 to Myu12. As described above, the
次に、関数更新部21は、関数f1〜f5の全てが更新されたか否かを判定する(ステップS104)。この場合、関数f2,f3,f4f,f5は、未だ更新されていない(ステップS104でNO)。よって、関数更新部21は、ステップS101〜S104の処理を繰り返す。
Next, the
具体的には、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。この場合、関数更新部21は、例えば、特徴情報として、面積arの情報を選択する。即ち、関数更新部21は、関数f2を更新する。
Specifically, the
図7は、nスキャン時点における追尾物標140の面積arについて、関数更新部21で更新される関数f2の一例を示すグラフ図である。図7に示すように、関数f2は、平均μ2、分散σ22を有している。図7のグラフの横軸は、面積arを示している。図7のグラフの縦軸は、尤度Lhを示している。
FIG. 7 is a graph showing an example of the function f2 updated by the
関数更新部21は、関数f2における平均μ2を算出する(ステップS102)。平均μ2は、関数更新部21によって、例えば、以下のようにして算出される。即ち、関数更新部21は、まず、特徴情報メモリ12を参照する。これにより、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの各スキャン時点について、追尾物標140として設定された物標131における面積arのデータ207を参照する。そして、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの間における、上記面積arの平均値を算出する。関数更新部21は、この平均値を、平均μ2として設定する。尚、関数更新部21は、(n−1)スキャン時点での物標131についての面積arを、平均μ2として設定してもよい。
The
次に、関数更新部21は、関数f2の分散σ22を算出する(ステップS103)。関数更新部21は、例えば、最尤推定処理を行う。これにより、関数更新部21は、関数f2の分散σ22を算出する。このように、関数更新部21は、平均μ2及び分散σ22を算出することで、関数f2を更新する。
Next, the
次に、関数更新部21は、関数f1〜f5の全てが更新されたか否かを判定する(ステップS104)。この場合、関数f3,f4,f5は、未だ更新されていない(ステップS104でNO)。よって、関数更新部21は、ステップS101〜S104の処理を繰り返す。
Next, the
具体的には、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。この場合、関数更新部21は、例えば、特徴情報として、エコーレベルecを選択する。即ち、関数更新部21は、関数f3を更新する。尚、関数f3は、図示していないけれども、関数f2と同様の形状となる。
Specifically, the
関数更新部21は、関数f3における平均μ3を算出する(ステップS102)。この場合のエコーレベルecの平均μ3は、関数更新部21によって、例えば、以下のようにして算出される。即ち、関数更新部21は、まず、特徴情報メモリ12を参照する。これにより、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの各スキャン時点について、追尾物標140として特定された部物標131のエコーレベルecのデータ209を参照する。そして、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの間における、上記エコーレベルecの平均値を算出する。関数更新部21は、この平均値を、平均μ3として設定する。尚、関数更新部21は、(n−1)スキャン時点での物標131についてのエコーレベルecを、平均μ3として設定してもよい。
The
次に、関数更新部21は、関数f3の分散σ32を算出する(ステップS103)。関数更新部21は、例えば、最尤推定処理を行う。これにより、関数更新部21は、関数f3の分散σ32を算出する。このように、関数更新部21は、平均μ3及び分散σ32を算出することで、関数f3を更新する。
Next, the
次に、関数更新部21は、関数f1〜f5の全てが更新されたか否かを判定する(ステップS104)。この場合、関数f4,f5は、未だ設定されていない(ステップS104でNO)。よって、関数更新部21は、ステップS101〜S104の処理を繰り返す。
Next, the
具体的には、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。この場合、関数更新部21は、例えば、特徴情報として、隣接距離adを選択する。即ち、関数更新部21は、関数f4を設定する。尚、関数f4は、図示していないけれども、関数f2と同様の形状となる。
Specifically, the
関数更新部21は、関数f4における平均μ4を算出する(ステップS102)。平均μ4は、関数更新部21によって、例えば、以下のようにして算出される。即ち、関数更新部21は、まず、特徴情報メモリ12を参照する。これにより、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの各スキャン時点について、追尾物標140として特定された物標131についての隣接距離adのデータ210を参照する。そして、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの間における、上記隣接距離adの平均値を算出する。関数更新部21は、この平均値を、平均μ4として設定する。尚、関数更新部21は、(n−1)スキャン時点での物標131についての上記隣接距離adを、平均μ4として設定してもよい。
The
次に、関数更新部21は、関数f4の分散σ42を算出する(ステップS103)。関数更新部21は、例えば、最尤推定処理を行う。これにより、関数更新部21は、関数f4の分散σ42を算出する。このように、関数更新部21は、平均μ4及び分散σ42を算出することで、関数f4を更新する。
Next, the
次に、関数更新部21は、関数f1〜f5の全てが設定されたか否かを判定する(ステップS104)。この場合、関数f5は、未だ更新されていない(ステップS104でNO)。よって、関数更新部21は、ステップS101〜S104の処理を繰り返す。
Next, the
具体的には、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。この場合、関数更新部21は、例えば、特徴情報として、ドップラーシフト量dsを更新する。即ち、関数更新部21は、関数f5を更新する。尚、関数f5については、図示していないけれども、関数f2と同様となる。
Specifically, the
関数更新部21は、関数f5における平均μ5を算出する(ステップS102)。この場合の隣接距離adの平均μ5は、関数更新部21によって、例えば、以下のようにして算出される。即ち、関数更新部21は、まず、特徴情報メモリ12を参照する。これにより、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの各スキャン時点について、追尾物標140として特定された物標131についてのドップラーシフト量dsのデータ211を参照する。そして、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの間における、上記ドップラーシフト量dsの平均値を算出する。関数更新部21は、この平均値を、平均μ5として設定する。尚、関数更新部21は、(n−1)スキャン時点での物標131についての上記ドップラーシフト量dsを、平均μ5として設定してもよい。
The
次に、関数更新部21は、関数f5の分散σ52を算出する(ステップS103)。関数更新部21は、例えば、最尤推定処理を行う。これにより、関数更新部21は、関数f5の分散σ52を算出する。このように、関数更新部21は、平均μ5及び分散σ52を算出することで、関数f5を更新する。
Next, the
次に、関数更新部21は、関数f1〜f5の全てが更新されたか否かを判定する(ステップS104)。この場合、関数f1〜f5の全てが更新されている(ステップS104でYES)。よって、関数更新部21は、関数f1〜f5によって特定される確率密度関数pdfのデータを、尤度算出部22へ出力し(ステップS105)、処理を終了する。上記の構成により、関数f1〜f5は、それぞれ、独立して更新される。また、関数f1〜f5は、それぞれ、固定された関数ではなく、各スキャン時点毎に変化する関数である。
Next, the
尤度算出部22及び尤度比較部23は、設定された確率密度関数pdfを基に、選別領域S1(n)内の物標131,132の何れが追尾物標140であるかの判定処理を行う。以下では、尤度算出部22及び尤度比較部23における処理の流れの一例を説明する。図8は、尤度算出部22及び尤度比較部23における処理の流れの一例を説明するためのフローチャートである。
The
図8に示すフローチャートでは、尤度算出部22は、選別領域S1(n)の物標131,132毎に、追尾物標140に該当する尤度としての総合尤度Lh100,200を算出する。総合尤度Lh100は、後述する尤度Lh11,Lh12,Lh13,Lh14,Lh15の積である。総合尤度Lh200は、後述する尤度Lh21,Lh22,Lh23,Lh24,Lh25の積である。尤度比較部23は、総合尤度Lh100,200に基づいて、物標131,132のなかから、追尾物標140を特定する。
In the flowchart illustrated in FIG. 8, the
具体的には、尤度算出部22は、まず、尤度算出が行われる物標130を選択する(ステップS201)。本実施形態では、尤度算出部22は、選別領域S1(n)内の物標130(131,132)のうちの、物標131を選択する。次に、尤度算出部22は、確率密度関数pdfの関数f1〜f5のなかから1つを選択する(ステップS202)。
Specifically, the
この場合、尤度算出部22は、まず、関数f1を選択する。次に、尤度算出部22は、物標131の代表点P1(n)について、尤度Lh11を算出する(ステップS203)。具体的には、尤度算出部22は、関数f1のデータと、物標131の代表点P1(n)の座標データ208と、を参照する。そして、(n−1)スキャン時点で推定された、代表点PR(n)の予測値のx座標と、代表点P1(n)のx座標との差を、独立変数として、関数f1(図6参照)のx座標に代入する。また、(n−1)スキャン時点で推定された、代表点PR(n)の予測値のy座標と、代表点P1(n)のy座標との差を、独立変数として、関数f1(図6参照)のy座標に代入する。これにより、関数f1における従属変数が、尤度Lh11として算出される。即ち、物標131の代表点P1(n)について、追尾物標140の代表点PR(n)に該当する尤度Lh11が、算出される。
In this case, the
次に、尤度算出部22は、物標131に関する尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh12〜Lh15は、未だ算出されていない(ステップS204でNO)。よって、尤度算出部22は、ステップS202〜S204の処理を繰り返す。
Next, the
具体的には、尤度算出部22は、確率密度関数pdfの関数f1〜f5のなかから1つを選択する(ステップS202)。
Specifically, the
この場合、尤度算出部22は、関数f2を選択する。次に、尤度算出部22は、物標131の面積arについて、追尾物標140の面積arに該当する尤度としての尤度Lh12を算出する(ステップS203)。具体的には、尤度算出部22は、関数f2のデータと、物標131の面積arのデータ207と、を参照する。そして、尤度算出部22は、nスキャン時点における物標131の面積arを、独立変数として、関数f2に代入する。これにより、関数f2における従属変数が、尤度Lh12として算出される。即ち、物標131のエコーレベルecについての尤度Lh12が、算出される。
In this case, the
次に、尤度算出部22は、物標131に関する尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh13〜Lh15は、未だ算出されていない(ステップS204でNO)。よって、尤度算出部22は、ステップS202〜S204の処理を繰り返す。
Next, the
具体的には、尤度算出部22は、関数f3〜f5のなかから1つを選択する(ステップS202)。
Specifically, the
この場合、尤度算出部22は、関数f3を選択する。次に、尤度算出部22は、物標131のエコーレベルecについて、追尾物標140のエコーレベルecに該当する尤度としての尤度Lh13を算出する(ステップS203)。具体的には、尤度算出部22は、関数f3のデータと、物標131のエコーレベルecのデータ209と、を参照する。そして、尤度算出部22は、nスキャン時点における物標131についてのエコーレベルecを、独立変数として、関数f3に代入する。これにより、関数f3における従属変数が、尤度Lh13として算出される。即ち、物標131についてのエコーレベルecの尤度Lh13が、算出される。
In this case, the
次に、尤度算出部22は、物標131に関する尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh14〜Lh15は、未だ算出されていない(ステップS204でNO)。よって、尤度算出部22は、ステップS202〜S204の処理を繰り返す。
Next, the
具体的には、尤度算出部22は、関数f4,f5のなかから1つを選択する(ステップS202)。
Specifically, the
この場合、尤度算出部22は、関数f4を選択する。次に、尤度算出部22は、隣接距離adについて、追尾物標140の隣接距離adに該当する尤度としての尤度Lh14を算出する(ステップS203)。具体的には、尤度算出部22は、関数f4のデータと、物標131についての隣接距離adのデータ210と、を参照する。そして、尤度算出部22は、nスキャン時点における物標131についての隣接距離adを、独立変数として、関数f4に代入する。これにより、関数f4における従属変数が、尤度Lh14として算出される。即ち、物標131における隣接距離adについて、尤度Lh14が、算出される。
In this case, the
次に、尤度算出部22は、物標131に関する尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh15は、算出されていない(ステップS204でNO)。よって、尤度算出部22は、ステップS202〜S204の処理を繰り返す。
Next, the
具体的には、尤度算出部22は、関数f5を選択する(ステップS202)。
Specifically, the
次に、尤度算出部22は、ドップラーシフト量dsについて、追尾物標140のドップラーシフト量dsに該当する尤度としての尤度Lh15を算出する(ステップS203)。具体的には、尤度算出部22は、関数f5のデータと、物標131のドップラーシフト量dsのデータ211と、を参照する。そして、尤度算出部22は、ドップラーシフト量dsを、独立変数として、関数f5に代入する。これにより、関数f5における従属変数が、尤度Lh15として算出される。即ち、物標131についてのドップラーシフト量dsの尤度Lh15が、算出される。
Next, the
尚、図8に示すフローチャートでは、尤度算出部22は、各上記尤度Lh(Lh11〜Lh15)を、個別に算出している。しかしながら、尤度算出部22は、行列計算により、各上記尤度Lh(Lh11〜Lh15)を一括して算出してもよい。
In the flowchart shown in FIG. 8, the
次に、尤度算出部22は、尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh11〜Lh15が算出されている(ステップS204でYES)。よって、尤度算出部22は、物標131についての総合尤度Lh=尤度Lh11×Lh12×尤度Lh13×h14×Lh15を、算出する(ステップS205)。
Next, the
次に、尤度算出部22は、選別領域S1(n)内の全ての物標130(131,132)について、総合尤度が算出されているか否かを判定する(ステップS206)。この場合、物標132についての総合尤度Lh200は、算出されていない(ステップS206でNO)。
Next, the
したがって、尤度算出部22は、ステップS201〜S205の処理を繰り返す。即ち、尤度算出部22は、物標131についての尤度Lh11,Lh12,Lh13,Lh14,Lh15の算出処理と同様の処理を行う。これにより、尤度算出部22は、物標132についての尤度Lh21,Lh22,Lh23,Lh24,Lh25を算出する。尚、尤度Lh21,Lh22,Lh23,Lh24,Lh25は、それぞれ、尤度Lh11,Lh12,Lh13,Lh14,Lh15と同様にして算出される。次いで、尤度算出部22は、尤度Lh21,Lh22,Lh23,Lh24,Lh25を乗算することで、総合尤度Lh200を算出する(ステップS205)。
Therefore, the
尤度算出部22が、選別領域S1(n)内の全ての物標131,132について、総合尤度Lh100,Lh200を算出した場合(ステップS206でYES)、尤度比較部23は、ステップS207の処理を行う。即ち、尤度比較部23は、総合尤度Lh100,Lh200を用いて、追尾物標140を特定する(ステップS207)。本実施形態では、尤度比較部23は、総合尤度Lh100,Lh200のうち、最も高い値を有する総合尤度Lh100を選択する。
When the
本実施形態では、図4に示されているように、物標131に関する物標エコー像121の推定位置PRe(n−1)と、物標エコー像121の代表点P1(n)の位置とは、距離D1だけ離隔している。また、推定位置PRe(n−1)と、物標132に関する物標エコー像122の代表点P2(n)の位置とは、距離D2だけ離隔している。nスキャン時点では、距離D1は、距離D2よりも、わずかに大きい。即ち、図6に示すように、尤度Lh11<Lh21である。
In the present embodiment, as shown in FIG. 4, the estimated position PRe (n−1) of the
一方で、図7に示すように、nスキャン時点において、物標131の面積arと、面積arの平均μ2とは、Δar1だけ異なっている。また、nスキャン時点において、物標132の面積arと、面積arの平均μ2とは、Δar2だけ異なっている。Δar1は、Δar2よりも明らかに小さい。即ち、Lh12>Lh22である。 On the other hand, as shown in FIG. 7, the area ar of the target 131 is different from the average μ2 of the area ar by Δar1 at the time of n scanning. Further, at the time of n scanning, the area ar of the target 132 is different from the average μ2 of the area ar by Δar2. Δar1 is clearly smaller than Δar2. That is, Lh12> Lh22.
また、本実施形態では、nスキャン時点において、物標131についての他の特徴情報の尤度と、物標132についての対応する他の特徴情報の尤度とは、略同じである。即ち、物標131についての尤度Lh13,Lh14,Lh15は、それぞれ、物標132についてのLh23,Lh24,Lh25と略同じである。 In this embodiment, the likelihood of the other feature information about the target 131 and the likelihood of the other feature information corresponding to the target 132 are substantially the same at the n scan time point. That is, the likelihoods Lh13, Lh14, and Lh15 for the target 131 are substantially the same as Lh23, Lh24, and Lh25 for the target 132, respectively.
したがって、物標131についての総合尤度Lh100は、物標132についての総合尤度Lh200よりも大きい(Lh100>Lh200)。この場合、尤度比較部23は、物標131を、nスキャン時点における追尾物標140として特定する。
Therefore, the total likelihood Lh100 for the target 131 is larger than the total likelihood Lh200 for the target 132 (Lh100> Lh200). In this case, the
図1に示すように、尤度比較部23が追尾物標140を特定した後、面積判定部15は、追尾物標140についての物標エコー像121の面積arを、判定する。これにより、面積判定部15は、物標エコー像121について、他の物標エコー像120との融合、又は、過大なぼやけが生じているか否か、を判定する。
As shown in FIG. 1, after the
図9は、面積判定部15での処理の流れの一例を説明するためのフローチャートである。面積判定部15は、まず、関数f2のデータを、関数更新部21から読み出す(ステップS301)。面積判定部15は、更に、追尾物標140の物標エコー像121について、nスキャン時点での面積arのデータ207を、特徴情報メモリ12から読み出す(ステップS302)。
FIG. 9 is a flowchart for explaining an example of the processing flow in the
次に、面積判定部15は、nスキャン時点における、物標エコー像121の面積arが、所定のしきい値より大きいか否かを判定する。この場合のしきい値thは、例えば、(μ2+3×σ2)であり、平均μ2に基づいて設定されている。σ2は、関数f2における標準偏差であり、分散σ22の正の平方根である。物標エコー像121の面積arが、上記所定のしきい値thよりも大きい場合(ステップS303でYES)、面積判定部15は、nスキャン時点での物標エコー像121に、他のエコー像120との融合、又は過大なぼやけが生じていると判定する(ステップS304)。この場合、面積判定部15は、関連付け部14で代表点PR(n)を特定できなかったものとして扱い、代表点PR(n)のデータを、運動推定部16へ出力しないで(ステップS305)、処理を完了する。
Next, the
一方、物標エコー像121の面積arが、所定のしきい値th以下である場合(ステップS303でNO)、面積判定部15は、nスキャン時点での物標エコー像121に、他の物標エコー像120との融合、及び、過大なぼやけの何れも生じていないと判定する(ステップS306)。この場合、面積判定部15は、代表点PR(n)のデータを、運動推定部16へ出力し(ステップS307)、処理を完了する。
On the other hand, when the area ar of the
上記した、(a)物標エコー像121と、他の物標エコー像120との融合、及び(b)物標エコー像121のぼやけについて、以下に説明する。
The above-described (a) fusion of the
まず、(a)物標エコー像121と、他の物標エコー像120(125)との融合が生じる理由を、図10及び図11等を用いて説明する。図10は、物標エコー像121と、他の物標エコー像125とについて、融合が生じていない場合を説明するための模式図である。図11は、物標エコー像121と、他の物標エコー像125とについて、融合が生じている場合を説明するための模式図である。尚、物標エコー像125によって特定される物標135として、他船、クラッタ等を例示することができる。
First, (a) the reason why the
図1、図10及び図11を参照しながら説明すると、アンテナユニット2で検出された各物標エコー像120(121,125)の外郭形状は、アンテナユニット2における観測誤差に起因して、ぼんやりした形状となる。即ち、物標エコー像120(121,125)の外郭形状の大きさは、物標130(131,135)の外郭形状の大きさよりも大きくなる。しかしながら、図10に示すように、物標131と、物標135とが十分に離隔している場合、物標エコー像121と、物標エコー像125とは、融合しない。即ち、追尾処理部11は、物標エコー像121と、物標エコー像125とを、別個の物標であると判定する。
Referring to FIGS. 1, 10, and 11, the outline shape of each target echo image 120 (121, 125) detected by the
一方、物標131と、物標135との距離が小さい場合、図11に示すように、物標エコー像121の外郭部と、物標エコー像125の外郭部とは、融合してしまう。即ち、物標エコー像121と、物標エコー像125とが融合してしまう。この場合、追尾処理部11は、物標エコー像121と、物標エコー像125とを、1つの物標エコー像であると、誤って判定する。その結果、エコー検出部10は、上記1つの物標エコー像の中心点PF1を、物標エコー像121の代表点として検出してしまう。即ち、エコー検出部10は、中心点PF1を、追尾物標140の代表点PR(n)として検出してしまう。この場合、運動推定部16は、この代表点PF1を用いて追尾フィルタ処理を行うこととなる。その結果、運動推定部16で算出される推定速度ベクトルV1(n)は、実際の速度ベクトルに対する誤差が大きくなってしまう。
On the other hand, when the distance between the target 131 and the target 135 is small, the outline of the
物標エコー像121,125の融合が、nスキャン時点で生じた場合、nスキャン時点での物標エコー像121の面積arは、極端に大きくなる。即ち、追尾物標140についての面積arが、所定のしきい値thを超える。よって、面積判定部15は、この追尾物標の面積arを判定することにより、物標エコー像121と、他の物標エコー像125とが融合しているか否かを判定できる。
When the fusion of the
次に、上記(b)物標エコー像121に過大なぼやけが生じる理由を、図12等を用いて説明する。図12は、物標エコー像121に過大なぼやけが生じている状態を示す模式図である。図1及び図12を参照しながら説明すると、アンテナユニット2における、アンテナ角度θ方向の分解能等に起因して、物標エコー像121は、特に、アンテナ角度θ方向に大きくぼやけた形状として検出される場合がある。その結果、nスキャン時点での物標エコー像121の面積arが、過度に大きくなる場合がある。この場合、物標エコー像121の面積arが、所定のしきい値thを超える。また、この場合、物標エコー像121における代表点PF2の位置は、物標エコー像121における真の代表点P1(n)の位置から大きくずれてしまう。この場合に、運動推定部16が、代表点PF2を用いて追尾フィルタ処理を行うと、運動推定部16で算出される推定速度ベクトルV1(n)は、実際の速度ベクトルに対する誤差が大きくなる。そこで、面積判定部15は、追尾物標140(物標エコー像121)の面積arを判定することにより、物標エコー像121の面積arが過度に大きくなっているか否かを検出する。そして、面積arがしきい値thを超えている場合、面積判定部15は、エコー像121に過大なぼやけが生じていると判定する。
Next, the reason why excessive blur occurs in the (b)
次に、運動推定部16について説明する。運動推定部16は、追尾フィルタ処理を行うように構成されている。これにより、運動推定部16は、nスキャン時点における、追尾物標140の推定速度ベクトルV1(n)を算出する。尚、追尾フィルタとして、α−βフィルタ、カルマン・フィルタ等を例示することができる。運動推定部16は、推定速度ベクトルV1(n)を特定するデータを、選別部13、及び表示器4へ出力する。推定速度ベクトルV1(n)のデータは、(n+1)スキャン時点での追尾フィルタ処理に用いられる。
Next, the
次に、運動推定部16での処理の一例を説明する。図13は、運動推定部16における処理の流れの一例を説明するためのフローチャートである。図14は、運動推定部16での処理を説明するための模式図である。図14は、追尾物標140を特定する物標エコー像121について、他の物標エコー像125との融合、及び、過大なぼやけの何れも生じていない場合を示している。図15は、運動推定部16での処理を説明するための模式図である。図15は、追尾物標140を特定する物標エコー像121について、他の物標エコー像125との融合、又は過大なぼやけが生じている場合を示している。
Next, an example of processing in the
まず、運動推定部16は、(n−1)スキャン時点における、当該運動推定部16での追尾フィルタ処理の結果を特定するデータを、読み出す(ステップS401)。この場合、上記追尾フィルタ処理の結果は、図14及び図15にそれぞれ示すように、(n−1)スキャン時点における追尾物標140についての、平滑位置PRs(n−1)の座標と、推定位置PRe(n−1)の座標と、推定速度ベクトルV1(n−1)と、を含んでいる。
First, the
次に、運動推定部16は、面積判定部15から代表点PR(n)のデータが出力されているか否かを判定する(ステップS402)。代表点PR(n)のデータが出力されている場合(ステップS402でYES)、即ち、物標エコー像121において、他の物標エコー像125との融合、及び、過大なぼやけの何れも生じていない場合、運動推定部16は、nスキャン時点で観測された代表点PR(n)のデータを用いて、追尾処理を行う(ステップS403〜S404)。
Next, the
具体的には、運動推定部16は、追尾物標140の代表点PR(n)の座標データを、尤度算出部22から読み出す(ステップS403)。その後、運動推定部16は、ステップS401,S403で読み出したデータを用いて、追尾フィルタ処理を行う(ステップS404)。これにより、図14に示すように、運動推定部16は、nスキャン時点における、物標エコー像121についての平滑位置PRs(n)と、推定位置PRe(n)と、推定速度ベクトルV1(n)と、を算出する。
Specifically, the
運動推定部16は、上記追尾フィルタ処理の結果を特定するデータを、特徴情報メモリ12と、選別部13と、表示器4と、に出力する(ステップS405)。
The
一方、代表点PR(n)のデータが出力されていない場合(ステップS402でNO)、即ち、物標エコー像121に、他の物標エコー像120との融合、又は過大なぼやけが生じている場合(ステップS402でNO)、運動推定部16は、nスキャン時点での代表点PR(n)を用いることなく、追尾処理を行う(ステップS404)。
On the other hand, if the data of the representative point PR (n) is not output (NO in step S402), that is, the
この場合、図15に示すように、運動推定部16で算出された推定速度ベクトルV1(n)は、推定速度ベクトルV1(n−1)と同じ向き及び大きさである。また、推定速度ベクトルV1(n)の始点は、推定速度ベクトルV1(n−1)の終点である。その後、運動推定部16は、ステップS405の処理を行う。以上が、運動推定部16における処理の流れの一例である。
In this case, as shown in FIG. 15, the estimated speed vector V1 (n) calculated by the
表示器4は、例えばカラー表示可能な液晶ディスプレイである。表示器4は、各物標エコー像120の画像データを用いて、表示画面に、各物標エコー像120を表示する。また、表示器4は、推定速度ベクトルV1(n)を、画像として表示する。これにより、表示器4の表示画面には、追尾物標140(物標エコー像121)について、推定速度ベクトルV1(n)を示す画像が表示される。レーダ装置1のオペレータは、表示器4に表示されたレーダ映像を確認することにより、追尾物標140の運動状態を確認することができる。
The display 4 is a liquid crystal display capable of color display, for example. The display 4 displays each
以上説明したように、追尾処理装置3によると、関連付け部14の尤度算出部22は、選別領域S1(n)の代表点P1(n),P2(n)について、追尾物標140の代表点PR(n)に該当する尤度Lh11,Lh21を算出する。そして、関連付け部14の尤度比較部23は、算出された尤度Lh11,Lh21に基づいて、複数の物標131,132のなかから、追尾物標140を特定する。このように、関連付け部14は、統計的手法を用いることで、追尾物標140の代表点PR(n)、即ち代表点P1(n)を、より正確に判定することができる。また、関連付け部14は、尤度Lh11,21の算出に際して、各物標130についての予測誤差、及び観測誤差等を考慮したモデルを設定する必要が無い。即ち、尤度算出部22は、複雑なモデルに従って演算を行う必要が無い。このため、関連付け部14における演算処理は、簡易である。したがって、追尾処理装置3によると、複数の物標130(131,132)のなかから、追尾物標140を確実に、且つ、簡易に検出することができる。
As described above, according to the
また、追尾処理装置3によると、関連付け部14は、選別領域S1(n)内に位置する各物標131,132について、代表点P1(n),P2(n)の情報以外の特徴情報を参照する。そして、関連付け部14の尤度算出部22は、追尾物標140の特徴情報に該当する尤度Lh12〜Lh15;Lh22〜Lh25を算出する。また、関連付け部14の尤度比較部23は、算出した尤度Lh11〜Lh15;Lh21〜Lh25に基づいて、各物標131,132のなかから、追尾物標140を特定する。このように、関連付け部14は、各物標131,132の代表点P1(n),P2(n)についての尤度Lh11,21に加え、尤度Lh12〜Lh15;Lh22〜Lh25を用いて、追尾物標140を特定できる。したがって、複数の物標131,132のなかから、追尾物標140を、より確実に判別することができる。また、前述したように、尤度Lhを用いた処理は、複雑なモデルに従う複雑な演算処理と異なり、簡易な演算処理で済む。したがって、代表点P(n)以外の追加の特徴情報について尤度判定を行う場合でも、関連付け部14での演算負荷は、少なくて済む。
Further, according to the
また、例えば、船舶の航行によって生じる波、又はクラッタ等を、エコー検出部10が、物標として検出した場合を考える。この場合、上記の波又はクラッタ等の面積についての尤度は、物標131,132についての対応する尤度Lh12,22と比べて、格段に小さい。よって、尤度比較部23は、上記波又はクラッタ等を、追尾物標140として誤って判定することを抑制できる。
Further, for example, consider a case where the
また、例えば、前述の特許文献1,2には、追尾対象における1つの特徴情報としての航跡情報に基づく、多重仮説による追尾処理が開示されている。これに対し、追尾処理装置3は、複数の特徴情報を用いて、複数の物標130のなかから追尾物標140を特定している。これにより、複数の物標130のなかから、追尾物標140を、より確実に判別することができる。
Further, for example,
また、追尾処理装置3によると、関連付け部14は、各エコー像120に関して、面積arの情報、エコー信号のレベルec、隣接距離adの情報、及び、ドップラーシフト量dsの少なくとも一つを用いる。関連付け部14は、これらの特徴情報を用いることにより、複数の物標130のなかから、追尾物標140を、より正確に特定することができる。より具体的には、特徴情報として、面積arの情報が用いられている。これにより、関連付け部14は、追尾物標140(物標131)の形状と異なる物標132を、誤って追尾物標140であると判別することを抑制できる。例えば、追尾物標が大型船舶である場合には、小型船舶からなる物標、又はクラッタに起因して検出される物標を、関連付け部14が追尾対象として検出することを、より確実に抑制できる。また、特徴情報として、エコーレベルecが用いられている。これにより、関連付け部14は、追尾物標140とはエコーレベルecの異なる物標130を、誤って追尾物標140であると判別することを抑制できる。また、特徴情報として、隣接距離adの情報が用いられている。これにより、関連付け部14は、追尾物標140(物標131)と、クラッタ等の物標とを、より確実に判別することができる。また、特徴情報として、ドップラーシフト量dsが用いられている。これにより、エコー検出部10は、自船100と、物標130とが向かい合う方向における、自船100と物標130との相対速度を検出することができる。したがって、関連付け部14は、この相対速度を考慮して、複数の物標130のなかから、追尾物標140を特定できる。その結果、例えば、追尾物標140(物標131)と、他の物標130とがすれ違う際において、尤度比較部23は、当該他の物標130を、追尾物標140であると判別することを防止できる。
Further, according to the
また、追尾処理装置3によると、関連付け部14の尤度算出部22は、確率密度関数としての関数f(f1〜f5)を用いて、尤度Lh11〜Lh15;Lh21〜Lh25を算出する。このように、尤度算出部22は、関数fを用いることにより、尤度Lh11〜Lh15;Lh21〜Lh25を、統計的に、且つ、簡易な演算で算出できる。
Further, according to the
また、追尾処理装置3によると、関連付け部14の尤度算出部22は、各関数f(f1〜f5)において、エコー検出部10で検出された特徴情報(代表点P1(n)及びP2(n)の座標、面積ar、エコーレベルec、隣接距離ad、ドップラーシフト量ds)を、独立変数として用いる。また、尤度算出部22は、上記独立変数に従属する従属変数を、尤度Lh11〜Lh15;Lh21〜Lh25として算出する。その結果、代表点P2(n)の位置が、推定位置PRe(n−1)に近いという理由のみに基づいて、当該代表点P2(n)を、追尾物標140の代表点PR(n)として特定することは、防止される。即ち、関連付け部14は、代表点P1(n),P2(n)の情報以外の、他の特徴情報における尤度Lh12〜Lh15;Lh22〜Lh25を考慮して、追尾物標140を特定する。これにより、関連付け部14は、各物標131,132のなかから、追尾物標140を、より正確に特定できる。
Further, according to the
また、追尾処理装置3によると、関連付け部14の尤度算出部22は、各物標131,132毎に、総合尤度Lh100,Lh200を算出する。そして、尤度比較部23は、各物標131,132のうち、総合尤度Lh100,Lh200が最も高い物標131を、追尾物標140として特定する。即ち、尤度比較部23は、各物標131,132について、複数の特徴情報に基づく尤度Lh11〜Lh15;Lh21〜Lh25を、総合的に判定する。これにより、関連付け部14は、各物標131,132のなかから、追尾物標140を、より確実に特定できる。
Further, according to the
また、追尾処理装置3によると、面積判定部15は、追尾物標140を特定する物標エコー像121における面積arが、所定のしきい値thを超えているか否かを判定する。また、運動推定部16は、面積arが、所定のしきい値th以下である場合、nスキャン時点での代表点PR(n)の情報を用いて、推定速度ベクトルV1(n)を算出する。また、運動推定部16は、面積arが、所定のしきい値thを超えている場合には、nスキャン時点での代表点PR(n)の情報を用いることなく、推定速度ベクトルV1(n)を算出する。このような構成により、運動推定部16は、代表点PR(n)について、正確な運動推定に適した情報が得られている場合には、当該情報を用いて、追尾物標140の運動を、より正確に算出できる。一方、運動推定部16は、代表点PR(n)について、正確な運動推定に適した情報を有していない場合も、当該情報用いることなく、追尾物標140の運動を、より正確に算出できる。
Further, according to the
また、面積判定部15は、追尾物標140の物標エコー像121の面積arについて、関数f2を用いて、判定を行う。このため、アンテナユニット2での観測誤差等に起因して、追尾物標140の物標エコー像121の面積arが経時的に変化する場合でも、面積判定部15は、当該面積arを、より正確に判定できる。
Further, the
また、特許文献3には、追尾対象の観測位置に飛躍(飛び)が生じてしまっている状態への対応を行うための構成が開示されている。しかしながら、特許文献3に記載の構成では、上記した、エコー像同士の融合を検出する精度は、十分とはいえない。これに対し、追尾処理装置3によると、面積判定部15は、関数f2を用いて、面積arを判定する。その結果、面積判定部15は、追尾物標140を特定する物標エコー像121が、他のエコー像125と融合した場合に、当該融合を、より確実に検出できる。
また、追尾処理装置3によると、面積判定部15は、関数f2での平均μ2に基づいて、しきい値thを設定している。そして、面積判定部15は、しきい値thを基準として、追尾物標140についての面積arの大きさを判定している。このような構成によると、上記面積arの平均μから、大きくずれている値が面積arとして検出されている場合、面積判定部15は、追尾物標140を特定する物標エコー像121について、他の物標エコー像125との融合、又は、過大なぼやけが生じていると判定する。このような構成により、面積判定部15は、アンテナユニット2での観測誤差に左右され難い状態で、物標エコー像121の面積arを、より正確に判定できる。
Further, according to the
以上、本発明の実施形態について説明したけれども、本発明は上述の実施の形態に限られるものではなく、特許請求の範囲に記載した限りにおいて様々な変更が可能である。例えば、次のように変更して実施してもよい。 As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, As long as it described in the claim, various changes are possible. For example, the following modifications may be made.
(1)上述の実施形態では、物標についての代表点情報以外の追加の特徴情報として、物標エコー像についての面積の情報等を用いる形態を例に説明した。しかしながら、この通りでなくてもよい。例えば、上記追加の特徴情報として、エコー検出部で検出された物標の航跡情報を用いてもよい。上記追加の特徴情報として、航跡情報を用いた場合、錯綜するように航行する複数の物標のなかから、追尾物標を、より精度よく特定できる。 (1) In the above-described embodiment, an example has been described in which area information or the like about a target echo image is used as additional feature information other than representative point information about the target. However, this need not be the case. For example, the track information of the target detected by the echo detector may be used as the additional feature information. When the wake information is used as the additional feature information, the tracking target can be identified with higher accuracy from a plurality of targets that travel in a complicated manner.
(2)上述の実施形態では、形状情報として、物標エコー像の面積の情報を用いる形態を例に説明した。しかしながら、この通りでなくてもよい。例えば、形状情報として、物標エコー像の幅を用いてもよい。また、形状情報として、物標エコー像の長さを用いてもよい。 (2) In the above-described embodiment, an example in which the area information of the target echo image is used as the shape information has been described. However, this need not be the case. For example, the width of the target echo image may be used as the shape information. Further, the length of the target echo image may be used as the shape information.
(3)また、上述の実施形態では、物標エコー像についての中心点を、代表点として用いる形態を例に説明した。しかしながら、この通りでなくてもよい。例えば、物標エコー像のうち、自船に対して最も近い点である最前縁点等を、代表点として用いてもよい。 (3) Further, in the above-described embodiment, an example in which the center point of the target echo image is used as the representative point has been described. However, this need not be the case. For example, the forefront edge point that is the closest point to the ship in the target echo image may be used as the representative point.
(4)また、上述の実施形態では、追尾処理装置が、船舶用の追尾処理装置である形態を例に説明した。しかしながら、本発明は、船舶用の追尾処理装置に限らず、他の物標用の追尾処理装置として適用することができる。 (4) Moreover, in the above-mentioned embodiment, the tracking processing apparatus demonstrated to the example the form which is a tracking processing apparatus for ships. However, the present invention is not limited to a tracking processing device for ships, but can be applied as a tracking processing device for other targets.
本発明は、追尾処理装置、及び追尾処理方法として、広く適用することができる。 The present invention can be widely applied as a tracking processing device and a tracking processing method.
3 追尾処理装置
10 エコー検出部(検出部)
9 信号処理部(検出部)
19 関連付け部(尤度判定部)
130 物標
140 追尾物標(追尾対象)
Lh11,Lh21 追尾対象の代表点に該当する尤度
P 代表点
3
9 Signal processor (detector)
19 Association part (likelihood determination part)
130 Target 140 Tracking target (tracking target)
Lh11, Lh21 Likelihood P corresponding to the representative point to be tracked Representative point
Claims (7)
複数の物標について、代表点の情報を含む特徴情報を検出するための、検出部と、
複数の前記代表点の少なくとも一部について、それぞれ、前記追尾対象の代表点に該当する尤度を算出する、尤度判定部と、
前記追尾対象として特定された前記物標の前記特徴情報を用いて、前記追尾対象の運動状態を推定する、運動推定部と、
面積を判定するための面積判定部と、を備え、
前記尤度判定部は、算出された前記尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定し、
前記検出部は、複数の前記物標の少なくとも一部について、前記代表点の情報以外の特徴情報を、追加の特徴情報として検出し、
前記尤度判定部は、追加の前記特徴情報について、前記追尾対象の特徴情報に該当する尤度を算出し、且つ、当該尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定し、
前記検出部は、送信信号に対する前記追尾対象を含む複数の前記物標での反射波であるエコー信号を検出し、且つ、当該エコー信号によって特定されるエコー像を検出し、且つ、当該エコー像の面積を追加の前記特徴情報として検出し、
前記面積判定部は、前記追尾対象の前記エコー像の前記面積が所定のしきい値を超えているか否かを判定し、
前記運動推定部は、前記面積が所定のしきい値以下である場合、前記運動状態を推定する時点での前記追尾対象の前記特徴情報を用いて、前記運動状態を算出し、且つ、前記面積が所定のしきい値を超えている場合、前記運動状態を算出する時点での前記追尾対象の前記特徴情報を用いることなく、前記運動状態を算出することを特徴とする、追尾処理装置。 A tracking processing device for tracking a target selected as a tracking target,
For a plurality of targets, a detection unit for detecting feature information including information on representative points;
A likelihood determination unit that calculates a likelihood corresponding to the representative point to be tracked for at least some of the plurality of representative points ;
A motion estimation unit that estimates the motion state of the tracking target using the feature information of the target identified as the tracking target;
An area determination unit for determining the area ,
The likelihood determining unit identifies the tracking target from a plurality of the targets based on the calculated likelihood ,
The detection unit detects feature information other than information on the representative point as additional feature information for at least a part of the plurality of targets,
The likelihood determination unit calculates a likelihood corresponding to the feature information of the tracking target for the additional feature information, and determines the tracking target from a plurality of the targets based on the likelihood. Identify,
The detection unit detects an echo signal that is a reflected wave from the plurality of targets including the tracking target with respect to a transmission signal, detects an echo image specified by the echo signal, and detects the echo image Is detected as additional feature information,
The area determination unit determines whether the area of the echo image to be tracked exceeds a predetermined threshold;
When the area is equal to or less than a predetermined threshold, the motion estimation unit calculates the motion state using the feature information of the tracking target at the time of estimating the motion state, and the area A tracking processing device that calculates the motion state without using the feature information of the tracking target at the time when the motion state is calculated when is exceeding a predetermined threshold .
前記検出部は、送信信号に対する各前記物標での反射波であるエコー信号を用いて、各前記特徴情報を検出し、
追加の前記特徴情報は、前記エコー信号によって特定されるエコー像の形状情報、前記エコー信号のレベル、各前記物標の周囲の状態を特定する情報、及び、前記エコー信号に関するドップラーシフト量の少なくとも一つを含むことを特徴とする、追尾処理装置。 The tracking processing device according to claim 1 ,
The detection unit detects each feature information using an echo signal that is a reflected wave at each target with respect to a transmission signal,
The additional feature information includes at least the shape information of the echo image specified by the echo signal, the level of the echo signal, the information specifying the surrounding state of each target, and the Doppler shift amount related to the echo signal. A tracking processing device including one.
各前記特徴情報は、数値によって表される情報であり、
前記尤度判定部は、各前記特徴情報毎に、確率密度関数を用いて、各前記尤度を算出することを特徴とする、追尾処理装置。 The tracking processing device according to claim 1 or 2 , wherein
Each of the feature information is information represented by numerical values,
The said likelihood determination part calculates each said likelihood using a probability density function for every said feature information, The tracking processing apparatus characterized by the above-mentioned.
前記確率密度関数は、各前記特徴情報毎に設定され、
各前記確率密度関数において平均の値として用いられる値は、対応する特徴情報について、尤度が算出される前に予め推定された値であり、
前記尤度判定部は、各確率密度関数において、対応する前記特徴情報を独立変数として用い、前記独立変数に従属する従属変数を、前記尤度として算出することを特徴とする、追尾処理装置。 The tracking processing device according to claim 3 ,
The probability density function is set for each feature information,
The value used as the average value in each probability density function is a value estimated in advance before the likelihood is calculated for the corresponding feature information,
The likelihood processing unit uses the corresponding feature information as an independent variable in each probability density function, and calculates a dependent variable subordinate to the independent variable as the likelihood.
前記尤度判定部は、
同一物標についての前記尤度を互いに乗算することで、総合尤度を算出し、且つ、
各前記物標のうち、前記総合尤度が最も高い前記物標を、前記追尾対象として特定することを特徴とする、追尾処理装置。 The tracking processing device according to claim 4 ,
The likelihood determining unit
Multiplying the likelihoods for the same target by each other to calculate an overall likelihood, and
A tracking processing device, wherein the target having the highest overall likelihood is specified as the tracking target among the targets.
前記面積判定部は、確率密度関数を用いて前記面積を判定するように構成されており、
前記確率密度変数の平均の値として用いられる値は、前記面積について、前記面積判定部で判定される前に予め推定された値であり、
前記所定のしきい値は、前記平均に基づいて設定されることを特徴とする、追尾処理装置。 The tracking processing device according to any one of claims 1 to 5 ,
The area determination unit is configured to determine the area using a probability density function,
The value used as the average value of the probability density variable is a value estimated in advance for the area before being determined by the area determination unit,
The tracking processing device, wherein the predetermined threshold is set based on the average.
複数の物標について、代表点の情報を含む特徴情報を検出するための、検出ステップと、
複数の前記代表点の少なくとも一部について、それぞれ、前記追尾対象の代表点に該当する尤度を算出する、尤度判定ステップと、
前記追尾対象として特定された前記物標の前記特徴情報を用いて、前記追尾対象の運動状態を推定する、運動推定ステップと、
面積を判定するための面積判定ステップと、を含み、
前記尤度判定ステップでは、算出された前記尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定し、
前記検出ステップでは、複数の前記物標の少なくとも一部について、前記代表点の情報以外の特徴情報を、追加の特徴情報として検出し、
前記尤度判定ステップでは、追加の前記特徴情報について、前記追尾対象の特徴情報に該当する尤度を算出し、且つ、当該尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定し、
前記検出ステップでは、送信信号に対する前記追尾対象を含む複数の前記物標での反射波であるエコー信号を検出し、且つ、当該エコー信号によって特定されるエコー像を検出し、且つ、当該エコー像の面積を追加の前記特徴情報として検出し、
前記面積判定ステップでは、前記追尾対象の前記エコー像の前記面積が所定のしきい値を超えているか否かを判定し、
前記運動推定部ステップでは、前記面積が所定のしきい値以下である場合、前記運動状態を推定する時点での前記追尾対象の前記特徴情報を用いて、前記運動状態を算出し、且つ、前記面積が所定のしきい値を超えている場合、前記運動状態を算出する時点での前記追尾対象の前記特徴情報を用いることなく、前記運動状態を算出することを特徴とする、追尾処理方法。 A tracking processing method for tracking a target selected as a tracking target,
A detection step for detecting feature information including representative point information for a plurality of targets;
A likelihood determination step for calculating a likelihood corresponding to the representative point to be tracked for each of at least some of the representative points; and
Using the feature information of the target identified as the tracking target, estimating a motion state of the tracking target, a motion estimation step;
Including an area determination step for determining an area ,
In the likelihood determination step, the tracking target is identified from among the plurality of targets based on the calculated likelihood ,
In the detection step, for at least some of the plurality of targets, feature information other than the representative point information is detected as additional feature information,
In the likelihood determination step, for the additional feature information, a likelihood corresponding to the feature information of the tracking target is calculated, and the tracking target is selected from a plurality of the targets based on the likelihood. Identify,
In the detection step, an echo signal that is a reflected wave at the plurality of targets including the tracking target with respect to the transmission signal is detected, an echo image specified by the echo signal is detected, and the echo image is detected Is detected as additional feature information,
In the area determining step, it is determined whether or not the area of the echo image to be tracked exceeds a predetermined threshold value,
In the motion estimation unit step, when the area is equal to or less than a predetermined threshold, the motion state is calculated using the feature information of the tracking target at the time of estimating the motion state, and the A tracking processing method , wherein, when the area exceeds a predetermined threshold, the motion state is calculated without using the feature information of the tracking target at the time of calculating the motion state .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012237773A JP6084810B2 (en) | 2012-10-29 | 2012-10-29 | Tracking processing apparatus and tracking processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012237773A JP6084810B2 (en) | 2012-10-29 | 2012-10-29 | Tracking processing apparatus and tracking processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014089056A JP2014089056A (en) | 2014-05-15 |
JP6084810B2 true JP6084810B2 (en) | 2017-02-22 |
Family
ID=50791079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012237773A Active JP6084810B2 (en) | 2012-10-29 | 2012-10-29 | Tracking processing apparatus and tracking processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6084810B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3226025A4 (en) | 2014-11-28 | 2018-07-18 | Furuno Electric Co., Ltd. | Tracking processing device and tracking processing method |
JP6466702B2 (en) * | 2014-11-28 | 2019-02-06 | 古野電気株式会社 | Tracking processing device, radar device, and tracking processing method |
WO2020044915A1 (en) * | 2018-08-27 | 2020-03-05 | 古野電気株式会社 | Tracking object differentiation device, tracking object differentiation method, and tracking object differentiation program |
JP7232607B2 (en) * | 2018-10-03 | 2023-03-03 | 古野電気株式会社 | Tracking device, tracking method, and tracking program |
CN113495270B (en) * | 2020-04-07 | 2024-08-27 | 富士通株式会社 | Monitoring device and method based on microwave radar |
KR102328065B1 (en) * | 2020-05-19 | 2021-11-17 | 국방과학연구소 | Random frequency agile radar and method of detection of multiple objects using random frequency agile radar |
CN117111019B (en) * | 2023-10-25 | 2024-01-09 | 深圳市先创数字技术有限公司 | Target tracking and monitoring method and system based on radar detection |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6413485A (en) * | 1987-07-07 | 1989-01-18 | Sumitomo Heavy Industries | Automatic tracking device for moving body |
JP3180239B2 (en) * | 1993-12-27 | 2001-06-25 | 沖電気工業株式会社 | Target tracking device |
JP2000298169A (en) * | 1999-04-14 | 2000-10-24 | Japan Radio Co Ltd | Collision prevention support device for vessel |
JP4153625B2 (en) * | 1999-08-19 | 2008-09-24 | 株式会社トキメック | Motion prediction device |
JP2001337158A (en) * | 2000-05-25 | 2001-12-07 | Mitsubishi Electric Corp | Target detector |
JP2009109293A (en) * | 2007-10-29 | 2009-05-21 | Mitsubishi Electric Corp | Target tracking device, target observation system, target tracking method, and program |
JP2012141189A (en) * | 2010-12-28 | 2012-07-26 | Furuno Electric Co Ltd | Representative position detection device, display device, radar device, representative position detection method and representative position detection program |
-
2012
- 2012-10-29 JP JP2012237773A patent/JP6084810B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014089056A (en) | 2014-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6084810B2 (en) | Tracking processing apparatus and tracking processing method | |
JP5658871B2 (en) | Signal processing apparatus, radar apparatus, signal processing program, and signal processing method | |
JP6084812B2 (en) | Tracking processing apparatus and tracking processing method | |
JP5607428B2 (en) | Signal processing apparatus, radar apparatus, signal processing method, and signal processing program | |
JP6554205B2 (en) | Tracking processing apparatus and tracking processing method | |
JP5398195B2 (en) | Radar equipment | |
JP2014002085A (en) | Signal processing device, radar device, signal processing method, and program | |
JP2008164545A (en) | Moving target detecting device, moving target detection method, and moving target detection program | |
JP2011174714A (en) | Method and device for processing echo signal, radar device and echo signal processing program | |
WO2019058836A1 (en) | Radar device and target tracking method | |
EP3290947B1 (en) | Signal processing device and radar device | |
JP2012112672A (en) | Signal processor, radar device, signal processing method and signal processing program | |
JP6732900B2 (en) | Signal processing device and radar device | |
JP6466702B2 (en) | Tracking processing device, radar device, and tracking processing method | |
EP2929366B1 (en) | Improvements in and relating to course and/or speed data | |
JP2008039557A (en) | Radar system with wake display function | |
JP2011191141A (en) | False image reducing device, radar device, false image reducing method, and false image reducing program | |
JP6084811B2 (en) | Tracking processing apparatus and tracking processing method | |
JP2011185719A (en) | Tracking radar device | |
JP6180004B2 (en) | Tracking processing apparatus and tracking processing method | |
JP2014032016A (en) | Representative position detecting device, display device, radar device, representative position detecting method, and representative position detecting program | |
JP2014055778A (en) | Periphery monitoring device | |
JP2013242255A (en) | Interference signal detection device and radar device | |
JP6235557B2 (en) | Radar device | |
JP2018169320A (en) | Laser radar device and method for acquiring intensity image used therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6084810 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |