[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6084810B2 - Tracking processing apparatus and tracking processing method - Google Patents

Tracking processing apparatus and tracking processing method Download PDF

Info

Publication number
JP6084810B2
JP6084810B2 JP2012237773A JP2012237773A JP6084810B2 JP 6084810 B2 JP6084810 B2 JP 6084810B2 JP 2012237773 A JP2012237773 A JP 2012237773A JP 2012237773 A JP2012237773 A JP 2012237773A JP 6084810 B2 JP6084810 B2 JP 6084810B2
Authority
JP
Japan
Prior art keywords
target
tracking
likelihood
unit
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012237773A
Other languages
Japanese (ja)
Other versions
JP2014089056A (en
Inventor
中川 和也
和也 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Priority to JP2012237773A priority Critical patent/JP6084810B2/en
Publication of JP2014089056A publication Critical patent/JP2014089056A/en
Application granted granted Critical
Publication of JP6084810B2 publication Critical patent/JP6084810B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、物標の追尾処理に用いられる、追尾処理装置、及び追尾処理方法に関する。   The present invention relates to a tracking processing device and a tracking processing method used for target tracking processing.

物標から反射されたレーダ信号等を用いて、物標を追尾(TT:Target Tracking)する追尾装置が知られている(例えば、特許文献1〜3参照)。レーダ信号は、レーダアンテナを用いたスキャン動作によって得られる。レーダ信号は、複数の物標について、位置を特定するデータを含んでいる。得られたレーダ信号は、追尾装置へ出力される。追尾装置は、上記のデータを用いて、追尾中の物標の位置を特定する。追尾装置は、特定した位置等の情報を用いて、追尾中の物標の運動を推定する。   2. Description of the Related Art A tracking device that tracks a target (TT: Target Tracking) using a radar signal or the like reflected from the target is known (see, for example, Patent Documents 1 to 3). The radar signal is obtained by a scanning operation using a radar antenna. The radar signal includes data for specifying positions of a plurality of targets. The obtained radar signal is output to the tracking device. The tracking device specifies the position of the target being tracked using the above data. The tracking device estimates the movement of the target being tracked using information such as the specified position.

特許文献1に記載の装置は、複数の物標について、位置等を観測することで、探知データを取得する。この装置は、探知データ等を用いて、追尾物標の航跡を算出し、その後、当該航跡のデータを保持する。また、この装置は、探知データと航跡との関連付けを行う。   The apparatus described in Patent Literature 1 acquires detection data by observing positions and the like of a plurality of targets. This device calculates the track of the tracking target using detection data or the like, and then holds the track data. In addition, this device associates detection data with wakes.

特許第3044296号公報([請求項1])Japanese Patent No. 3044296 ([Claim 1]) 特許第4488185号公報Japanese Patent No. 4488185 実開平5−23172号公報Japanese Utility Model Publication No. 5-23172

ところで、追尾装置は、追尾中の物標がどのような運動状態にあるかを、定期的に参照する。そして、追尾装置は、過去の算出結果と、最新時点のレーダ信号に含まれる情報と、を用いて、最新時点における追尾物標の運動状態を推定する。具体的には、例えば、追尾装置は、追尾中の物標について、過去の算出結果を基に、最新時点での位置を、推定位置として算出する。次いで、追尾装置は、最新時点のレーダ信号で特定される複数の物標のうち、上記推定位置に最も近い物標を、追尾物標であると判定する。追尾装置は、当該追尾対象について、観測されたデータを用いて、最新時点における追尾物標の運動を推定する。   By the way, the tracking device periodically refers to the motion state of the target being tracked. Then, the tracking device estimates the motion state of the tracking target at the latest time using the past calculation result and the information included in the radar signal at the latest time. Specifically, for example, the tracking device calculates a position at the latest time as an estimated position based on a past calculation result for a target being tracked. Next, the tracking device determines that the target closest to the estimated position among the plurality of targets specified by the radar signal at the latest time point is the tracking target. The tracking device estimates the movement of the tracking target at the latest time point using the observed data for the tracking target.

しかしながら、追尾中の船舶の航行によって生じる波又はクラッタが、上記推定位置の近傍に発生する場合がある。この場合、追尾装置は、当該波又はクラッタを、追尾物標であると誤って判定するおそれがある。このような誤判定が生じた場合、追尾装置は、本来の物標とは異なる波又はクラッタについて、追尾処理を行うこととなり、正確な追尾処理を行うことができない。   However, there is a case where a wave or clutter generated by the navigation of the tracking vessel is generated in the vicinity of the estimated position. In this case, the tracking device may erroneously determine the wave or clutter as a tracking target. When such an erroneous determination occurs, the tracking device performs a tracking process for a wave or clutter that is different from the original target, and cannot perform an accurate tracking process.

また、追尾物標の位置については、予測誤差と、観測誤差とが生じる。予測誤差とは、追尾処理において、上記推定位置と、追尾物標の実際の位置とのずれ量をいう。また、観測誤差とは、追尾物標について、レーダ信号を基に特定される位置と、実際の位置とのずれ量をいう。そこで、上記予測誤差を、予め設定したモデルに従って導出し、且つ、上記観測誤差を、予め設定したモデルに従って導出することが考えられる。しかしながら、このような構成では、予測誤差と、観測誤差のそれぞれについて、モデル化が必要であり、実用に耐えるモデルの作成は、非常に困難となる。   In addition, a prediction error and an observation error occur with respect to the position of the tracking target. The prediction error refers to a deviation amount between the estimated position and the actual position of the tracking target in the tracking process. Further, the observation error refers to the amount of deviation between the position specified based on the radar signal and the actual position for the tracking target. Therefore, it is conceivable that the prediction error is derived according to a preset model, and the observation error is derived according to a preset model. However, in such a configuration, it is necessary to model each of the prediction error and the observation error, and it is very difficult to create a model that can withstand practical use.

本発明は、上記実情に鑑みることにより、複数の物標のなかから、追尾対象を、確実且つ簡易に検出することができる、追尾処理装置、及び追尾処理方法を提供することを目的とする。   In view of the above circumstances, an object of the present invention is to provide a tracking processing device and a tracking processing method capable of reliably and easily detecting a tracking target from among a plurality of targets.

(1)上記課題を解決するために、この発明のある局面に係わる追尾処理装置は、追尾対象として選択された物標を追尾するための追尾処理装置であって、検出部と、尤度判定部と、運動推定部と、面積判定部と、を備えている。前記検出部は、複数の物標について、代表点の情報を含む特徴情報を検出するように構成されている。前記尤度判定部は、複数の前記代表点の少なくとも一部について、それぞれ、前記追尾対象の代表点に該当する尤度を算出するように構成されている。前記運動推定部は、前記追尾対象として特定された前記物標の前記特徴情報を用いて、前記追尾対象の運動状態を推定するように構成されている。前記面積判定部は、面積を判定するように構成されている。前記尤度判定部は、算出された前記尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定する。 (1) In order to solve the above-described problem, a tracking processing device according to an aspect of the present invention is a tracking processing device for tracking a target selected as a tracking target, and includes a detection unit and likelihood determination. A movement estimation unit, and an area determination unit . The detection unit is configured to detect feature information including representative point information for a plurality of targets. The likelihood determining unit is configured to calculate a likelihood corresponding to the representative point to be tracked for at least some of the plurality of representative points. The motion estimation unit is configured to estimate a motion state of the tracking target using the feature information of the target specified as the tracking target. The area determination unit is configured to determine an area. The likelihood determination unit specifies the tracking target from among the plurality of targets based on the calculated likelihood.

さらに、前記検出部は、複数の前記物標の少なくとも一部について、前記代表点の情報以外の特徴情報を、追加の特徴情報として検出する。前記尤度判定部は、追加の前記特徴情報について、前記追尾対象の特徴情報に該当する尤度を算出し、且つ、当該尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定する。前記検出部は、送信信号に対する前記追尾対象を含む複数の前記物標での反射波であるエコー信号を検出し、且つ、当該エコー信号によって特定されるエコー像を検出し、且つ、当該エコー像の面積を追加の前記特徴情報として検出する。前記面積判定部は、前記追尾対象の前記エコー像の前記面積が所定のしきい値を超えているか否かを判定する。前記運動推定部は、前記面積が所定のしきい値以下である場合、前記運動状態を推定する時点での前記追尾対象の前記特徴情報を用いて、前記運動状態を算出し、且つ、前記面積が所定のしきい値を超えている場合、前記運動状態を算出する時点での前記追尾対象の前記特徴情報を用いることなく、前記運動状態を算出する。 Furthermore , the detection unit detects, as additional feature information, feature information other than the representative point information for at least some of the plurality of targets. The likelihood determination unit calculates a likelihood corresponding to the feature information of the tracking target for the additional feature information, and determines the tracking target from a plurality of the targets based on the likelihood. Identify. The detection unit detects an echo signal that is a reflected wave from the plurality of targets including the tracking target with respect to a transmission signal, detects an echo image specified by the echo signal, and detects the echo image Are detected as additional feature information. The area determination unit determines whether the area of the echo image to be tracked exceeds a predetermined threshold value. When the area is equal to or less than a predetermined threshold, the motion estimation unit calculates the motion state using the feature information of the tracking target at the time of estimating the motion state, and the area When is exceeding a predetermined threshold value, the motion state is calculated without using the feature information of the tracking target at the time of calculating the motion state.

)より好ましくは、前記検出部は、送信信号に対する各前記物標での反射波であるエコー信号を用いて、各前記特徴情報を検出する。追加の前記特徴情報は、前記エコー信号によって特定されるエコー像の形状情報、前記エコー信号のレベル、各前記物標の周囲の状態を特定する情報、及び、前記エコー信号に関するドップラーシフト量の少なくとも一つを含む。 ( 2 ) More preferably, the said detection part detects each said feature information using the echo signal which is the reflected wave in each said target with respect to a transmission signal. The additional feature information includes at least the shape information of the echo image specified by the echo signal, the level of the echo signal, the information specifying the surrounding state of each target, and the Doppler shift amount related to the echo signal. Including one.

)好ましくは、各前記特徴情報は、数値によって表される情報であり、前記尤度判定部は、各前記特徴情報毎に、確率密度関数を用いて、各前記尤度を算出する。 ( 3 ) Preferably, each said feature information is information represented by a numerical value, and the said likelihood determination part calculates each said likelihood using a probability density function for every said feature information.

)より好ましくは、前記確率密度関数は、各前記特徴情報毎に設定される。各前記確率密度関数において平均の値として用いられる値は、対応する特徴情報について、尤度が算出される前に予め推定された値である。前記尤度判定部は、各確率密度関数において、対応する前記特徴情報を独立変数として用いる。また、前記尤度判定部は、前記独立変数に従属する従属変数を、前記尤度として算出する。 ( 4 ) More preferably, the probability density function is set for each feature information. The value used as the average value in each probability density function is a value estimated in advance before the likelihood is calculated for the corresponding feature information. The likelihood determining unit uses the corresponding feature information as an independent variable in each probability density function. The likelihood determination unit calculates a dependent variable that depends on the independent variable as the likelihood.

)より好ましくは、前記尤度判定部は、同一物標についての前記尤度を互いに乗算することで、総合尤度を算出する。また、前記尤度判定部は、各前記物標のうち、前記総合尤度が最も高い前記物標を、前記追尾対象として特定する。 ( 5 ) More preferably, the likelihood determination unit calculates an overall likelihood by multiplying the likelihoods of the same target by each other. Moreover, the said likelihood determination part specifies the said target with the said total likelihood highest among each said target as the said tracking object.

)より好ましくは、前記面積判定部は、確率密度関数を用いて前記面積を判定するように構成されている。前記確率密度変数の平均の値として用いられる値は、前記面積について、前記面積判定部で判定される前に予め推定された値である。前記所定のしきい値は、前記平均に基づいて設定される。 ( 6 ) More preferably, the said area determination part is comprised so that the said area may be determined using a probability density function. The value used as the average value of the probability density variable is a value estimated in advance for the area before being determined by the area determination unit. The predetermined threshold is set based on the average.

)上記課題を解決するために、この発明のある局面に係わる追尾処理方法は、追尾対象として選択された物標を追尾するための追尾処理方法であって、検出ステップと、尤度判定ステップと、運動推定ステップと、面積判定ステップと、を含む。前記検出ステップでは、複数の物標について、代表点の情報を含む特徴情報を検出する。前記尤度判定ステップでは、複数の前記代表点の少なくとも一部について、それぞれ、前記追尾対象の代表点に該当する尤度を算出する。前記運動推定ステップでは、前記追尾対象として特定された前記物標の前記特徴情報を用いて、前記追尾対象の運動状態を推定する。前記面積判定ステップでは、面積を判定する。前記尤度判定ステップでは、算出された前記尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定する。さらに、前記検出ステップでは、複数の前記物標の少なくとも一部について、前記代表点の情報以外の特徴情報を、追加の特徴情報として検出する。前記尤度判定ステップでは、追加の前記特徴情報について、前記追尾対象の特徴情報に該当する尤度を算出し、且つ、当該尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定する。前記検出ステップでは、送信信号に対する前記追尾対象を含む複数の前記物標での反射波であるエコー信号を検出し、且つ、当該エコー信号によって特定されるエコー像を検出し、且つ、当該エコー像の面積を追加の前記特徴情報として検出する。前記面積判定ステップでは、前記追尾対象の前記エコー像の前記面積が所定のしきい値を超えているか否かを判定する。前記運動推定ステップでは、前記面積が所定のしきい値以下である場合、前記運動状態を推定する時点での前記追尾対象の前記特徴情報を用いて、前記運動状態を算出し、且つ、前記面積が所定のしきい値を超えている場合、前記運動状態を算出する時点での前記追尾対象の前記特徴情報を用いることなく、前記運動状態を算出する。 ( 7 ) In order to solve the above-described problem, a tracking processing method according to an aspect of the present invention is a tracking processing method for tracking a target selected as a tracking target, including a detection step and likelihood determination. A step, a motion estimation step, and an area determination step . In the detection step, feature information including representative point information is detected for a plurality of targets. In the likelihood determination step, the likelihood corresponding to the representative point to be tracked is calculated for at least some of the representative points. In the motion estimation step, the motion state of the tracking target is estimated using the feature information of the target specified as the tracking target. In the area determining step, the area is determined. In the likelihood determining step, the tracking target is specified from among the plurality of targets based on the calculated likelihood. Furthermore, in the detection step, feature information other than the representative point information is detected as additional feature information for at least some of the plurality of targets. In the likelihood determination step, for the additional feature information, a likelihood corresponding to the feature information of the tracking target is calculated, and the tracking target is selected from a plurality of the targets based on the likelihood. Identify. In the detection step, an echo signal that is a reflected wave at the plurality of targets including the tracking target with respect to the transmission signal is detected, an echo image specified by the echo signal is detected, and the echo image is detected Are detected as additional feature information. In the area determining step, it is determined whether or not the area of the echo image to be tracked exceeds a predetermined threshold value. In the motion estimation step, when the area is equal to or smaller than a predetermined threshold, the motion state is calculated using the feature information of the tracking target at the time of estimating the motion state, and the area When is exceeding a predetermined threshold value, the motion state is calculated without using the feature information of the tracking target at the time of calculating the motion state.

本発明によると、複数の物標のなかから、追尾物標を、確実、且つ簡易に検出することができる、追尾処理装置、及び追尾処理方法を提供することができる。   According to the present invention, it is possible to provide a tracking processing device and a tracking processing method that can reliably and easily detect a tracking target from among a plurality of targets.

本発明の実施形態に係る追尾処理装置を含む、レーダ装置のブロック図である。1 is a block diagram of a radar apparatus including a tracking processing apparatus according to an embodiment of the present invention. 自船と、物標エコー像との関係を説明するための模式的な平面図である。It is a typical top view for demonstrating the relationship between the own ship and a target object echo image. 物標エコー像(物標)に関して抽出されるデータを説明するためのデータ一覧表である。It is a data list for demonstrating the data extracted regarding a target echo image (target). エコー検出部で検出された、物標エコー像を示す模式的な平面図である。It is a typical top view which shows the target echo image detected by the echo detection part. 関数更新部における、確率密度関数更新についての処理の流れの一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the flow of a process about the probability density function update in a function update part. 代表点について、関数更新部で更新される関数の一例を示すグラフ図である。It is a graph which shows an example of the function updated in a function update part about a representative point. 追尾物標の面積について、関数更新部で更新される関数の一例を示すグラフ図である。It is a graph which shows an example of the function updated by the function update part about the area of a tracking target. 尤度算出部における処理の流れの一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the flow of a process in a likelihood calculation part. 面積判定部での処理の流れの一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the flow of a process in an area determination part. 物標エコー像と、他の物標エコー像とについて、融合が生じていない場合を説明するための模式図である。It is a mimetic diagram for explaining the case where fusion has not occurred about a target echo image and other target echo images. 物標エコー像と、他の物標エコー像とについて、融合が生じている場合を説明するための模式図である。It is a mimetic diagram for explaining the case where fusion has occurred about a target echo image and other target echo images. 物標エコー像に過大なぼやけが生じている状態を示す模式図である。It is a schematic diagram which shows the state in which excessive blur has arisen in the target object echo image. 運動推定部による処理の流れの一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the flow of a process by the exercise | movement estimation part. 運動推定部での処理を説明するための模式図である。It is a schematic diagram for demonstrating the process in a motion estimation part. 運動推定部での処理を説明するための模式図である。It is a schematic diagram for demonstrating the process in a motion estimation part.

以下、本発明を実施するための形態について、図面を参照しつつ説明する。本発明は、追尾対象として選択された物標を追尾する、追尾処理装置として広く適用することができる。以下では、追尾対象として設定された物標を「追尾物標」という。また、以下では、図中同一または相当部分には、同一符号を付してその説明は繰り返さない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The present invention can be widely applied as a tracking processing apparatus that tracks a target selected as a tracking target. Hereinafter, a target set as a tracking target is referred to as a “tracking target”. In the following, the same or corresponding parts in the drawings are denoted by the same reference numerals, and description thereof will not be repeated.

図1は、本発明の実施形態に係る追尾処理装置3を含む、レーダ装置1のブロック図である。本実施形態のレーダ装置1は、例えば、漁船等の船舶に備えられる舶用レーダである。レーダ装置1は、主に他船等の物標の探知に用いられる。また、レーダ装置1は、追尾物標として選択された物標を追尾することが可能に構成されている。レーダ装置1は、複数の追尾物標を、同時に追尾可能に構成されている。レーダ装置1は、追尾物標の運動状態を推定するように構成されている。本実施形態では、レーダ装置1は、上記運動状態として、追尾物標の推定速度ベクトルを算出する。推定速度ベクトルとは、追尾物標について推定される、進行方向及び進行速度を示すベクトルである。レーダ装置1は、追尾物標の推定速度ベクトルを、画面に表示する。尚、以下では、レーダ装置1が備えられている船舶を「自船」という。   FIG. 1 is a block diagram of a radar apparatus 1 including a tracking processing apparatus 3 according to an embodiment of the present invention. The radar apparatus 1 according to the present embodiment is a marine radar provided in a vessel such as a fishing boat. The radar apparatus 1 is mainly used for detecting a target such as another ship. Further, the radar apparatus 1 is configured to be able to track a target selected as a tracking target. The radar apparatus 1 is configured to be able to track a plurality of tracking targets at the same time. The radar apparatus 1 is configured to estimate the motion state of the tracking target. In the present embodiment, the radar apparatus 1 calculates an estimated velocity vector of the tracking target as the motion state. The estimated speed vector is a vector indicating the traveling direction and the traveling speed estimated for the tracking target. The radar apparatus 1 displays the estimated velocity vector of the tracking target on the screen. Hereinafter, a ship provided with the radar device 1 is referred to as “own ship”.

図1に示すように、レーダ装置1は、アンテナユニット2と、追尾処理装置3と、表示器4と、を備えている。   As shown in FIG. 1, the radar device 1 includes an antenna unit 2, a tracking processing device 3, and a display 4.

アンテナユニット2は、アンテナ5と、受信部6と、A/D変換部7と、を含んでいる。   The antenna unit 2 includes an antenna 5, a receiving unit 6, and an A / D conversion unit 7.

アンテナ5は、指向性の強いパルス状電波を送信可能なレーダアンテナである。また、アンテナ5は、物標からの反射波であるエコー信号を受信するように構成されている。即ち、物標のエコー信号は、アンテナ5からの送信信号に対する、物標での反射波である。レーダ装置1は、パルス状電波を送信してからエコー信号を受信するまでの時間を測定する。これにより、レーダ装置1は、物標までの距離rを検出することができる。アンテナ5は、水平面上で360°回転可能に構成されている。アンテナ5は、パルス状電波の送信方向を変えながら(アンテナ角度を変えながら)、電波の送受信を繰り返し行うように構成されている。以上の構成で、レーダ装置1は、自船周囲の平面上の物標を、360°にわたり探知することができる。   The antenna 5 is a radar antenna capable of transmitting a pulsed radio wave having strong directivity. The antenna 5 is configured to receive an echo signal that is a reflected wave from a target. That is, the echo signal of the target is a reflected wave at the target with respect to the transmission signal from the antenna 5. The radar apparatus 1 measures the time from when a pulsed radio wave is transmitted to when an echo signal is received. Thereby, the radar apparatus 1 can detect the distance r to the target. The antenna 5 is configured to be able to rotate 360 ° on a horizontal plane. The antenna 5 is configured to repeatedly transmit and receive radio waves while changing the transmission direction of pulsed radio waves (changing the antenna angle). With the above configuration, the radar apparatus 1 can detect a target on a plane around the ship over 360 °.

なお、以下の説明では、パルス状電波を送信してから次のパルス状電波を送信するまでの動作を「スイープ」という。また、電波の送受信を行いながらアンテナを360°回転させる動作を「スキャン」と呼ぶ。以下では、あるスキャンのことを、「nスキャン」といい、nスキャンから1個前のスキャンのことを、「n−1スキャン」という。同様に、nスキャンからm個前のスキャンのことを、「n−mスキャン」という。尚、n、mは、何れも自然数である。また、以下では、動作について特に説明なき場合、nスキャン時点におけるレーダ装置1の動作を説明する。   In the following description, an operation from transmission of a pulsed radio wave to transmission of the next pulsed radio wave is referred to as “sweep”. The operation of rotating the antenna 360 ° while transmitting / receiving radio waves is called “scan”. In the following, a certain scan is referred to as an “n scan”, and a scan immediately before the n scan is referred to as an “n−1 scan”. Similarly, m scans before n scans are referred to as “nm scans”. Note that n and m are natural numbers. In the following, the operation of the radar apparatus 1 at the n-scan time point will be described unless the operation is particularly described.

受信部6は、アンテナ5で受信したエコー信号を検波して増幅する。受信部6は、増幅したエコー信号を、A/D変換部7へ出力する。A/D変換部7は、アナログ形式のエコー信号をサンプリングし、複数ビットからなるデジタルデータ(エコーデータ)に変換する。ここで、上記エコーデータは、アンテナ5が受信したエコー信号の強度(信号レベル)を特定するデータを含んでいる。A/D変換部7は、エコーデータを、追尾処理装置3へ出力する。   The receiving unit 6 detects and amplifies the echo signal received by the antenna 5. The reception unit 6 outputs the amplified echo signal to the A / D conversion unit 7. The A / D converter 7 samples an analog echo signal and converts it into digital data (echo data) consisting of a plurality of bits. Here, the echo data includes data for specifying the intensity (signal level) of the echo signal received by the antenna 5. The A / D converter 7 outputs the echo data to the tracking processing device 3.

追尾処理装置3は、複数の物標の中から選択された物標を、追尾物標として特定し、且つ、当該追尾物標の追尾処理を行うように構成されている。より具体的には、追尾処理装置3は、追尾物標の推定速度ベクトル、及び追尾物標の推定位置等を算出するように構成されている。   The tracking processing device 3 is configured to identify a target selected from a plurality of targets as a tracking target and to perform tracking processing of the tracking target. More specifically, the tracking processing device 3 is configured to calculate an estimated speed vector of the tracking target, an estimated position of the tracking target, and the like.

追尾処理装置3は、CPU、RAM及びROM(図示せず)等を含むハードウェアを用いて構成されている。また、追尾処理装置3は、ROMに記憶された追尾処理プログラムを含む、ソフトウェアを用いて構成されている。   The tracking processing device 3 is configured using hardware including a CPU, a RAM, a ROM (not shown), and the like. The tracking processing device 3 is configured by using software including a tracking processing program stored in the ROM.

上記追尾処理プログラムは、本発明に係る追尾処理方法を、追尾処理装置3に実行させるためのプログラムである。上記ハードウェアとソフトウェアとは、協働して動作するように構成されている。これにより、追尾処理装置3を、スイープメモリ8、信号処理部9、エコー検出部10、及び追尾処理部11等として機能させることができる。追尾処理装置3は、1スキャン毎に、以下に説明する処理を行うように構成されている。   The tracking processing program is a program for causing the tracking processing device 3 to execute the tracking processing method according to the present invention. The hardware and software are configured to operate in cooperation. Thereby, the tracking processing device 3 can function as the sweep memory 8, the signal processing unit 9, the echo detection unit 10, the tracking processing unit 11, and the like. The tracking processing device 3 is configured to perform processing described below for each scan.

追尾処理装置3は、信号処理部9と、エコー検出部(検出部)10と、追尾処理部11と、を有している。   The tracking processing device 3 includes a signal processing unit 9, an echo detection unit (detection unit) 10, and a tracking processing unit 11.

信号処理部9は、フィルタ処理等を施すことにより、エコーデータに含まれる干渉成分と、不要な波形データと、を除去する。また、信号処理部9は、物標エコー像に関するエコーデータの特徴情報の検出を、行うように構成されている。信号処理部9は、処理したエコーデータを、エコー検出部10へ出力する。   The signal processing unit 9 removes interference components included in the echo data and unnecessary waveform data by performing filter processing or the like. The signal processing unit 9 is configured to detect feature information of echo data related to the target echo image. The signal processing unit 9 outputs the processed echo data to the echo detection unit 10.

エコー検出部10は、物標エコー像の検出と、物標エコー像に関するエコーデータの特徴情報の検出とを、行うように構成されている。即ち、エコー検出部10は、物標エコー像検出部と、特徴情報抽出部と、を含んでいる。信号処理部9及びエコー検出部10によって、物標の特徴情報を検出するための検出部が、構成されている。   The echo detector 10 is configured to detect a target echo image and detect feature information of echo data related to the target echo image. That is, the echo detection unit 10 includes a target echo image detection unit and a feature information extraction unit. The signal processing unit 9 and the echo detection unit 10 constitute a detection unit for detecting target feature information.

エコー検出部10は、信号処理部9からエコーデータを読み出すときの読出しアドレスに基づいて、当該エコーデータに対応する位置までの距離rを求める。また、アンテナ5からエコー検出部10へは、当該アンテナ5が現在どの方向を向いているか(アンテナ角度θ)を示すデータが出力されている。以上の構成で、エコー検出部10は、エコーデータを読み出す際には、当該エコーデータに対応する位置を、距離rとアンテナ角度θとの極座標で取得することができる。   The echo detector 10 obtains the distance r to the position corresponding to the echo data based on the read address when the echo data is read from the signal processor 9. Further, data indicating which direction the antenna 5 is currently facing (antenna angle θ) is output from the antenna 5 to the echo detector 10. With the above configuration, when the echo detection unit 10 reads the echo data, the echo detection unit 10 can acquire the position corresponding to the echo data with polar coordinates of the distance r and the antenna angle θ.

エコー検出部10は、エコーデータに対応する位置に物標が存在するか否かを検出するように構成されている。エコー検出部10は、例えば、エコーデータに対応する位置の信号レベル、即ち、信号強度を判別する。エコー検出部10は、信号レベルが所定のしきいレベル値以上である位置には、物標が存在していると判別する。   The echo detector 10 is configured to detect whether or not a target exists at a position corresponding to the echo data. For example, the echo detector 10 determines the signal level at the position corresponding to the echo data, that is, the signal intensity. The echo detector 10 determines that a target exists at a position where the signal level is equal to or higher than a predetermined threshold level value.

次いで、エコー検出部10は、物標が存在している範囲を検出する。エコー検出部10は、例えば、物標が存在している一まとまりの領域を、物標エコー像が存在している領域として検出する。このようにして、エコー検出部10は、エコーデータを基に、物標エコー像を検出する。この物標エコー像の外郭形状は、物標の外郭形状と略合致する。但し、エコーデータに含まれるノイズ等に起因して、この物標エコー像の外郭形状と、物標の外郭形状とは、わずかに異なる。次に、エコー検出部10は、エコーデータを用いて、物標エコー像に関連する特徴情報を抽出する。   Next, the echo detector 10 detects a range where the target is present. For example, the echo detection unit 10 detects a group of areas where the target is present as an area where the target echo image is present. In this way, the echo detector 10 detects the target echo image based on the echo data. The outline shape of the target echo image substantially matches the outline shape of the target. However, due to noise included in the echo data, the outline shape of the target echo image is slightly different from the outline shape of the target. Next, the echo detector 10 extracts feature information related to the target echo image using the echo data.

図2は、自船100と、物標エコー像120との関係を説明するための模式的な平面図である。図2では、物標エコー像120は、矩形の像として例示されている。また、図2では、物標エコー像120によって特定される物標130が示されている。図2では、物標130の外郭形状は、物標エコー像120と合致した状態で表示されている。   FIG. 2 is a schematic plan view for explaining the relationship between the ship 100 and the target echo image 120. In FIG. 2, the target echo image 120 is illustrated as a rectangular image. In FIG. 2, a target 130 specified by the target echo image 120 is shown. In FIG. 2, the outline shape of the target 130 is displayed in a state that matches the target echo image 120.

図1及び図2に示すように、極座標系では、自船100の位置としての自船位置M1を基準として、自船位置M1からの直線距離が、距離rとして示され、自船位置M1周りの角度が、角度θとして示される。本実施形態では、自船位置M1は、アンテナ5の位置に相当する。エコー検出部10は、物標エコー像120の代表点Pの抽出に際しては、自船位置M1を中心とする、リング状部分の一部形状の像110を用いる。この像110は、第1直線111、第2直線112、第1円弧113、及び第2円弧114によって囲まれた領域の像である。   As shown in FIGS. 1 and 2, in the polar coordinate system, a straight line distance from the ship position M1 is indicated as a distance r with respect to the ship position M1 as the position of the ship 100. Is shown as an angle θ. In the present embodiment, the ship position M <b> 1 corresponds to the position of the antenna 5. When extracting the representative point P of the target echo image 120, the echo detection unit 10 uses the partial image 110 of the ring-shaped portion centered on the ship position M1. The image 110 is an image of a region surrounded by the first straight line 111, the second straight line 112, the first arc 113, and the second arc 114.

第1直線111は、物標エコー像120の後縁120aのうち自船位置M1に最も近い点と、自船位置M1と、を通る直線である。第2直線112は、物標エコー像120の前縁120bのうち自船位置M1に最も近い点と、自船位置M1と、を通る直線である。第1円弧113は、物標エコー像120のうち自船位置M1から最も近い部分120cを通る円弧である。第1円弧113の曲率中心点は、自船位置M1である。第2円弧114は、物標エコー像120のうち自船位置M1から最も遠い部分120dを通る円弧である。第2円弧114は、第1円弧113と同心である。   The first straight line 111 is a straight line passing through the point closest to the own ship position M1 in the rear edge 120a of the target echo image 120 and the own ship position M1. The second straight line 112 is a straight line passing through the point closest to the ship position M1 in the front edge 120b of the target echo image 120 and the ship position M1. The first arc 113 is an arc passing through the portion 120c closest to the ship position M1 in the target echo image 120. The center of curvature of the first arc 113 is the ship position M1. The second arc 114 is an arc passing through the portion 120d farthest from the ship position M1 in the target echo image 120. The second arc 114 is concentric with the first arc 113.

図3は、物標エコー像120(物標130)に関して抽出されるデータを説明するためのデータ一覧表である。図2及び図3に示すように、本実施形態では、信号処理部9及びエコー検出部10は、協働して、物標エコー像120(物標130)について、下記12個のデータを、特徴情報データとして抽出する。即ち、エコー検出部10は、エコーデータ、及び物標エコー像120の画像データを基に、下記12個のテキストデータを抽出する。本実施形態では、12個のテキストデータとは、フラグのデータ201と、距離rpのデータ202と、終了角度θeのデータ203と、角度幅θwのデータ204と、最前縁距離rnのデータ205と、最後縁距離rfのデータ206と、面積ar(形状情報)のデータ207と、代表点Pの座標データ208と、エコーレベルecのデータ209と、隣接距離(物標の周囲の状態を特定する情報)adのデータ210と、ドップラーシフト量dsのデータ211と、時刻tmのデータ212と、である。   FIG. 3 is a data list for explaining data extracted with respect to the target echo image 120 (target 130). As shown in FIGS. 2 and 3, in the present embodiment, the signal processing unit 9 and the echo detection unit 10 cooperate with each other to obtain the following 12 pieces of data for the target echo image 120 (target 130): Extracted as feature information data. That is, the echo detector 10 extracts the following 12 pieces of text data based on the echo data and the image data of the target echo image 120. In the present embodiment, the twelve text data are flag data 201, distance rp data 202, end angle θe data 203, angular width θw data 204, and leading edge distance rn data 205. The data 206 of the last edge distance rf, the data 207 of the area ar (shape information), the coordinate data 208 of the representative point P, the data 209 of the echo level ec, and the adjacent distance (specify the state around the target) Information) ad data 210, Doppler shift amount ds data 211, and time tm data 212.

上記のフラグは、例えば、物標エコー像120について、所定の状態であるか否か、等を特定するフラグである。このフラグは、「1」又は「0」等に設定されるように構成されている。   The above flag is a flag for specifying whether or not the target echo image 120 is in a predetermined state, for example. This flag is configured to be set to “1” or “0”.

距離rpは、自船位置M1から物標エコー像120の代表点Pまでの直線距離である。本実施形態では、代表点Pは、像110の図心点である。終了角度θeは、物標エコー像120の検出が終わった時点における、前述のアンテナ角度θである。角度幅θwは、物標エコー像120について、自船位置M1回りの角度方向の幅である。角度幅θwは、第1直線111と第2直線112とがなす角度でもある。最前縁距離rnは、物標エコー像120の部分120cと、自船位置M1との距離である。最後縁距離rfは、物標エコー像120の部分120dと、自船位置M1との距離である。面積arは、リング状部分の一部形状の像110における面積であり、本実施形態では、物標エコー像120の面積として扱われる。   The distance rp is a linear distance from the ship position M1 to the representative point P of the target echo image 120. In the present embodiment, the representative point P is a centroid point of the image 110. The end angle θe is the antenna angle θ described above at the time when the detection of the target echo image 120 is completed. The angle width θw is the width of the target echo image 120 in the angular direction around the ship position M1. The angle width θw is also an angle formed by the first straight line 111 and the second straight line 112. The forefront edge distance rn is the distance between the portion 120c of the target echo image 120 and the ship position M1. The last edge distance rf is the distance between the portion 120d of the target echo image 120 and the ship position M1. The area ar is an area in the partially shaped image 110 of the ring-shaped portion, and is treated as the area of the target echo image 120 in the present embodiment.

エコーレベルecは、物標エコー像120を特定するエコー信号の、強度を示している。この強度は、物標エコー像120を特定するエコー信号のピーク強度であってもよいし、当該エコー信号の強度の平均値であってもよい。本実施形態では、隣接距離adは、例えば、隣接する2つの物標エコー像120間の距離である。ドップラーシフト量dsは、例えば、アンテナ5から放射されたパルス信号の周波数と、物標エコー像120によって特定される物標130で反射したエコー信号の周波数と、の差である。ドップラーシフト量dsを基に、物標エコー像120によって特定される物標130と、自船100との相対速度を求めることが可能である。時刻tmは、物標エコー像120を検出した時点の時刻である。尚、エコー像120のデータは、予備のデータ領域を含んでいてもよい。本実施形態では、信号処理部9及びエコー検出部10は、各物標エコー像120について、上記12個の特徴情報を抽出する。これら12個の特徴情報のうち、代表点Pの位置以外の特徴情報は、本発明の「追加の特徴情報」の一例である。また、これら12個の特徴情報は、何れも、数値によって表される情報である。   The echo level ec indicates the intensity of an echo signal that identifies the target echo image 120. This intensity may be a peak intensity of an echo signal specifying the target echo image 120, or may be an average value of the intensity of the echo signal. In the present embodiment, the adjacent distance ad is, for example, a distance between two adjacent target echo images 120. The Doppler shift amount ds is, for example, the difference between the frequency of the pulse signal radiated from the antenna 5 and the frequency of the echo signal reflected by the target 130 specified by the target echo image 120. Based on the Doppler shift amount ds, the relative speed between the target 130 specified by the target echo image 120 and the ship 100 can be obtained. Time tm is the time when the target echo image 120 is detected. Note that the data of the echo image 120 may include a spare data area. In the present embodiment, the signal processing unit 9 and the echo detection unit 10 extract the 12 pieces of feature information for each target echo image 120. Of these twelve pieces of feature information, feature information other than the position of the representative point P is an example of “additional feature information” in the present invention. Further, these 12 pieces of feature information are all information represented by numerical values.

エコー検出部10で検出された複数の物標エコー像120の一例を、図4に示している。図4は、エコー検出部10で検出された、物標エコー像120を示す模式的な平面図である。図4では、一例として、nスキャン時点における4つの物標エコー像120(121,122,123,124)を示している。図4では、物標エコー像120(121,122,123,124)の形状は、それぞれ、物標130(131,132,133,134)の形状と合致している。   An example of a plurality of target echo images 120 detected by the echo detector 10 is shown in FIG. FIG. 4 is a schematic plan view showing the target echo image 120 detected by the echo detector 10. In FIG. 4, as an example, four target echo images 120 (121, 122, 123, 124) at the time of n scanning are shown. In FIG. 4, the shape of the target echo image 120 (121, 122, 123, 124) matches the shape of the target 130 (131, 132, 133, 134), respectively.

物標エコー像121によって特定される物標131,物標エコー像122によって特定される物標132,及び物標エコー像123によって特定される物標133は、例えば、小型船舶である。物標エコー像124によって特定される物標134は、例えば、大型船舶である。エコー検出部10は、nスキャン時点において、代表点Pとして、物標エコー像121の代表点P1(n)と、物標エコー像122の代表点P2(n)と、物標エコー像123の代表点P3(n)と、物標エコー像124の代表点P4(n)と、を検出している。以下では、物標131が、追尾物標140である場合を例に説明する。   The target 131 specified by the target echo image 121, the target 132 specified by the target echo image 122, and the target 133 specified by the target echo image 123 are, for example, small ships. The target 134 specified by the target echo image 124 is, for example, a large ship. The echo detection unit 10 includes the representative point P1 (n) of the target echo image 121, the representative point P2 (n) of the target echo image 122, and the target echo image 123 as the representative point P at the n scan time point. The representative point P3 (n) and the representative point P4 (n) of the target echo image 124 are detected. Hereinafter, a case where the target 131 is the tracking target 140 will be described as an example.

図1〜図4に示すように、エコー検出部10は、各物標エコー像120についての特徴情報データ201〜212を、追尾処理部11へ出力する。   As shown in FIGS. 1 to 4, the echo detection unit 10 outputs feature information data 201 to 212 for each target echo image 120 to the tracking processing unit 11.

追尾処理部11は、複数の物標120のなかから、追尾物標140を特定し、且つ、当該追尾物標140の追尾処理を行うように構成されている。追尾物標140は、例えば、表示器4に表示された、複数の物標130を示すシンボル等を基に、オペレータによって選択される。オペレータによる、追尾物標140の選択指令は、例えば、オペレータが操作装置(図示せず)を操作することにより、発せられる。本実施形態では、追尾処理部11は、特に説明無き限り、X−Y座標系を基準に、処理を行うように構成されている。   The tracking processing unit 11 is configured to identify the tracking target 140 from among the plurality of targets 120 and perform the tracking process of the tracking target 140. The tracking target 140 is selected by the operator based on, for example, symbols indicating the plurality of targets 130 displayed on the display 4. The selection command of the tracking target 140 by the operator is issued, for example, when the operator operates an operating device (not shown). In the present embodiment, the tracking processing unit 11 is configured to perform processing on the basis of the XY coordinate system unless otherwise specified.

追尾処理部11は、nスキャン時点(最新のスキャン時点)における、追尾物標140の推定速度ベクトルV1(n)を算出するように構成されている。また、追尾処理部11は、推定速度ベクトルV1(n)を表示器4に表示させるように、構成されている。   The tracking processing unit 11 is configured to calculate an estimated velocity vector V1 (n) of the tracking target 140 at the n scanning time point (latest scanning time point). The tracking processing unit 11 is configured to display the estimated speed vector V1 (n) on the display 4.

追尾処理部11は、特徴情報メモリ12と、選別部13と、関連付け部(尤度判定部)14と、面積判定部15と、運動推定部16と、を有している。   The tracking processing unit 11 includes a feature information memory 12, a selection unit 13, an association unit (likelihood determination unit) 14, an area determination unit 15, and a motion estimation unit 16.

特徴情報メモリ12は、信号処理部9及びエコー検出部10から出力されたデータを蓄積するように構成されている。また、特徴情報メモリ12は、後述する関数f1〜f5に関連するデータを蓄積するように構成されている。特徴情報メモリ12は、(n−T)スキャン時点から、nスキャン時点までの各時点における、全ての物標エコー像120について、特徴情報データ201〜212を蓄積している。尚、定数Tは、予め設定されている値であり、例えば、数十程度である。   The feature information memory 12 is configured to store data output from the signal processing unit 9 and the echo detection unit 10. The feature information memory 12 is configured to store data related to functions f1 to f5 described later. The feature information memory 12 stores feature information data 201 to 212 for all target echo images 120 at each time point from the (n-T) scan time point to the n scan time point. The constant T is a preset value, for example, about several tens.

選別部13は、選別領域S1(n)を設定するように構成されている。選別領域S1(n)は、nスキャン時点における、追尾物標140の代表点(追尾代表点)PR(n)を選別するための領域である。選別部13は、エコー検出部10、関連付け部14、及び運動推定部16に接続されている。   The sorting unit 13 is configured to set the sorting area S1 (n). The selection area S1 (n) is an area for selecting a representative point (tracking representative point) PR (n) of the tracking target 140 at the time of n scanning. The selection unit 13 is connected to the echo detection unit 10, the association unit 14, and the motion estimation unit 16.

選別部13は、エコー検出部10から、nスキャン時点における、各物標エコー像120の代表点P(P1(n)〜P4(n))の座標データを受け付ける。また、選別部13は、(n−1)スキャン時点を算出基準時点とする、追尾物標140の推定速度ベクトルV1(n−1)のデータを、受け付ける。本実施形態では、選別部13は、運動推定部16から、上記推定速度ベクトルV1(n−1)のデータを受け付ける。   The selection unit 13 receives the coordinate data of the representative points P (P1 (n) to P4 (n)) of each target echo image 120 at the n-scan time point from the echo detection unit 10. In addition, the selection unit 13 receives data of the estimated speed vector V1 (n−1) of the tracking target 140 with the (n−1) scan time as the calculation reference time. In the present embodiment, the selection unit 13 receives data of the estimated speed vector V1 (n−1) from the motion estimation unit 16.

次に、選別部13は、追尾物標140の推定位置PRe(n−1)を検出する。この推定位置PRe(n−1)は、推定速度ベクトルV1(n−1)によって特定される位置である。推定位置PRe(n−1)は、nスキャン時点において、追尾物標140の代表点PR(n)が到達すると推定される位置である。選別部13は、この推定位置PRe(n−1)を中心にして、所定の半径を有する選別領域S1(n)を設定する。図4は、選別領域S1内に、物標エコー像121,122の代表点P1(n),P2(n)が含まれた状態を例示している。選別部13は、代表点P1(n),P2(n)のそれぞれについて、座標データ208を、関連付け部14へ出力する。   Next, the selection unit 13 detects the estimated position PRe (n−1) of the tracking target 140. The estimated position PRe (n-1) is a position specified by the estimated speed vector V1 (n-1). The estimated position PRe (n−1) is a position where the representative point PR (n) of the tracking target 140 is estimated to arrive at n scan points. The selection unit 13 sets a selection region S1 (n) having a predetermined radius around the estimated position PRe (n-1). FIG. 4 illustrates a state where the representative points P1 (n) and P2 (n) of the target echo images 121 and 122 are included in the selection area S1. The selecting unit 13 outputs the coordinate data 208 to the associating unit 14 for each of the representative points P1 (n) and P2 (n).

関連付け部14は、推定位置PRe(n−1)と、nスキャン時点における追尾物標140の代表点PR(n)と、を関連付ける処理を行う。本実施形態では、関連付け部14は、選別領域S1(n)内の代表点P1(n),P2(n)のそれぞれについて、追尾物標140の代表点PR(n)に該当する尤度Lh100,Lh200を算出する。関連付け部14は、この尤度Lh100,Lh200に基づいて、nスキャン時点における追尾物標140代表点PR(n)を特定する。   The associating unit 14 performs a process of associating the estimated position PRe (n−1) with the representative point PR (n) of the tracking target 140 at the time of n scanning. In the present embodiment, the associating unit 14 sets the likelihood Lh100 corresponding to the representative point PR (n) of the tracking target 140 for each of the representative points P1 (n) and P2 (n) in the selection region S1 (n). , Lh200 is calculated. The associating unit 14 specifies the tracking target 140 representative point PR (n) at the n-scan time point based on the likelihoods Lh100 and Lh200.

関連付け部14は、関数更新部21と、尤度算出部22と、尤度比較部23と、を有している。   The associating unit 14 includes a function updating unit 21, a likelihood calculating unit 22, and a likelihood comparing unit 23.

関数更新部21は、関連付け処理に用いる関数を更新するように構成されている。この関数として、本実施形態では、確率密度関数(ガウス関数、正規分布関数)が用いられる。本実施形態において、確率密度関数は、平均、及び分散を有する関数である。本実施形態では、確率密度関数は、過去の追尾結果を基に更新される。   The function update unit 21 is configured to update a function used for the association process. In this embodiment, a probability density function (Gauss function, normal distribution function) is used as this function. In the present embodiment, the probability density function is a function having an average and a variance. In the present embodiment, the probability density function is updated based on past tracking results.

本実施形態では、確率密度関数に用いられる特徴情報として、代表点PR(n)の位置情報と、追尾物標140についての面積arの情報と、追尾物標140についてのエコーレベルecの情報と、追尾物標140についての隣接距離adの情報と、追尾物標140につてのドップラーシフト量dsの情報と、が挙げられる。本実施形態では、1つの確率密度関数pdfが設定されている。   In the present embodiment, as the feature information used for the probability density function, the position information of the representative point PR (n), the area ar information about the tracking target 140, and the echo level ec information about the tracking target 140, Information on the adjacent distance ad for the tracking target 140 and information on the Doppler shift amount ds for the tracking target 140 are included. In the present embodiment, one probability density function pdf is set.

確率密度関数pdfは、代表点PRの位置の次元の関数f1と、面積arの次元の関数f2と、エコーレベルecの次元の関数f3と、隣接距離adの次元の関数f4と、ドップラーシフト量dsの次元の関数f5と、によって特定される関数である。関数f1〜f5は、それぞれ、確率密度関数であり、確率密度関数pdfは、多次元の確率密度関数である。関数更新部21は、関数f1〜f5を更新することで、確率密度関数pdfを更新する。尚、以下では、各上記関数f1〜f5を総称していう場合に、単に関数fという場合がある。   The probability density function pdf includes a function f1 of the dimension of the representative point PR, a function f2 of the area ar, a function f3 of the echo level ec, a function f4 of the adjacent distance ad, and a Doppler shift amount. It is a function specified by the function f5 of the dimension of ds. Each of the functions f1 to f5 is a probability density function, and the probability density function pdf is a multidimensional probability density function. The function updating unit 21 updates the probability density function pdf by updating the functions f1 to f5. In the following description, the functions f1 to f5 may be simply referred to as a function f when collectively referred to.

以下では、関数更新部21における、確率密度関数pdfを更新する処理の流れの一例を説明する。図5は、関数更新部21における、確率密度関数pdfの更新についての処理の流れの一例を説明するためのフローチャートである。追尾処理装置3は、以下に示すフローチャートの各ステップを、図示しないメモリから読み出して実行する。このプログラムは、外部からインストールできる。このインストールされるプログラムは、例えば記録媒体に格納された状態で流通する。追尾処理装置3での処理は、各スキャン時点毎に行われる。また、本実施形態では、フローチャートについて説明する場合には、フローチャート以外の図面についても、適宜参照する。   Below, an example of the flow of the process which updates the probability density function pdf in the function update part 21 is demonstrated. FIG. 5 is a flowchart for explaining an example of a processing flow for updating the probability density function pdf in the function updating unit 21. The tracking processing device 3 reads and executes each step of the flowchart shown below from a memory (not shown). This program can be installed externally. The installed program is distributed in a state stored in a recording medium, for example. The processing in the tracking processing device 3 is performed at each scanning time point. In the present embodiment, when a flowchart is described, the drawings other than the flowchart are also referred to as appropriate.

本実施形態では、関数更新部21は、最尤推定処理を行う。具体的には、図5に示すように、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。関数更新部21は、例えば、まず、代表点PRの位置情報を選択する。即ち、関数更新部21は、代表点PRの位置に関する関数f1を更新する。   In the present embodiment, the function update unit 21 performs maximum likelihood estimation processing. Specifically, as illustrated in FIG. 5, the function update unit 21 selects feature information for updating the probability density function pdf (step S101). For example, the function updating unit 21 first selects position information of the representative point PR. That is, the function update unit 21 updates the function f1 related to the position of the representative point PR.

図6は、代表点PRについて、関数更新部21で更新される関数f1の一例を示すグラフ図である。関数f1は、平均μ11,μ12、及び分散σ11,σ12を有している。本実施形態において、平均は、各関数fにおける推定値に相当する。即ち、本実施形態の各関数fにおいて、平均の値として用いられる値は、対応する特徴情報について、尤度Lhが算出される前に予め推定された値である。図6のグラフのx軸は、x座標を示しており、y軸は、y座標を示している。また、図6のグラフの縦軸(z軸)は、尤度Lhを示している。 FIG. 6 is a graph showing an example of the function f1 updated by the function update unit 21 for the representative point PR. The function f1 has mean μ11 and μ12 and variances σ11 2 and σ12 2 . In the present embodiment, the average corresponds to an estimated value in each function f. That is, in each function f of the present embodiment, the value used as the average value is a value estimated in advance before the likelihood Lh is calculated for the corresponding feature information. The x axis in the graph of FIG. 6 indicates the x coordinate, and the y axis indicates the y coordinate. In addition, the vertical axis (z axis) of the graph of FIG. 6 indicates the likelihood Lh.

関数更新部21は、関数f1における平均μ11,μ12を算出する(ステップS102)。具体的には、関数更新部21は、追尾物標140の代表点PR(n−1)について、x座標の平均μ11、及びy座標の平均μ12を算出する。   The function updater 21 calculates the averages μ11 and μ12 in the function f1 (step S102). Specifically, the function updating unit 21 calculates the average μ11 of the x coordinate and the average μ12 of the y coordinate for the representative point PR (n−1) of the tracking target 140.

本実施形態では、平均μ11は、下記式(1)によって算出される。

Figure 0006084810

尚、Δdxは、任意のiスキャン時点における、代表点PR(i)のx座標の予測誤差である。より具体的には、Δdxは、iスキャン時点における、代表点PR(i)のx座標の(観測値−予測値)である。この場合の観測値とは、iスキャン時点でエコー検出部10によって検出された、代表点PR(i)のx座標である。また、予測値とは、(i−1)スキャン時点において運動推定部16で予測された、代表点PR(i)のx座標である。したがって、平均μ11は、(n−T)スキャン時点から(n−1)スキャン時点までの各スキャン時点における、代表点PRのx座標の予測誤差を平均した値である。 In the present embodiment, the average μ11 is calculated by the following formula (1).
Figure 0006084810

Δdx i is a prediction error of the x coordinate of the representative point PR (i) at an arbitrary i scan time. More specifically, Δdx i is (observed value−predicted value) of the x coordinate of the representative point PR (i) at the time of i scan. The observed value in this case is the x coordinate of the representative point PR (i) detected by the echo detector 10 at the time of i scan. The predicted value is the x coordinate of the representative point PR (i) predicted by the motion estimation unit 16 at (i-1) scan time. Therefore, the average μ11 is a value obtained by averaging the prediction errors of the x coordinate of the representative point PR at each scan time from the (n−T) scan time to the (n−1) scan time.

平均μ12は、平均μ11と同様にして算出される。即ち、平均μ12は、(n−T)スキャン時点から(n−1)スキャン時点までの各スキャン時点における、代表点PRのy座標の予測誤差を平均した値である。   The average μ12 is calculated in the same manner as the average μ11. That is, the average μ12 is a value obtained by averaging the prediction errors of the y coordinate of the representative point PR at each scan time from the (n−T) scan time to the (n−1) scan time.

次に、関数更新部21は、関数f1の分散σ11,σ12を算出する(ステップS103)。即ち、関数更新部21は、関数f1のx軸方向についての分散σ11と、y軸方向についての分散σ12と、を算出する。 Next, the function updater 21 calculates variances σ11 2 and σ12 2 of the function f1 (step S103). That is, the function update unit 21 calculates the variance σ11 2 in the x-axis direction and the variance σ12 2 in the y-axis direction of the function f1.

本実施形態では、分散σ11は、下記式(2)によって算出される。

Figure 0006084810
In the present embodiment, dispersion Shiguma11 2 is calculated by the following equation (2).
Figure 0006084810

分散σ12は、平均μ11と同様にして算出される。即ち、分散σ12は、式(2)のΔdxをΔdyに置き換え、且つ、μ11をμ12に置き換えた式によって算出される。このように、関数更新部21は、平均μ11,μ12、及び分散σ11,σ12を算出する。関数更新部21は、平均μ11,μ12、及び分散σ11,σ12を算出することで、関数f1を更新する。 Distributed Shiguma12 2 is calculated in the same manner as the average Myu11. That is, the dispersion Shiguma12 2 replaces the Derutadx i of formula (2) in Derutady i, and is calculated by the equation obtained by replacing the μ11 to Myu12. As described above, the function update unit 21 calculates the averages μ11 and μ12 and the variances σ11 2 and σ12 2 . The function updating unit 21 updates the function f1 by calculating the averages μ11 and μ12 and the variances σ11 2 and σ12 2 .

次に、関数更新部21は、関数f1〜f5の全てが更新されたか否かを判定する(ステップS104)。この場合、関数f2,f3,f4f,f5は、未だ更新されていない(ステップS104でNO)。よって、関数更新部21は、ステップS101〜S104の処理を繰り返す。   Next, the function update unit 21 determines whether all of the functions f1 to f5 have been updated (step S104). In this case, the functions f2, f3, f4f, and f5 have not been updated yet (NO in step S104). Therefore, the function update unit 21 repeats the processes of steps S101 to S104.

具体的には、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。この場合、関数更新部21は、例えば、特徴情報として、面積arの情報を選択する。即ち、関数更新部21は、関数f2を更新する。   Specifically, the function updating unit 21 selects feature information for updating the probability density function pdf (step S101). In this case, for example, the function updating unit 21 selects the area ar information as the feature information. That is, the function update unit 21 updates the function f2.

図7は、nスキャン時点における追尾物標140の面積arについて、関数更新部21で更新される関数f2の一例を示すグラフ図である。図7に示すように、関数f2は、平均μ2、分散σ2を有している。図7のグラフの横軸は、面積arを示している。図7のグラフの縦軸は、尤度Lhを示している。 FIG. 7 is a graph showing an example of the function f2 updated by the function updating unit 21 with respect to the area ar of the tracking target 140 at the n-scan time point. As shown in FIG. 7, the function f2 has an average .mu.2, variance .sigma. @ 2 2. The horizontal axis of the graph in FIG. 7 indicates the area ar. The vertical axis of the graph in FIG. 7 indicates the likelihood Lh.

関数更新部21は、関数f2における平均μ2を算出する(ステップS102)。平均μ2は、関数更新部21によって、例えば、以下のようにして算出される。即ち、関数更新部21は、まず、特徴情報メモリ12を参照する。これにより、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの各スキャン時点について、追尾物標140として設定された物標131における面積arのデータ207を参照する。そして、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの間における、上記面積arの平均値を算出する。関数更新部21は、この平均値を、平均μ2として設定する。尚、関数更新部21は、(n−1)スキャン時点での物標131についての面積arを、平均μ2として設定してもよい。   The function updating unit 21 calculates the average μ2 in the function f2 (Step S102). The average μ2 is calculated by the function updating unit 21 as follows, for example. That is, the function update unit 21 first refers to the feature information memory 12. As a result, the function updating unit 21 obtains the data 207 of the area ar in the target 131 set as the tracking target 140 for each scan time from the (n-1) scan time to the (n-T) scan time. refer. Then, the function updating unit 21 calculates the average value of the area ar from the (n−1) scan time to the (n−T) scan time. The function updating unit 21 sets this average value as an average μ2. The function updating unit 21 may set the area ar of the target 131 at the time of (n−1) scanning as an average μ2.

次に、関数更新部21は、関数f2の分散σ2を算出する(ステップS103)。関数更新部21は、例えば、最尤推定処理を行う。これにより、関数更新部21は、関数f2の分散σ2を算出する。このように、関数更新部21は、平均μ2及び分散σ2を算出することで、関数f2を更新する。 Next, the function updating unit 21 calculates the variance .sigma. @ 2 2 function f2 (step S103). The function update unit 21 performs, for example, maximum likelihood estimation processing. Thus, the function updating unit 21 calculates the variance .sigma. @ 2 2 functions f2. Thus, the function update unit 21, by calculating the average μ2 and variance .sigma. @ 2 2, and updates the function f2.

次に、関数更新部21は、関数f1〜f5の全てが更新されたか否かを判定する(ステップS104)。この場合、関数f3,f4,f5は、未だ更新されていない(ステップS104でNO)。よって、関数更新部21は、ステップS101〜S104の処理を繰り返す。   Next, the function update unit 21 determines whether all of the functions f1 to f5 have been updated (step S104). In this case, the functions f3, f4, and f5 have not been updated yet (NO in step S104). Therefore, the function update unit 21 repeats the processes of steps S101 to S104.

具体的には、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。この場合、関数更新部21は、例えば、特徴情報として、エコーレベルecを選択する。即ち、関数更新部21は、関数f3を更新する。尚、関数f3は、図示していないけれども、関数f2と同様の形状となる。   Specifically, the function updating unit 21 selects feature information for updating the probability density function pdf (step S101). In this case, for example, the function update unit 21 selects the echo level ec as the feature information. That is, the function update unit 21 updates the function f3. The function f3 has the same shape as the function f2, although not shown.

関数更新部21は、関数f3における平均μ3を算出する(ステップS102)。この場合のエコーレベルecの平均μ3は、関数更新部21によって、例えば、以下のようにして算出される。即ち、関数更新部21は、まず、特徴情報メモリ12を参照する。これにより、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの各スキャン時点について、追尾物標140として特定された部物標131のエコーレベルecのデータ209を参照する。そして、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの間における、上記エコーレベルecの平均値を算出する。関数更新部21は、この平均値を、平均μ3として設定する。尚、関数更新部21は、(n−1)スキャン時点での物標131についてのエコーレベルecを、平均μ3として設定してもよい。   The function updating unit 21 calculates the average μ3 in the function f3 (Step S102). The average μ3 of the echo level ec in this case is calculated by the function updating unit 21 as follows, for example. That is, the function update unit 21 first refers to the feature information memory 12. As a result, the function update unit 21 stores the echo level ec data of the target 131 identified as the tracking target 140 for each scan time from the (n-1) scan time to the (n-T) scan time. 209 is referred to. Then, the function updating unit 21 calculates the average value of the echo level ec from the (n−1) scan time to the (n−T) scan time. The function updating unit 21 sets this average value as an average μ3. The function updating unit 21 may set the echo level ec for the target 131 at the time of (n−1) scanning as an average μ3.

次に、関数更新部21は、関数f3の分散σ3を算出する(ステップS103)。関数更新部21は、例えば、最尤推定処理を行う。これにより、関数更新部21は、関数f3の分散σ3を算出する。このように、関数更新部21は、平均μ3及び分散σ3を算出することで、関数f3を更新する。 Next, the function updating unit 21 calculates the variance .sigma.3 2 function f3 (step S103). The function update unit 21 performs, for example, maximum likelihood estimation processing. Thus, the function updating unit 21 calculates the variance .sigma.3 2 functions f3. Thus, the function update unit 21, by calculating the average μ3 and variance .sigma.3 2, to update the function f3.

次に、関数更新部21は、関数f1〜f5の全てが更新されたか否かを判定する(ステップS104)。この場合、関数f4,f5は、未だ設定されていない(ステップS104でNO)。よって、関数更新部21は、ステップS101〜S104の処理を繰り返す。   Next, the function update unit 21 determines whether all of the functions f1 to f5 have been updated (step S104). In this case, the functions f4 and f5 are not yet set (NO in step S104). Therefore, the function update unit 21 repeats the processes of steps S101 to S104.

具体的には、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。この場合、関数更新部21は、例えば、特徴情報として、隣接距離adを選択する。即ち、関数更新部21は、関数f4を設定する。尚、関数f4は、図示していないけれども、関数f2と同様の形状となる。   Specifically, the function updating unit 21 selects feature information for updating the probability density function pdf (step S101). In this case, for example, the function updating unit 21 selects the adjacent distance ad as the feature information. That is, the function update unit 21 sets the function f4. The function f4 has the same shape as the function f2, although not shown.

関数更新部21は、関数f4における平均μ4を算出する(ステップS102)。平均μ4は、関数更新部21によって、例えば、以下のようにして算出される。即ち、関数更新部21は、まず、特徴情報メモリ12を参照する。これにより、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの各スキャン時点について、追尾物標140として特定された物標131についての隣接距離adのデータ210を参照する。そして、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの間における、上記隣接距離adの平均値を算出する。関数更新部21は、この平均値を、平均μ4として設定する。尚、関数更新部21は、(n−1)スキャン時点での物標131についての上記隣接距離adを、平均μ4として設定してもよい。   The function updating unit 21 calculates the average μ4 in the function f4 (Step S102). The average μ4 is calculated by the function updating unit 21 as follows, for example. That is, the function update unit 21 first refers to the feature information memory 12. Thereby, the function updating unit 21 sets the data of the adjacent distance ad for the target 131 identified as the tracking target 140 for each scan time point from the (n-1) scan time point to the (n-T) scan time point. 210 is referred to. Then, the function updating unit 21 calculates the average value of the adjacent distances ad from the (n−1) scan time to the (n−T) scan time. The function updating unit 21 sets this average value as an average μ4. The function updating unit 21 may set the adjacent distance ad for the target 131 at the time of (n−1) scanning as an average μ4.

次に、関数更新部21は、関数f4の分散σ4を算出する(ステップS103)。関数更新部21は、例えば、最尤推定処理を行う。これにより、関数更新部21は、関数f4の分散σ4を算出する。このように、関数更新部21は、平均μ4及び分散σ4を算出することで、関数f4を更新する。 Next, the function updating unit 21 calculates the variance? 4 2 function f4 (step S103). The function update unit 21 performs, for example, maximum likelihood estimation processing. Thus, the function updating unit 21 calculates the variance? 4 2 functions f4. Thus, the function update unit 21, by calculating the average μ4 and variance? 4 2, and updates the function f4.

次に、関数更新部21は、関数f1〜f5の全てが設定されたか否かを判定する(ステップS104)。この場合、関数f5は、未だ更新されていない(ステップS104でNO)。よって、関数更新部21は、ステップS101〜S104の処理を繰り返す。   Next, the function updater 21 determines whether or not all the functions f1 to f5 have been set (step S104). In this case, the function f5 has not been updated yet (NO in step S104). Therefore, the function update unit 21 repeats the processes of steps S101 to S104.

具体的には、関数更新部21は、確率密度関数pdfを更新するための特徴情報を選択する(ステップS101)。この場合、関数更新部21は、例えば、特徴情報として、ドップラーシフト量dsを更新する。即ち、関数更新部21は、関数f5を更新する。尚、関数f5については、図示していないけれども、関数f2と同様となる。   Specifically, the function updating unit 21 selects feature information for updating the probability density function pdf (step S101). In this case, for example, the function update unit 21 updates the Doppler shift amount ds as the feature information. That is, the function update unit 21 updates the function f5. The function f5 is the same as the function f2 although not shown.

関数更新部21は、関数f5における平均μ5を算出する(ステップS102)。この場合の隣接距離adの平均μ5は、関数更新部21によって、例えば、以下のようにして算出される。即ち、関数更新部21は、まず、特徴情報メモリ12を参照する。これにより、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの各スキャン時点について、追尾物標140として特定された物標131についてのドップラーシフト量dsのデータ211を参照する。そして、関数更新部21は、(n−1)スキャン時点から、(n−T)スキャン時点までの間における、上記ドップラーシフト量dsの平均値を算出する。関数更新部21は、この平均値を、平均μ5として設定する。尚、関数更新部21は、(n−1)スキャン時点での物標131についての上記ドップラーシフト量dsを、平均μ5として設定してもよい。   The function updating unit 21 calculates the average μ5 in the function f5 (Step S102). In this case, the average μ5 of the adjacent distance ad is calculated by the function updating unit 21 as follows, for example. That is, the function update unit 21 first refers to the feature information memory 12. Thereby, the function updating unit 21 sets the Doppler shift amount ds for the target 131 identified as the tracking target 140 for each scan time point from the (n-1) scan time point to the (n-T) scan time point. Refer to the data 211. Then, the function updating unit 21 calculates the average value of the Doppler shift amount ds from the (n−1) scan time to the (n−T) scan time. The function updating unit 21 sets this average value as an average μ5. The function updating unit 21 may set the Doppler shift amount ds for the target 131 at the time of (n−1) scanning as an average μ5.

次に、関数更新部21は、関数f5の分散σ5を算出する(ステップS103)。関数更新部21は、例えば、最尤推定処理を行う。これにより、関数更新部21は、関数f5の分散σ5を算出する。このように、関数更新部21は、平均μ5及び分散σ5を算出することで、関数f5を更新する。 Next, the function updating unit 21 calculates the variance Shiguma5 2 function f5 (step S103). The function update unit 21 performs, for example, maximum likelihood estimation processing. Thus, the function updating unit 21 calculates the variance Shiguma5 2 function f5. Thus, the function update unit 21, by calculating the average μ5 and variance Shiguma5 2, to update the function f5.

次に、関数更新部21は、関数f1〜f5の全てが更新されたか否かを判定する(ステップS104)。この場合、関数f1〜f5の全てが更新されている(ステップS104でYES)。よって、関数更新部21は、関数f1〜f5によって特定される確率密度関数pdfのデータを、尤度算出部22へ出力し(ステップS105)、処理を終了する。上記の構成により、関数f1〜f5は、それぞれ、独立して更新される。また、関数f1〜f5は、それぞれ、固定された関数ではなく、各スキャン時点毎に変化する関数である。   Next, the function update unit 21 determines whether all of the functions f1 to f5 have been updated (step S104). In this case, all the functions f1 to f5 are updated (YES in step S104). Therefore, the function updating unit 21 outputs the data of the probability density function pdf specified by the functions f1 to f5 to the likelihood calculating unit 22 (Step S105), and ends the process. With the above configuration, the functions f1 to f5 are updated independently. The functions f1 to f5 are not fixed functions, but are functions that change at each scanning time point.

尤度算出部22及び尤度比較部23は、設定された確率密度関数pdfを基に、選別領域S1(n)内の物標131,132の何れが追尾物標140であるかの判定処理を行う。以下では、尤度算出部22及び尤度比較部23における処理の流れの一例を説明する。図8は、尤度算出部22及び尤度比較部23における処理の流れの一例を説明するためのフローチャートである。   The likelihood calculating unit 22 and the likelihood comparing unit 23 determine which of the targets 131 and 132 in the selection area S1 (n) is the tracking target 140 based on the set probability density function pdf. I do. Below, an example of the flow of the process in the likelihood calculation part 22 and the likelihood comparison part 23 is demonstrated. FIG. 8 is a flowchart for explaining an example of a processing flow in the likelihood calculating unit 22 and the likelihood comparing unit 23.

図8に示すフローチャートでは、尤度算出部22は、選別領域S1(n)の物標131,132毎に、追尾物標140に該当する尤度としての総合尤度Lh100,200を算出する。総合尤度Lh100は、後述する尤度Lh11,Lh12,Lh13,Lh14,Lh15の積である。総合尤度Lh200は、後述する尤度Lh21,Lh22,Lh23,Lh24,Lh25の積である。尤度比較部23は、総合尤度Lh100,200に基づいて、物標131,132のなかから、追尾物標140を特定する。   In the flowchart illustrated in FIG. 8, the likelihood calculating unit 22 calculates the total likelihood Lh100 and 200 as the likelihood corresponding to the tracking target 140 for each target 131 and 132 in the selection region S1 (n). The overall likelihood Lh100 is a product of likelihoods Lh11, Lh12, Lh13, Lh14, and Lh15 described later. The overall likelihood Lh200 is a product of likelihoods Lh21, Lh22, Lh23, Lh24, and Lh25 described later. The likelihood comparison unit 23 identifies the tracking target 140 from the targets 131 and 132 based on the total likelihood Lh100 and 200.

具体的には、尤度算出部22は、まず、尤度算出が行われる物標130を選択する(ステップS201)。本実施形態では、尤度算出部22は、選別領域S1(n)内の物標130(131,132)のうちの、物標131を選択する。次に、尤度算出部22は、確率密度関数pdfの関数f1〜f5のなかから1つを選択する(ステップS202)。   Specifically, the likelihood calculating unit 22 first selects the target 130 on which the likelihood calculation is performed (step S201). In the present embodiment, the likelihood calculating unit 22 selects the target 131 among the targets 130 (131, 132) in the selection area S1 (n). Next, the likelihood calculating unit 22 selects one of the functions f1 to f5 of the probability density function pdf (step S202).

この場合、尤度算出部22は、まず、関数f1を選択する。次に、尤度算出部22は、物標131の代表点P1(n)について、尤度Lh11を算出する(ステップS203)。具体的には、尤度算出部22は、関数f1のデータと、物標131の代表点P1(n)の座標データ208と、を参照する。そして、(n−1)スキャン時点で推定された、代表点PR(n)の予測値のx座標と、代表点P1(n)のx座標との差を、独立変数として、関数f1(図6参照)のx座標に代入する。また、(n−1)スキャン時点で推定された、代表点PR(n)の予測値のy座標と、代表点P1(n)のy座標との差を、独立変数として、関数f1(図6参照)のy座標に代入する。これにより、関数f1における従属変数が、尤度Lh11として算出される。即ち、物標131の代表点P1(n)について、追尾物標140の代表点PR(n)に該当する尤度Lh11が、算出される。   In this case, the likelihood calculating unit 22 first selects the function f1. Next, the likelihood calculating unit 22 calculates the likelihood Lh11 for the representative point P1 (n) of the target 131 (step S203). Specifically, the likelihood calculating unit 22 refers to the data of the function f1 and the coordinate data 208 of the representative point P1 (n) of the target 131. Then, the difference between the x coordinate of the predicted value of the representative point PR (n) estimated at the time of (n-1) scanning and the x coordinate of the representative point P1 (n) is used as an independent variable, and the function f1 (FIG. 6)). Also, the difference between the y coordinate of the predicted value of the representative point PR (n) estimated at the time of (n-1) scanning and the y coordinate of the representative point P1 (n) is used as an independent variable, and the function f1 (FIG. 6)). As a result, the dependent variable in the function f1 is calculated as the likelihood Lh11. That is, the likelihood Lh11 corresponding to the representative point PR (n) of the tracking target 140 is calculated for the representative point P1 (n) of the target 131.

次に、尤度算出部22は、物標131に関する尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh12〜Lh15は、未だ算出されていない(ステップS204でNO)。よって、尤度算出部22は、ステップS202〜S204の処理を繰り返す。   Next, the likelihood calculating unit 22 determines whether all the likelihoods Lh11 to Lh15 related to the target 131 have been calculated (step S204). In this case, the likelihoods Lh12 to Lh15 have not been calculated yet (NO in step S204). Therefore, the likelihood calculating unit 22 repeats the processes of steps S202 to S204.

具体的には、尤度算出部22は、確率密度関数pdfの関数f1〜f5のなかから1つを選択する(ステップS202)。   Specifically, the likelihood calculating unit 22 selects one from the functions f1 to f5 of the probability density function pdf (step S202).

この場合、尤度算出部22は、関数f2を選択する。次に、尤度算出部22は、物標131の面積arについて、追尾物標140の面積arに該当する尤度としての尤度Lh12を算出する(ステップS203)。具体的には、尤度算出部22は、関数f2のデータと、物標131の面積arのデータ207と、を参照する。そして、尤度算出部22は、nスキャン時点における物標131の面積arを、独立変数として、関数f2に代入する。これにより、関数f2における従属変数が、尤度Lh12として算出される。即ち、物標131のエコーレベルecについての尤度Lh12が、算出される。   In this case, the likelihood calculating unit 22 selects the function f2. Next, the likelihood calculating unit 22 calculates the likelihood Lh12 as the likelihood corresponding to the area ar of the tracking target 140 for the area ar of the target 131 (step S203). Specifically, the likelihood calculating unit 22 refers to the data of the function f2 and the data 207 of the area ar of the target 131. Then, the likelihood calculating unit 22 substitutes the area ar of the target 131 at the time of n scanning as an independent variable into the function f2. Thereby, the dependent variable in the function f2 is calculated as the likelihood Lh12. That is, the likelihood Lh12 for the echo level ec of the target 131 is calculated.

次に、尤度算出部22は、物標131に関する尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh13〜Lh15は、未だ算出されていない(ステップS204でNO)。よって、尤度算出部22は、ステップS202〜S204の処理を繰り返す。   Next, the likelihood calculating unit 22 determines whether all the likelihoods Lh11 to Lh15 related to the target 131 have been calculated (step S204). In this case, the likelihoods Lh13 to Lh15 have not been calculated yet (NO in step S204). Therefore, the likelihood calculating unit 22 repeats the processes of steps S202 to S204.

具体的には、尤度算出部22は、関数f3〜f5のなかから1つを選択する(ステップS202)。   Specifically, the likelihood calculating unit 22 selects one from the functions f3 to f5 (step S202).

この場合、尤度算出部22は、関数f3を選択する。次に、尤度算出部22は、物標131のエコーレベルecについて、追尾物標140のエコーレベルecに該当する尤度としての尤度Lh13を算出する(ステップS203)。具体的には、尤度算出部22は、関数f3のデータと、物標131のエコーレベルecのデータ209と、を参照する。そして、尤度算出部22は、nスキャン時点における物標131についてのエコーレベルecを、独立変数として、関数f3に代入する。これにより、関数f3における従属変数が、尤度Lh13として算出される。即ち、物標131についてのエコーレベルecの尤度Lh13が、算出される。   In this case, the likelihood calculating unit 22 selects the function f3. Next, the likelihood calculating unit 22 calculates the likelihood Lh13 as the likelihood corresponding to the echo level ec of the tracking target 140 for the echo level ec of the target 131 (step S203). Specifically, the likelihood calculating unit 22 refers to the data of the function f3 and the data 209 of the echo level ec of the target 131. Then, the likelihood calculating unit 22 substitutes the echo level ec for the target 131 at the n-scan time point into the function f3 as an independent variable. Thereby, the dependent variable in the function f3 is calculated as the likelihood Lh13. That is, the likelihood Lh13 of the echo level ec for the target 131 is calculated.

次に、尤度算出部22は、物標131に関する尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh14〜Lh15は、未だ算出されていない(ステップS204でNO)。よって、尤度算出部22は、ステップS202〜S204の処理を繰り返す。   Next, the likelihood calculating unit 22 determines whether all the likelihoods Lh11 to Lh15 related to the target 131 have been calculated (step S204). In this case, the likelihoods Lh14 to Lh15 have not been calculated yet (NO in step S204). Therefore, the likelihood calculating unit 22 repeats the processes of steps S202 to S204.

具体的には、尤度算出部22は、関数f4,f5のなかから1つを選択する(ステップS202)。   Specifically, the likelihood calculating unit 22 selects one from the functions f4 and f5 (step S202).

この場合、尤度算出部22は、関数f4を選択する。次に、尤度算出部22は、隣接距離adについて、追尾物標140の隣接距離adに該当する尤度としての尤度Lh14を算出する(ステップS203)。具体的には、尤度算出部22は、関数f4のデータと、物標131についての隣接距離adのデータ210と、を参照する。そして、尤度算出部22は、nスキャン時点における物標131についての隣接距離adを、独立変数として、関数f4に代入する。これにより、関数f4における従属変数が、尤度Lh14として算出される。即ち、物標131における隣接距離adについて、尤度Lh14が、算出される。   In this case, the likelihood calculating unit 22 selects the function f4. Next, the likelihood calculating unit 22 calculates the likelihood Lh14 as the likelihood corresponding to the adjacent distance ad of the tracking target 140 for the adjacent distance ad (step S203). Specifically, the likelihood calculating unit 22 refers to the data of the function f4 and the data 210 of the adjacent distance ad for the target 131. Then, the likelihood calculating unit 22 substitutes the adjacent distance ad with respect to the target 131 at the time of n scans into the function f4 as an independent variable. Thereby, the dependent variable in the function f4 is calculated as the likelihood Lh14. That is, the likelihood Lh14 is calculated for the adjacent distance ad in the target 131.

次に、尤度算出部22は、物標131に関する尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh15は、算出されていない(ステップS204でNO)。よって、尤度算出部22は、ステップS202〜S204の処理を繰り返す。   Next, the likelihood calculating unit 22 determines whether all the likelihoods Lh11 to Lh15 related to the target 131 have been calculated (step S204). In this case, the likelihood Lh15 is not calculated (NO in step S204). Therefore, the likelihood calculating unit 22 repeats the processes of steps S202 to S204.

具体的には、尤度算出部22は、関数f5を選択する(ステップS202)。   Specifically, the likelihood calculating unit 22 selects the function f5 (step S202).

次に、尤度算出部22は、ドップラーシフト量dsについて、追尾物標140のドップラーシフト量dsに該当する尤度としての尤度Lh15を算出する(ステップS203)。具体的には、尤度算出部22は、関数f5のデータと、物標131のドップラーシフト量dsのデータ211と、を参照する。そして、尤度算出部22は、ドップラーシフト量dsを、独立変数として、関数f5に代入する。これにより、関数f5における従属変数が、尤度Lh15として算出される。即ち、物標131についてのドップラーシフト量dsの尤度Lh15が、算出される。   Next, the likelihood calculating unit 22 calculates the likelihood Lh15 as the likelihood corresponding to the Doppler shift amount ds of the tracking target 140 for the Doppler shift amount ds (step S203). Specifically, the likelihood calculating unit 22 refers to the data of the function f5 and the data 211 of the Doppler shift amount ds of the target 131. Then, the likelihood calculating unit 22 assigns the Doppler shift amount ds as an independent variable to the function f5. As a result, the dependent variable in the function f5 is calculated as the likelihood Lh15. That is, the likelihood Lh15 of the Doppler shift amount ds for the target 131 is calculated.

尚、図8に示すフローチャートでは、尤度算出部22は、各上記尤度Lh(Lh11〜Lh15)を、個別に算出している。しかしながら、尤度算出部22は、行列計算により、各上記尤度Lh(Lh11〜Lh15)を一括して算出してもよい。   In the flowchart shown in FIG. 8, the likelihood calculating unit 22 calculates each of the likelihoods Lh (Lh11 to Lh15) individually. However, the likelihood calculating unit 22 may collectively calculate the likelihoods Lh (Lh11 to Lh15) by matrix calculation.

次に、尤度算出部22は、尤度Lh11〜Lh15の全てが算出されたか否かを判定する(ステップS204)。この場合、尤度Lh11〜Lh15が算出されている(ステップS204でYES)。よって、尤度算出部22は、物標131についての総合尤度Lh=尤度Lh11×Lh12×尤度Lh13×h14×Lh15を、算出する(ステップS205)。   Next, the likelihood calculating unit 22 determines whether all of the likelihoods Lh11 to Lh15 have been calculated (step S204). In this case, likelihoods Lh11 to Lh15 are calculated (YES in step S204). Therefore, the likelihood calculating unit 22 calculates the total likelihood Lh = likelihood Lh11 × Lh12 × likelihood Lh13 × h14 × Lh15 for the target 131 (step S205).

次に、尤度算出部22は、選別領域S1(n)内の全ての物標130(131,132)について、総合尤度が算出されているか否かを判定する(ステップS206)。この場合、物標132についての総合尤度Lh200は、算出されていない(ステップS206でNO)。   Next, the likelihood calculating unit 22 determines whether or not the total likelihood is calculated for all the targets 130 (131, 132) in the selection region S1 (n) (step S206). In this case, the total likelihood Lh200 for the target 132 is not calculated (NO in step S206).

したがって、尤度算出部22は、ステップS201〜S205の処理を繰り返す。即ち、尤度算出部22は、物標131についての尤度Lh11,Lh12,Lh13,Lh14,Lh15の算出処理と同様の処理を行う。これにより、尤度算出部22は、物標132についての尤度Lh21,Lh22,Lh23,Lh24,Lh25を算出する。尚、尤度Lh21,Lh22,Lh23,Lh24,Lh25は、それぞれ、尤度Lh11,Lh12,Lh13,Lh14,Lh15と同様にして算出される。次いで、尤度算出部22は、尤度Lh21,Lh22,Lh23,Lh24,Lh25を乗算することで、総合尤度Lh200を算出する(ステップS205)。   Therefore, the likelihood calculating unit 22 repeats the processes of steps S201 to S205. That is, the likelihood calculating unit 22 performs the same process as the process of calculating the likelihoods Lh11, Lh12, Lh13, Lh14, and Lh15 for the target 131. Accordingly, the likelihood calculating unit 22 calculates the likelihoods Lh21, Lh22, Lh23, Lh24, and Lh25 for the target 132. The likelihoods Lh21, Lh22, Lh23, Lh24, and Lh25 are calculated in the same manner as the likelihoods Lh11, Lh12, Lh13, Lh14, and Lh15, respectively. Next, the likelihood calculating unit 22 calculates the overall likelihood Lh200 by multiplying the likelihoods Lh21, Lh22, Lh23, Lh24, and Lh25 (step S205).

尤度算出部22が、選別領域S1(n)内の全ての物標131,132について、総合尤度Lh100,Lh200を算出した場合(ステップS206でYES)、尤度比較部23は、ステップS207の処理を行う。即ち、尤度比較部23は、総合尤度Lh100,Lh200を用いて、追尾物標140を特定する(ステップS207)。本実施形態では、尤度比較部23は、総合尤度Lh100,Lh200のうち、最も高い値を有する総合尤度Lh100を選択する。   When the likelihood calculating unit 22 calculates the total likelihoods Lh100 and Lh200 for all the targets 131 and 132 in the selection region S1 (n) (YES in step S206), the likelihood comparing unit 23 performs step S207. Perform the process. That is, the likelihood comparison unit 23 specifies the tracking target 140 using the total likelihoods Lh100 and Lh200 (step S207). In the present embodiment, the likelihood comparison unit 23 selects the overall likelihood Lh100 having the highest value among the overall likelihoods Lh100 and Lh200.

本実施形態では、図4に示されているように、物標131に関する物標エコー像121の推定位置PRe(n−1)と、物標エコー像121の代表点P1(n)の位置とは、距離D1だけ離隔している。また、推定位置PRe(n−1)と、物標132に関する物標エコー像122の代表点P2(n)の位置とは、距離D2だけ離隔している。nスキャン時点では、距離D1は、距離D2よりも、わずかに大きい。即ち、図6に示すように、尤度Lh11<Lh21である。   In the present embodiment, as shown in FIG. 4, the estimated position PRe (n−1) of the target echo image 121 related to the target 131 and the position of the representative point P1 (n) of the target echo image 121 Are separated by a distance D1. Further, the estimated position PRe (n−1) and the position of the representative point P2 (n) of the target echo image 122 related to the target 132 are separated by a distance D2. At the time of n scanning, the distance D1 is slightly larger than the distance D2. That is, as shown in FIG. 6, likelihood Lh11 <Lh21.

一方で、図7に示すように、nスキャン時点において、物標131の面積arと、面積arの平均μ2とは、Δar1だけ異なっている。また、nスキャン時点において、物標132の面積arと、面積arの平均μ2とは、Δar2だけ異なっている。Δar1は、Δar2よりも明らかに小さい。即ち、Lh12>Lh22である。   On the other hand, as shown in FIG. 7, the area ar of the target 131 is different from the average μ2 of the area ar by Δar1 at the time of n scanning. Further, at the time of n scanning, the area ar of the target 132 is different from the average μ2 of the area ar by Δar2. Δar1 is clearly smaller than Δar2. That is, Lh12> Lh22.

また、本実施形態では、nスキャン時点において、物標131についての他の特徴情報の尤度と、物標132についての対応する他の特徴情報の尤度とは、略同じである。即ち、物標131についての尤度Lh13,Lh14,Lh15は、それぞれ、物標132についてのLh23,Lh24,Lh25と略同じである。   In this embodiment, the likelihood of the other feature information about the target 131 and the likelihood of the other feature information corresponding to the target 132 are substantially the same at the n scan time point. That is, the likelihoods Lh13, Lh14, and Lh15 for the target 131 are substantially the same as Lh23, Lh24, and Lh25 for the target 132, respectively.

したがって、物標131についての総合尤度Lh100は、物標132についての総合尤度Lh200よりも大きい(Lh100>Lh200)。この場合、尤度比較部23は、物標131を、nスキャン時点における追尾物標140として特定する。   Therefore, the total likelihood Lh100 for the target 131 is larger than the total likelihood Lh200 for the target 132 (Lh100> Lh200). In this case, the likelihood comparison unit 23 specifies the target 131 as the tracking target 140 at the n-scan time point.

図1に示すように、尤度比較部23が追尾物標140を特定した後、面積判定部15は、追尾物標140についての物標エコー像121の面積arを、判定する。これにより、面積判定部15は、物標エコー像121について、他の物標エコー像120との融合、又は、過大なぼやけが生じているか否か、を判定する。   As shown in FIG. 1, after the likelihood comparison unit 23 specifies the tracking target 140, the area determination unit 15 determines the area ar of the target echo image 121 for the tracking target 140. Thereby, the area determination unit 15 determines whether or not the target echo image 121 is fused with another target echo image 120 or excessive blur occurs.

図9は、面積判定部15での処理の流れの一例を説明するためのフローチャートである。面積判定部15は、まず、関数f2のデータを、関数更新部21から読み出す(ステップS301)。面積判定部15は、更に、追尾物標140の物標エコー像121について、nスキャン時点での面積arのデータ207を、特徴情報メモリ12から読み出す(ステップS302)。   FIG. 9 is a flowchart for explaining an example of the processing flow in the area determination unit 15. First, the area determination unit 15 reads the data of the function f2 from the function update unit 21 (step S301). The area determination unit 15 further reads out the data 207 of the area ar at the time of n scans from the feature information memory 12 for the target echo image 121 of the tracking target 140 (step S302).

次に、面積判定部15は、nスキャン時点における、物標エコー像121の面積arが、所定のしきい値より大きいか否かを判定する。この場合のしきい値thは、例えば、(μ2+3×σ2)であり、平均μ2に基づいて設定されている。σ2は、関数f2における標準偏差であり、分散σ2の正の平方根である。物標エコー像121の面積arが、上記所定のしきい値thよりも大きい場合(ステップS303でYES)、面積判定部15は、nスキャン時点での物標エコー像121に、他のエコー像120との融合、又は過大なぼやけが生じていると判定する(ステップS304)。この場合、面積判定部15は、関連付け部14で代表点PR(n)を特定できなかったものとして扱い、代表点PR(n)のデータを、運動推定部16へ出力しないで(ステップS305)、処理を完了する。 Next, the area determination unit 15 determines whether or not the area ar of the target echo image 121 at the n scan time point is larger than a predetermined threshold value. The threshold th in this case is, for example, (μ2 + 3 × σ2), and is set based on the average μ2. .sigma. @ 2 is the standard deviation in the function f2, a positive square root of the variance .sigma. @ 2 2. When the area ar of the target echo image 121 is larger than the predetermined threshold th (YES in step S303), the area determination unit 15 adds another echo image to the target echo image 121 at the time of n scanning. It is determined that fusion with 120 or excessive blur has occurred (step S304). In this case, the area determining unit 15 treats the representative point PR (n) as not being able to be specified by the associating unit 14, and does not output the data of the representative point PR (n) to the motion estimating unit 16 (step S305). , Complete the process.

一方、物標エコー像121の面積arが、所定のしきい値th以下である場合(ステップS303でNO)、面積判定部15は、nスキャン時点での物標エコー像121に、他の物標エコー像120との融合、及び、過大なぼやけの何れも生じていないと判定する(ステップS306)。この場合、面積判定部15は、代表点PR(n)のデータを、運動推定部16へ出力し(ステップS307)、処理を完了する。   On the other hand, when the area ar of the target echo image 121 is equal to or smaller than the predetermined threshold th (NO in step S303), the area determination unit 15 adds another object to the target echo image 121 at the n scan time point. It is determined that neither fusion with the target echo image 120 nor excessive blur has occurred (step S306). In this case, the area determination unit 15 outputs the data of the representative point PR (n) to the motion estimation unit 16 (Step S307) and completes the process.

上記した、(a)物標エコー像121と、他の物標エコー像120との融合、及び(b)物標エコー像121のぼやけについて、以下に説明する。   The above-described (a) fusion of the target echo image 121 and another target echo image 120 and (b) blurring of the target echo image 121 will be described below.

まず、(a)物標エコー像121と、他の物標エコー像120(125)との融合が生じる理由を、図10及び図11等を用いて説明する。図10は、物標エコー像121と、他の物標エコー像125とについて、融合が生じていない場合を説明するための模式図である。図11は、物標エコー像121と、他の物標エコー像125とについて、融合が生じている場合を説明するための模式図である。尚、物標エコー像125によって特定される物標135として、他船、クラッタ等を例示することができる。   First, (a) the reason why the target echo image 121 and another target echo image 120 (125) are fused will be described with reference to FIGS. FIG. 10 is a schematic diagram for explaining the case where the target echo image 121 and the other target echo image 125 are not fused. FIG. 11 is a schematic diagram for explaining a case where fusion occurs between the target echo image 121 and another target echo image 125. As the target 135 specified by the target echo image 125, other ships, clutter, and the like can be exemplified.

図1、図10及び図11を参照しながら説明すると、アンテナユニット2で検出された各物標エコー像120(121,125)の外郭形状は、アンテナユニット2における観測誤差に起因して、ぼんやりした形状となる。即ち、物標エコー像120(121,125)の外郭形状の大きさは、物標130(131,135)の外郭形状の大きさよりも大きくなる。しかしながら、図10に示すように、物標131と、物標135とが十分に離隔している場合、物標エコー像121と、物標エコー像125とは、融合しない。即ち、追尾処理部11は、物標エコー像121と、物標エコー像125とを、別個の物標であると判定する。   Referring to FIGS. 1, 10, and 11, the outline shape of each target echo image 120 (121, 125) detected by the antenna unit 2 is blurred due to an observation error in the antenna unit 2. It becomes the shape. That is, the size of the outline shape of the target echo image 120 (121, 125) is larger than the size of the outline shape of the target 130 (131, 135). However, as shown in FIG. 10, when the target 131 and the target 135 are sufficiently separated, the target echo image 121 and the target echo image 125 are not fused. That is, the tracking processing unit 11 determines that the target echo image 121 and the target echo image 125 are separate targets.

一方、物標131と、物標135との距離が小さい場合、図11に示すように、物標エコー像121の外郭部と、物標エコー像125の外郭部とは、融合してしまう。即ち、物標エコー像121と、物標エコー像125とが融合してしまう。この場合、追尾処理部11は、物標エコー像121と、物標エコー像125とを、1つの物標エコー像であると、誤って判定する。その結果、エコー検出部10は、上記1つの物標エコー像の中心点PF1を、物標エコー像121の代表点として検出してしまう。即ち、エコー検出部10は、中心点PF1を、追尾物標140の代表点PR(n)として検出してしまう。この場合、運動推定部16は、この代表点PF1を用いて追尾フィルタ処理を行うこととなる。その結果、運動推定部16で算出される推定速度ベクトルV1(n)は、実際の速度ベクトルに対する誤差が大きくなってしまう。   On the other hand, when the distance between the target 131 and the target 135 is small, the outline of the target echo image 121 and the outline of the target echo image 125 are merged as shown in FIG. That is, the target echo image 121 and the target echo image 125 are fused. In this case, the tracking processing unit 11 erroneously determines that the target echo image 121 and the target echo image 125 are one target echo image. As a result, the echo detector 10 detects the center point PF1 of the one target echo image as a representative point of the target echo image 121. That is, the echo detector 10 detects the center point PF1 as the representative point PR (n) of the tracking target 140. In this case, the motion estimation unit 16 performs the tracking filter process using the representative point PF1. As a result, the estimated speed vector V1 (n) calculated by the motion estimation unit 16 has a large error with respect to the actual speed vector.

物標エコー像121,125の融合が、nスキャン時点で生じた場合、nスキャン時点での物標エコー像121の面積arは、極端に大きくなる。即ち、追尾物標140についての面積arが、所定のしきい値thを超える。よって、面積判定部15は、この追尾物標の面積arを判定することにより、物標エコー像121と、他の物標エコー像125とが融合しているか否かを判定できる。   When the fusion of the target echo images 121 and 125 occurs at the n scan time point, the area ar of the target echo image 121 at the n scan time point becomes extremely large. That is, the area ar for the tracking target 140 exceeds the predetermined threshold th. Therefore, the area determination unit 15 can determine whether the target echo image 121 and another target echo image 125 are fused by determining the area ar of the tracking target.

次に、上記(b)物標エコー像121に過大なぼやけが生じる理由を、図12等を用いて説明する。図12は、物標エコー像121に過大なぼやけが生じている状態を示す模式図である。図1及び図12を参照しながら説明すると、アンテナユニット2における、アンテナ角度θ方向の分解能等に起因して、物標エコー像121は、特に、アンテナ角度θ方向に大きくぼやけた形状として検出される場合がある。その結果、nスキャン時点での物標エコー像121の面積arが、過度に大きくなる場合がある。この場合、物標エコー像121の面積arが、所定のしきい値thを超える。また、この場合、物標エコー像121における代表点PF2の位置は、物標エコー像121における真の代表点P1(n)の位置から大きくずれてしまう。この場合に、運動推定部16が、代表点PF2を用いて追尾フィルタ処理を行うと、運動推定部16で算出される推定速度ベクトルV1(n)は、実際の速度ベクトルに対する誤差が大きくなる。そこで、面積判定部15は、追尾物標140(物標エコー像121)の面積arを判定することにより、物標エコー像121の面積arが過度に大きくなっているか否かを検出する。そして、面積arがしきい値thを超えている場合、面積判定部15は、エコー像121に過大なぼやけが生じていると判定する。   Next, the reason why excessive blur occurs in the (b) target echo image 121 will be described with reference to FIG. FIG. 12 is a schematic diagram illustrating a state in which the target echo image 121 is excessively blurred. Referring to FIGS. 1 and 12, the target echo image 121 is detected as a particularly blurred shape in the antenna angle θ direction due to the resolution in the antenna angle θ direction in the antenna unit 2. There is a case. As a result, the area ar of the target echo image 121 at the time of n scanning may become excessively large. In this case, the area ar of the target echo image 121 exceeds a predetermined threshold th. In this case, the position of the representative point PF2 in the target echo image 121 is greatly deviated from the position of the true representative point P1 (n) in the target echo image 121. In this case, when the motion estimation unit 16 performs the tracking filter process using the representative point PF2, the estimated speed vector V1 (n) calculated by the motion estimation unit 16 has an error with respect to the actual speed vector. Therefore, the area determination unit 15 detects whether the area ar of the target echo image 121 is excessively large by determining the area ar of the tracking target 140 (target echo image 121). If the area ar exceeds the threshold value th, the area determination unit 15 determines that excessive blur has occurred in the echo image 121.

次に、運動推定部16について説明する。運動推定部16は、追尾フィルタ処理を行うように構成されている。これにより、運動推定部16は、nスキャン時点における、追尾物標140の推定速度ベクトルV1(n)を算出する。尚、追尾フィルタとして、α−βフィルタ、カルマン・フィルタ等を例示することができる。運動推定部16は、推定速度ベクトルV1(n)を特定するデータを、選別部13、及び表示器4へ出力する。推定速度ベクトルV1(n)のデータは、(n+1)スキャン時点での追尾フィルタ処理に用いられる。   Next, the motion estimation unit 16 will be described. The motion estimation unit 16 is configured to perform tracking filter processing. Thereby, the motion estimation unit 16 calculates the estimated velocity vector V1 (n) of the tracking target 140 at the n-scan time point. Examples of the tracking filter include an α-β filter and a Kalman filter. The motion estimation unit 16 outputs data specifying the estimated speed vector V1 (n) to the selection unit 13 and the display 4. The data of the estimated velocity vector V1 (n) is used for the tracking filter process at the (n + 1) scan time.

次に、運動推定部16での処理の一例を説明する。図13は、運動推定部16における処理の流れの一例を説明するためのフローチャートである。図14は、運動推定部16での処理を説明するための模式図である。図14は、追尾物標140を特定する物標エコー像121について、他の物標エコー像125との融合、及び、過大なぼやけの何れも生じていない場合を示している。図15は、運動推定部16での処理を説明するための模式図である。図15は、追尾物標140を特定する物標エコー像121について、他の物標エコー像125との融合、又は過大なぼやけが生じている場合を示している。   Next, an example of processing in the motion estimation unit 16 will be described. FIG. 13 is a flowchart for explaining an example of a processing flow in the motion estimation unit 16. FIG. 14 is a schematic diagram for explaining processing in the motion estimation unit 16. FIG. 14 shows a case where the target echo image 121 that specifies the tracking target 140 is neither fused with another target echo image 125 nor excessively blurred. FIG. 15 is a schematic diagram for explaining processing in the motion estimation unit 16. FIG. 15 shows a case where the target echo image 121 that specifies the tracking target 140 is fused with another target echo image 125 or excessive blur occurs.

まず、運動推定部16は、(n−1)スキャン時点における、当該運動推定部16での追尾フィルタ処理の結果を特定するデータを、読み出す(ステップS401)。この場合、上記追尾フィルタ処理の結果は、図14及び図15にそれぞれ示すように、(n−1)スキャン時点における追尾物標140についての、平滑位置PRs(n−1)の座標と、推定位置PRe(n−1)の座標と、推定速度ベクトルV1(n−1)と、を含んでいる。   First, the motion estimation unit 16 reads data specifying the result of the tracking filter processing in the motion estimation unit 16 at the time of (n−1) scan (step S401). In this case, as shown in FIGS. 14 and 15, the result of the tracking filter processing is the estimated coordinates of the smooth position PRs (n−1) with respect to the tracking target 140 at the time of the (n−1) scan, and the estimated values. The coordinates of the position PRe (n−1) and the estimated speed vector V1 (n−1) are included.

次に、運動推定部16は、面積判定部15から代表点PR(n)のデータが出力されているか否かを判定する(ステップS402)。代表点PR(n)のデータが出力されている場合(ステップS402でYES)、即ち、物標エコー像121において、他の物標エコー像125との融合、及び、過大なぼやけの何れも生じていない場合、運動推定部16は、nスキャン時点で観測された代表点PR(n)のデータを用いて、追尾処理を行う(ステップS403〜S404)。   Next, the motion estimation unit 16 determines whether or not the data of the representative point PR (n) is output from the area determination unit 15 (step S402). When the data of the representative point PR (n) is output (YES in step S402), that is, in the target echo image 121, both fusion with another target echo image 125 and excessive blurring occur. If not, the motion estimation unit 16 performs a tracking process using data of the representative point PR (n) observed at the n scan time (steps S403 to S404).

具体的には、運動推定部16は、追尾物標140の代表点PR(n)の座標データを、尤度算出部22から読み出す(ステップS403)。その後、運動推定部16は、ステップS401,S403で読み出したデータを用いて、追尾フィルタ処理を行う(ステップS404)。これにより、図14に示すように、運動推定部16は、nスキャン時点における、物標エコー像121についての平滑位置PRs(n)と、推定位置PRe(n)と、推定速度ベクトルV1(n)と、を算出する。   Specifically, the motion estimation unit 16 reads the coordinate data of the representative point PR (n) of the tracking target 140 from the likelihood calculation unit 22 (step S403). Thereafter, the motion estimation unit 16 performs tracking filter processing using the data read in steps S401 and S403 (step S404). Accordingly, as illustrated in FIG. 14, the motion estimation unit 16 includes the smooth position PRs (n), the estimated position PRe (n), and the estimated velocity vector V1 (n) for the target echo image 121 at the time of n scans. ) And.

運動推定部16は、上記追尾フィルタ処理の結果を特定するデータを、特徴情報メモリ12と、選別部13と、表示器4と、に出力する(ステップS405)。   The motion estimation unit 16 outputs data specifying the result of the tracking filter process to the feature information memory 12, the selection unit 13, and the display 4 (step S405).

一方、代表点PR(n)のデータが出力されていない場合(ステップS402でNO)、即ち、物標エコー像121に、他の物標エコー像120との融合、又は過大なぼやけが生じている場合(ステップS402でNO)、運動推定部16は、nスキャン時点での代表点PR(n)を用いることなく、追尾処理を行う(ステップS404)。   On the other hand, if the data of the representative point PR (n) is not output (NO in step S402), that is, the target echo image 121 is fused with another target echo image 120 or excessive blurring occurs. If it is present (NO in step S402), the motion estimation unit 16 performs the tracking process without using the representative point PR (n) at the n-scan time point (step S404).

この場合、図15に示すように、運動推定部16で算出された推定速度ベクトルV1(n)は、推定速度ベクトルV1(n−1)と同じ向き及び大きさである。また、推定速度ベクトルV1(n)の始点は、推定速度ベクトルV1(n−1)の終点である。その後、運動推定部16は、ステップS405の処理を行う。以上が、運動推定部16における処理の流れの一例である。   In this case, as shown in FIG. 15, the estimated speed vector V1 (n) calculated by the motion estimation unit 16 has the same direction and size as the estimated speed vector V1 (n-1). The starting point of the estimated speed vector V1 (n) is the end point of the estimated speed vector V1 (n-1). Thereafter, the motion estimation unit 16 performs the process of step S405. The above is an example of the process flow in the motion estimation unit 16.

表示器4は、例えばカラー表示可能な液晶ディスプレイである。表示器4は、各物標エコー像120の画像データを用いて、表示画面に、各物標エコー像120を表示する。また、表示器4は、推定速度ベクトルV1(n)を、画像として表示する。これにより、表示器4の表示画面には、追尾物標140(物標エコー像121)について、推定速度ベクトルV1(n)を示す画像が表示される。レーダ装置1のオペレータは、表示器4に表示されたレーダ映像を確認することにより、追尾物標140の運動状態を確認することができる。   The display 4 is a liquid crystal display capable of color display, for example. The display 4 displays each target echo image 120 on the display screen using the image data of each target echo image 120. The display 4 displays the estimated speed vector V1 (n) as an image. Accordingly, an image indicating the estimated velocity vector V1 (n) is displayed on the display screen of the display device 4 for the tracking target 140 (target echo image 121). The operator of the radar apparatus 1 can confirm the motion state of the tracking target 140 by confirming the radar image displayed on the display 4.

以上説明したように、追尾処理装置3によると、関連付け部14の尤度算出部22は、選別領域S1(n)の代表点P1(n),P2(n)について、追尾物標140の代表点PR(n)に該当する尤度Lh11,Lh21を算出する。そして、関連付け部14の尤度比較部23は、算出された尤度Lh11,Lh21に基づいて、複数の物標131,132のなかから、追尾物標140を特定する。このように、関連付け部14は、統計的手法を用いることで、追尾物標140の代表点PR(n)、即ち代表点P1(n)を、より正確に判定することができる。また、関連付け部14は、尤度Lh11,21の算出に際して、各物標130についての予測誤差、及び観測誤差等を考慮したモデルを設定する必要が無い。即ち、尤度算出部22は、複雑なモデルに従って演算を行う必要が無い。このため、関連付け部14における演算処理は、簡易である。したがって、追尾処理装置3によると、複数の物標130(131,132)のなかから、追尾物標140を確実に、且つ、簡易に検出することができる。   As described above, according to the tracking processing device 3, the likelihood calculating unit 22 of the associating unit 14 represents the representative of the tracking target 140 with respect to the representative points P1 (n) and P2 (n) of the selection region S1 (n). Likelihoods Lh11 and Lh21 corresponding to the point PR (n) are calculated. Then, the likelihood comparison unit 23 of the associating unit 14 specifies the tracking target 140 from among the plurality of targets 131 and 132 based on the calculated likelihoods Lh11 and Lh21. As described above, the associating unit 14 can more accurately determine the representative point PR (n) of the tracking target 140, that is, the representative point P1 (n), by using a statistical method. Further, the associating unit 14 does not need to set a model considering the prediction error, the observation error, and the like for each target 130 when calculating the likelihoods Lh 11 and 21. That is, the likelihood calculating unit 22 does not need to perform an operation according to a complicated model. For this reason, the arithmetic processing in the associating unit 14 is simple. Therefore, according to the tracking processing device 3, the tracking target 140 can be reliably and easily detected from the plurality of targets 130 (131, 132).

また、追尾処理装置3によると、関連付け部14は、選別領域S1(n)内に位置する各物標131,132について、代表点P1(n),P2(n)の情報以外の特徴情報を参照する。そして、関連付け部14の尤度算出部22は、追尾物標140の特徴情報に該当する尤度Lh12〜Lh15;Lh22〜Lh25を算出する。また、関連付け部14の尤度比較部23は、算出した尤度Lh11〜Lh15;Lh21〜Lh25に基づいて、各物標131,132のなかから、追尾物標140を特定する。このように、関連付け部14は、各物標131,132の代表点P1(n),P2(n)についての尤度Lh11,21に加え、尤度Lh12〜Lh15;Lh22〜Lh25を用いて、追尾物標140を特定できる。したがって、複数の物標131,132のなかから、追尾物標140を、より確実に判別することができる。また、前述したように、尤度Lhを用いた処理は、複雑なモデルに従う複雑な演算処理と異なり、簡易な演算処理で済む。したがって、代表点P(n)以外の追加の特徴情報について尤度判定を行う場合でも、関連付け部14での演算負荷は、少なくて済む。   Further, according to the tracking processing device 3, the associating unit 14 provides feature information other than information on the representative points P1 (n) and P2 (n) for each target 131 and 132 located in the selection region S1 (n). refer. And the likelihood calculation part 22 of the correlation part 14 calculates likelihood Lh12-Lh15; Lh22-Lh25 applicable to the characteristic information of the tracking target 140. FIG. In addition, the likelihood comparing unit 23 of the associating unit 14 specifies the tracking target 140 from the targets 131 and 132 based on the calculated likelihoods Lh11 to Lh15; Lh21 to Lh25. In this manner, the associating unit 14 uses the likelihoods Lh12 to Lh15; Lh22 to Lh25 in addition to the likelihoods Lh11 and 21 for the representative points P1 (n) and P2 (n) of the targets 131 and 132, The tracking target 140 can be specified. Therefore, the tracking target 140 can be more reliably determined from the plurality of targets 131 and 132. Further, as described above, the processing using the likelihood Lh is simple arithmetic processing unlike the complicated arithmetic processing according to the complicated model. Therefore, even when likelihood determination is performed for additional feature information other than the representative point P (n), the calculation load on the associating unit 14 can be small.

また、例えば、船舶の航行によって生じる波、又はクラッタ等を、エコー検出部10が、物標として検出した場合を考える。この場合、上記の波又はクラッタ等の面積についての尤度は、物標131,132についての対応する尤度Lh12,22と比べて、格段に小さい。よって、尤度比較部23は、上記波又はクラッタ等を、追尾物標140として誤って判定することを抑制できる。   Further, for example, consider a case where the echo detection unit 10 detects a wave generated by navigation of a ship or clutter as a target. In this case, the likelihood for the area of the wave or the clutter is much smaller than the corresponding likelihoods Lh12 and 22 for the targets 131 and 132. Therefore, the likelihood comparison unit 23 can suppress erroneous determination of the wave or clutter as the tracking target 140.

また、例えば、前述の特許文献1,2には、追尾対象における1つの特徴情報としての航跡情報に基づく、多重仮説による追尾処理が開示されている。これに対し、追尾処理装置3は、複数の特徴情報を用いて、複数の物標130のなかから追尾物標140を特定している。これにより、複数の物標130のなかから、追尾物標140を、より確実に判別することができる。   Further, for example, Patent Documents 1 and 2 described above disclose tracking processing based on multiple hypotheses based on track information as one feature information on a tracking target. On the other hand, the tracking processing device 3 specifies the tracking target 140 from among the plurality of targets 130 using the plurality of feature information. Thereby, the tracking target 140 can be more reliably determined from the plurality of targets 130.

また、追尾処理装置3によると、関連付け部14は、各エコー像120に関して、面積arの情報、エコー信号のレベルec、隣接距離adの情報、及び、ドップラーシフト量dsの少なくとも一つを用いる。関連付け部14は、これらの特徴情報を用いることにより、複数の物標130のなかから、追尾物標140を、より正確に特定することができる。より具体的には、特徴情報として、面積arの情報が用いられている。これにより、関連付け部14は、追尾物標140(物標131)の形状と異なる物標132を、誤って追尾物標140であると判別することを抑制できる。例えば、追尾物標が大型船舶である場合には、小型船舶からなる物標、又はクラッタに起因して検出される物標を、関連付け部14が追尾対象として検出することを、より確実に抑制できる。また、特徴情報として、エコーレベルecが用いられている。これにより、関連付け部14は、追尾物標140とはエコーレベルecの異なる物標130を、誤って追尾物標140であると判別することを抑制できる。また、特徴情報として、隣接距離adの情報が用いられている。これにより、関連付け部14は、追尾物標140(物標131)と、クラッタ等の物標とを、より確実に判別することができる。また、特徴情報として、ドップラーシフト量dsが用いられている。これにより、エコー検出部10は、自船100と、物標130とが向かい合う方向における、自船100と物標130との相対速度を検出することができる。したがって、関連付け部14は、この相対速度を考慮して、複数の物標130のなかから、追尾物標140を特定できる。その結果、例えば、追尾物標140(物標131)と、他の物標130とがすれ違う際において、尤度比較部23は、当該他の物標130を、追尾物標140であると判別することを防止できる。   Further, according to the tracking processing device 3, the associating unit 14 uses at least one of area ar information, echo signal level ec, adjacent distance ad information, and Doppler shift amount ds for each echo image 120. Using the feature information, the associating unit 14 can more accurately identify the tracking target 140 from among the plurality of targets 130. More specifically, the area ar information is used as the feature information. Accordingly, the associating unit 14 can suppress erroneously determining that the target 132 having a shape different from the shape of the tracking target 140 (target 131) is the tracking target 140. For example, when the tracking target is a large ship, it is more reliably suppressed that the associating unit 14 detects the target detected from the small ship or the clutter as the tracking target. it can. In addition, an echo level ec is used as feature information. Thereby, the associating unit 14 can suppress erroneously determining that the target 130 having the echo level ec different from the tracking target 140 is the tracking target 140. Further, as the feature information, information on the adjacent distance ad is used. Thereby, the associating unit 14 can more reliably determine the tracking target 140 (target 131) and the target such as clutter. Further, the Doppler shift amount ds is used as the feature information. Thereby, the echo detection unit 10 can detect the relative speed between the ship 100 and the target 130 in the direction in which the ship 100 and the target 130 face each other. Therefore, the associating unit 14 can specify the tracking target 140 from the plurality of targets 130 in consideration of the relative speed. As a result, for example, when the tracking target 140 (target 131) and another target 130 pass each other, the likelihood comparison unit 23 determines that the other target 130 is the tracking target 140. Can be prevented.

また、追尾処理装置3によると、関連付け部14の尤度算出部22は、確率密度関数としての関数f(f1〜f5)を用いて、尤度Lh11〜Lh15;Lh21〜Lh25を算出する。このように、尤度算出部22は、関数fを用いることにより、尤度Lh11〜Lh15;Lh21〜Lh25を、統計的に、且つ、簡易な演算で算出できる。   Further, according to the tracking processing device 3, the likelihood calculating unit 22 of the associating unit 14 calculates the likelihoods Lh11 to Lh15; Lh21 to Lh25 using the function f (f1 to f5) as the probability density function. Thus, the likelihood calculating unit 22 can calculate the likelihoods Lh11 to Lh15; Lh21 to Lh25 statistically and with a simple calculation by using the function f.

また、追尾処理装置3によると、関連付け部14の尤度算出部22は、各関数f(f1〜f5)において、エコー検出部10で検出された特徴情報(代表点P1(n)及びP2(n)の座標、面積ar、エコーレベルec、隣接距離ad、ドップラーシフト量ds)を、独立変数として用いる。また、尤度算出部22は、上記独立変数に従属する従属変数を、尤度Lh11〜Lh15;Lh21〜Lh25として算出する。その結果、代表点P2(n)の位置が、推定位置PRe(n−1)に近いという理由のみに基づいて、当該代表点P2(n)を、追尾物標140の代表点PR(n)として特定することは、防止される。即ち、関連付け部14は、代表点P1(n),P2(n)の情報以外の、他の特徴情報における尤度Lh12〜Lh15;Lh22〜Lh25を考慮して、追尾物標140を特定する。これにより、関連付け部14は、各物標131,132のなかから、追尾物標140を、より正確に特定できる。   Further, according to the tracking processing device 3, the likelihood calculating unit 22 of the associating unit 14 uses the feature information (representative points P1 (n) and P2 () detected by the echo detecting unit 10 in each function f (f1 to f5). n) coordinates, area ar, echo level ec, adjacent distance ad, Doppler shift amount ds) are used as independent variables. In addition, the likelihood calculating unit 22 calculates the dependent variables subordinate to the independent variables as the likelihoods Lh11 to Lh15; Lh21 to Lh25. As a result, based on the reason that the position of the representative point P2 (n) is close to the estimated position PRe (n-1), the representative point P2 (n) is changed to the representative point PR (n) of the tracking target 140. Identification as is prevented. That is, the associating unit 14 specifies the tracking target 140 in consideration of the likelihoods Lh12 to Lh15; Lh22 to Lh25 in other feature information other than the information of the representative points P1 (n) and P2 (n). Thereby, the associating unit 14 can more accurately identify the tracking target 140 from among the targets 131 and 132.

また、追尾処理装置3によると、関連付け部14の尤度算出部22は、各物標131,132毎に、総合尤度Lh100,Lh200を算出する。そして、尤度比較部23は、各物標131,132のうち、総合尤度Lh100,Lh200が最も高い物標131を、追尾物標140として特定する。即ち、尤度比較部23は、各物標131,132について、複数の特徴情報に基づく尤度Lh11〜Lh15;Lh21〜Lh25を、総合的に判定する。これにより、関連付け部14は、各物標131,132のなかから、追尾物標140を、より確実に特定できる。   Further, according to the tracking processing device 3, the likelihood calculating unit 22 of the associating unit 14 calculates the overall likelihoods Lh100 and Lh200 for each of the targets 131 and 132. Then, the likelihood comparing unit 23 identifies the target 131 having the highest overall likelihood Lh100 and Lh200 as the tracking target 140 among the targets 131 and 132. That is, the likelihood comparison unit 23 comprehensively determines the likelihoods Lh11 to Lh15; Lh21 to Lh25 based on a plurality of feature information for each target 131 and 132. Thereby, the associating unit 14 can more reliably specify the tracking target 140 from among the targets 131 and 132.

また、追尾処理装置3によると、面積判定部15は、追尾物標140を特定する物標エコー像121における面積arが、所定のしきい値thを超えているか否かを判定する。また、運動推定部16は、面積arが、所定のしきい値th以下である場合、nスキャン時点での代表点PR(n)の情報を用いて、推定速度ベクトルV1(n)を算出する。また、運動推定部16は、面積arが、所定のしきい値thを超えている場合には、nスキャン時点での代表点PR(n)の情報を用いることなく、推定速度ベクトルV1(n)を算出する。このような構成により、運動推定部16は、代表点PR(n)について、正確な運動推定に適した情報が得られている場合には、当該情報を用いて、追尾物標140の運動を、より正確に算出できる。一方、運動推定部16は、代表点PR(n)について、正確な運動推定に適した情報を有していない場合も、当該情報用いることなく、追尾物標140の運動を、より正確に算出できる。   Further, according to the tracking processing device 3, the area determination unit 15 determines whether or not the area ar in the target echo image 121 that specifies the tracking target 140 exceeds a predetermined threshold th. In addition, when the area ar is equal to or smaller than the predetermined threshold th, the motion estimation unit 16 calculates the estimated velocity vector V1 (n) using information on the representative point PR (n) at the n-scan time point. . Further, when the area ar exceeds the predetermined threshold th, the motion estimation unit 16 uses the estimated velocity vector V1 (n) without using the information of the representative point PR (n) at the n-scan time point. ) Is calculated. With such a configuration, when information suitable for accurate motion estimation is obtained for the representative point PR (n), the motion estimation unit 16 uses the information to perform the motion of the tracking target 140. Can be calculated more accurately. On the other hand, even if the motion estimation unit 16 does not have information suitable for accurate motion estimation for the representative point PR (n), the motion estimation unit 16 calculates the motion of the tracking target 140 more accurately without using the information. it can.

また、面積判定部15は、追尾物標140の物標エコー像121の面積arについて、関数f2を用いて、判定を行う。このため、アンテナユニット2での観測誤差等に起因して、追尾物標140の物標エコー像121の面積arが経時的に変化する場合でも、面積判定部15は、当該面積arを、より正確に判定できる。   Further, the area determination unit 15 determines the area ar of the target echo image 121 of the tracking target 140 using the function f2. For this reason, even when the area ar of the target echo image 121 of the tracking target 140 changes with time due to an observation error or the like in the antenna unit 2, the area determination unit 15 makes the area ar more Accurate judgment can be made.

また、特許文献3には、追尾対象の観測位置に飛躍(飛び)が生じてしまっている状態への対応を行うための構成が開示されている。しかしながら、特許文献3に記載の構成では、上記した、エコー像同士の融合を検出する精度は、十分とはいえない。これに対し、追尾処理装置3によると、面積判定部15は、関数f2を用いて、面積arを判定する。その結果、面積判定部15は、追尾物標140を特定する物標エコー像121が、他のエコー像125と融合した場合に、当該融合を、より確実に検出できる。   Patent Document 3 discloses a configuration for dealing with a state in which a jump (jump) has occurred at an observation position to be tracked. However, with the configuration described in Patent Document 3, it cannot be said that the above-described accuracy of detecting the fusion of echo images is sufficient. On the other hand, according to the tracking processing device 3, the area determination unit 15 determines the area ar using the function f2. As a result, the area determination unit 15 can detect the fusion more reliably when the target echo image 121 that specifies the tracking target 140 is fused with another echo image 125.

また、追尾処理装置3によると、面積判定部15は、関数f2での平均μ2に基づいて、しきい値thを設定している。そして、面積判定部15は、しきい値thを基準として、追尾物標140についての面積arの大きさを判定している。このような構成によると、上記面積arの平均μから、大きくずれている値が面積arとして検出されている場合、面積判定部15は、追尾物標140を特定する物標エコー像121について、他の物標エコー像125との融合、又は、過大なぼやけが生じていると判定する。このような構成により、面積判定部15は、アンテナユニット2での観測誤差に左右され難い状態で、物標エコー像121の面積arを、より正確に判定できる。   Further, according to the tracking processing device 3, the area determining unit 15 sets the threshold th based on the average μ2 in the function f2. Then, the area determination unit 15 determines the size of the area ar for the tracking target 140 with reference to the threshold value th. According to such a configuration, when a value greatly deviating from the average μ of the area ar is detected as the area ar, the area determination unit 15 uses the target echo image 121 that identifies the tracking target 140 as follows: It is determined that fusion with another target echo image 125 or excessive blur has occurred. With such a configuration, the area determination unit 15 can determine the area ar of the target echo image 121 more accurately without being affected by the observation error in the antenna unit 2.

以上、本発明の実施形態について説明したけれども、本発明は上述の実施の形態に限られるものではなく、特許請求の範囲に記載した限りにおいて様々な変更が可能である。例えば、次のように変更して実施してもよい。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, As long as it described in the claim, various changes are possible. For example, the following modifications may be made.

(1)上述の実施形態では、物標についての代表点情報以外の追加の特徴情報として、物標エコー像についての面積の情報等を用いる形態を例に説明した。しかしながら、この通りでなくてもよい。例えば、上記追加の特徴情報として、エコー検出部で検出された物標の航跡情報を用いてもよい。上記追加の特徴情報として、航跡情報を用いた場合、錯綜するように航行する複数の物標のなかから、追尾物標を、より精度よく特定できる。 (1) In the above-described embodiment, an example has been described in which area information or the like about a target echo image is used as additional feature information other than representative point information about the target. However, this need not be the case. For example, the track information of the target detected by the echo detector may be used as the additional feature information. When the wake information is used as the additional feature information, the tracking target can be identified with higher accuracy from a plurality of targets that travel in a complicated manner.

(2)上述の実施形態では、形状情報として、物標エコー像の面積の情報を用いる形態を例に説明した。しかしながら、この通りでなくてもよい。例えば、形状情報として、物標エコー像の幅を用いてもよい。また、形状情報として、物標エコー像の長さを用いてもよい。 (2) In the above-described embodiment, an example in which the area information of the target echo image is used as the shape information has been described. However, this need not be the case. For example, the width of the target echo image may be used as the shape information. Further, the length of the target echo image may be used as the shape information.

(3)また、上述の実施形態では、物標エコー像についての中心点を、代表点として用いる形態を例に説明した。しかしながら、この通りでなくてもよい。例えば、物標エコー像のうち、自船に対して最も近い点である最前縁点等を、代表点として用いてもよい。 (3) Further, in the above-described embodiment, an example in which the center point of the target echo image is used as the representative point has been described. However, this need not be the case. For example, the forefront edge point that is the closest point to the ship in the target echo image may be used as the representative point.

(4)また、上述の実施形態では、追尾処理装置が、船舶用の追尾処理装置である形態を例に説明した。しかしながら、本発明は、船舶用の追尾処理装置に限らず、他の物標用の追尾処理装置として適用することができる。 (4) Moreover, in the above-mentioned embodiment, the tracking processing apparatus demonstrated to the example the form which is a tracking processing apparatus for ships. However, the present invention is not limited to a tracking processing device for ships, but can be applied as a tracking processing device for other targets.

本発明は、追尾処理装置、及び追尾処理方法として、広く適用することができる。   The present invention can be widely applied as a tracking processing device and a tracking processing method.

3 追尾処理装置
10 エコー検出部(検出部)
9 信号処理部(検出部)
19 関連付け部(尤度判定部)
130 物標
140 追尾物標(追尾対象)
Lh11,Lh21 追尾対象の代表点に該当する尤度
P 代表点
3 Tracking processing device 10 Echo detection unit (detection unit)
9 Signal processor (detector)
19 Association part (likelihood determination part)
130 Target 140 Tracking target (tracking target)
Lh11, Lh21 Likelihood P corresponding to the representative point to be tracked Representative point

Claims (7)

追尾対象として選択された物標を追尾するための追尾処理装置であって、
複数の物標について、代表点の情報を含む特徴情報を検出するための、検出部と、
複数の前記代表点の少なくとも一部について、それぞれ、前記追尾対象の代表点に該当する尤度を算出する、尤度判定部と
前記追尾対象として特定された前記物標の前記特徴情報を用いて、前記追尾対象の運動状態を推定する、運動推定部と、
面積を判定するための面積判定部と、を備え、
前記尤度判定部は、算出された前記尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定し、
前記検出部は、複数の前記物標の少なくとも一部について、前記代表点の情報以外の特徴情報を、追加の特徴情報として検出し、
前記尤度判定部は、追加の前記特徴情報について、前記追尾対象の特徴情報に該当する尤度を算出し、且つ、当該尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定し、
前記検出部は、送信信号に対する前記追尾対象を含む複数の前記物標での反射波であるエコー信号を検出し、且つ、当該エコー信号によって特定されるエコー像を検出し、且つ、当該エコー像の面積を追加の前記特徴情報として検出し、
前記面積判定部は、前記追尾対象の前記エコー像の前記面積が所定のしきい値を超えているか否かを判定し、
前記運動推定部は、前記面積が所定のしきい値以下である場合、前記運動状態を推定する時点での前記追尾対象の前記特徴情報を用いて、前記運動状態を算出し、且つ、前記面積が所定のしきい値を超えている場合、前記運動状態を算出する時点での前記追尾対象の前記特徴情報を用いることなく、前記運動状態を算出することを特徴とする、追尾処理装置。
A tracking processing device for tracking a target selected as a tracking target,
For a plurality of targets, a detection unit for detecting feature information including information on representative points;
A likelihood determination unit that calculates a likelihood corresponding to the representative point to be tracked for at least some of the plurality of representative points ;
A motion estimation unit that estimates the motion state of the tracking target using the feature information of the target identified as the tracking target;
An area determination unit for determining the area ,
The likelihood determining unit identifies the tracking target from a plurality of the targets based on the calculated likelihood ,
The detection unit detects feature information other than information on the representative point as additional feature information for at least a part of the plurality of targets,
The likelihood determination unit calculates a likelihood corresponding to the feature information of the tracking target for the additional feature information, and determines the tracking target from a plurality of the targets based on the likelihood. Identify,
The detection unit detects an echo signal that is a reflected wave from the plurality of targets including the tracking target with respect to a transmission signal, detects an echo image specified by the echo signal, and detects the echo image Is detected as additional feature information,
The area determination unit determines whether the area of the echo image to be tracked exceeds a predetermined threshold;
When the area is equal to or less than a predetermined threshold, the motion estimation unit calculates the motion state using the feature information of the tracking target at the time of estimating the motion state, and the area A tracking processing device that calculates the motion state without using the feature information of the tracking target at the time when the motion state is calculated when is exceeding a predetermined threshold .
請求項に記載の追尾処理装置であって、
前記検出部は、送信信号に対する各前記物標での反射波であるエコー信号を用いて、各前記特徴情報を検出し、
追加の前記特徴情報は、前記エコー信号によって特定されるエコー像の形状情報、前記エコー信号のレベル、各前記物標の周囲の状態を特定する情報、及び、前記エコー信号に関するドップラーシフト量の少なくとも一つを含むことを特徴とする、追尾処理装置。
The tracking processing device according to claim 1 ,
The detection unit detects each feature information using an echo signal that is a reflected wave at each target with respect to a transmission signal,
The additional feature information includes at least the shape information of the echo image specified by the echo signal, the level of the echo signal, the information specifying the surrounding state of each target, and the Doppler shift amount related to the echo signal. A tracking processing device including one.
請求項1又は請求項2に記載の追尾処理装置であって、
各前記特徴情報は、数値によって表される情報であり、
前記尤度判定部は、各前記特徴情報毎に、確率密度関数を用いて、各前記尤度を算出することを特徴とする、追尾処理装置。
The tracking processing device according to claim 1 or 2 , wherein
Each of the feature information is information represented by numerical values,
The said likelihood determination part calculates each said likelihood using a probability density function for every said feature information, The tracking processing apparatus characterized by the above-mentioned.
請求項に記載の追尾処理装置であって、
前記確率密度関数は、各前記特徴情報毎に設定され、
各前記確率密度関数において平均の値として用いられる値は、対応する特徴情報について、尤度が算出される前に予め推定された値であり、
前記尤度判定部は、各確率密度関数において、対応する前記特徴情報を独立変数として用い、前記独立変数に従属する従属変数を、前記尤度として算出することを特徴とする、追尾処理装置。
The tracking processing device according to claim 3 ,
The probability density function is set for each feature information,
The value used as the average value in each probability density function is a value estimated in advance before the likelihood is calculated for the corresponding feature information,
The likelihood processing unit uses the corresponding feature information as an independent variable in each probability density function, and calculates a dependent variable subordinate to the independent variable as the likelihood.
請求項に記載の追尾処理装置であって、
前記尤度判定部は、
同一物標についての前記尤度を互いに乗算することで、総合尤度を算出し、且つ、
各前記物標のうち、前記総合尤度が最も高い前記物標を、前記追尾対象として特定することを特徴とする、追尾処理装置。
The tracking processing device according to claim 4 ,
The likelihood determining unit
Multiplying the likelihoods for the same target by each other to calculate an overall likelihood, and
A tracking processing device, wherein the target having the highest overall likelihood is specified as the tracking target among the targets.
請求項1乃至請求項5の何れか1項に記載の追尾処理装置であって、
前記面積判定部は、確率密度関数を用いて前記面積を判定するように構成されており、
前記確率密度変数の平均の値として用いられる値は、前記面積について、前記面積判定部で判定される前に予め推定された値であり、
前記所定のしきい値は、前記平均に基づいて設定されることを特徴とする、追尾処理装置。
The tracking processing device according to any one of claims 1 to 5 ,
The area determination unit is configured to determine the area using a probability density function,
The value used as the average value of the probability density variable is a value estimated in advance for the area before being determined by the area determination unit,
The tracking processing device, wherein the predetermined threshold is set based on the average.
追尾対象として選択された物標を追尾するための追尾処理方法であって、
複数の物標について、代表点の情報を含む特徴情報を検出するための、検出ステップと、
複数の前記代表点の少なくとも一部について、それぞれ、前記追尾対象の代表点に該当する尤度を算出する、尤度判定ステップと、
前記追尾対象として特定された前記物標の前記特徴情報を用いて、前記追尾対象の運動状態を推定する、運動推定ステップと、
面積を判定するための面積判定ステップと、を含み、
前記尤度判定ステップでは、算出された前記尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定し、
前記検出ステップでは、複数の前記物標の少なくとも一部について、前記代表点の情報以外の特徴情報を、追加の特徴情報として検出し、
前記尤度判定ステップでは、追加の前記特徴情報について、前記追尾対象の特徴情報に該当する尤度を算出し、且つ、当該尤度に基づいて、複数の前記物標のなかから前記追尾対象を特定し、
前記検出ステップでは、送信信号に対する前記追尾対象を含む複数の前記物標での反射波であるエコー信号を検出し、且つ、当該エコー信号によって特定されるエコー像を検出し、且つ、当該エコー像の面積を追加の前記特徴情報として検出し、
前記面積判定ステップでは、前記追尾対象の前記エコー像の前記面積が所定のしきい値を超えているか否かを判定し、
前記運動推定部ステップでは、前記面積が所定のしきい値以下である場合、前記運動状態を推定する時点での前記追尾対象の前記特徴情報を用いて、前記運動状態を算出し、且つ、前記面積が所定のしきい値を超えている場合、前記運動状態を算出する時点での前記追尾対象の前記特徴情報を用いることなく、前記運動状態を算出することを特徴とする、追尾処理方法。
A tracking processing method for tracking a target selected as a tracking target,
A detection step for detecting feature information including representative point information for a plurality of targets;
A likelihood determination step for calculating a likelihood corresponding to the representative point to be tracked for each of at least some of the representative points; and
Using the feature information of the target identified as the tracking target, estimating a motion state of the tracking target, a motion estimation step;
Including an area determination step for determining an area ,
In the likelihood determination step, the tracking target is identified from among the plurality of targets based on the calculated likelihood ,
In the detection step, for at least some of the plurality of targets, feature information other than the representative point information is detected as additional feature information,
In the likelihood determination step, for the additional feature information, a likelihood corresponding to the feature information of the tracking target is calculated, and the tracking target is selected from a plurality of the targets based on the likelihood. Identify,
In the detection step, an echo signal that is a reflected wave at the plurality of targets including the tracking target with respect to the transmission signal is detected, an echo image specified by the echo signal is detected, and the echo image is detected Is detected as additional feature information,
In the area determining step, it is determined whether or not the area of the echo image to be tracked exceeds a predetermined threshold value,
In the motion estimation unit step, when the area is equal to or less than a predetermined threshold, the motion state is calculated using the feature information of the tracking target at the time of estimating the motion state, and the A tracking processing method , wherein, when the area exceeds a predetermined threshold, the motion state is calculated without using the feature information of the tracking target at the time of calculating the motion state .
JP2012237773A 2012-10-29 2012-10-29 Tracking processing apparatus and tracking processing method Active JP6084810B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012237773A JP6084810B2 (en) 2012-10-29 2012-10-29 Tracking processing apparatus and tracking processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012237773A JP6084810B2 (en) 2012-10-29 2012-10-29 Tracking processing apparatus and tracking processing method

Publications (2)

Publication Number Publication Date
JP2014089056A JP2014089056A (en) 2014-05-15
JP6084810B2 true JP6084810B2 (en) 2017-02-22

Family

ID=50791079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012237773A Active JP6084810B2 (en) 2012-10-29 2012-10-29 Tracking processing apparatus and tracking processing method

Country Status (1)

Country Link
JP (1) JP6084810B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3226025A4 (en) 2014-11-28 2018-07-18 Furuno Electric Co., Ltd. Tracking processing device and tracking processing method
JP6466702B2 (en) * 2014-11-28 2019-02-06 古野電気株式会社 Tracking processing device, radar device, and tracking processing method
WO2020044915A1 (en) * 2018-08-27 2020-03-05 古野電気株式会社 Tracking object differentiation device, tracking object differentiation method, and tracking object differentiation program
JP7232607B2 (en) * 2018-10-03 2023-03-03 古野電気株式会社 Tracking device, tracking method, and tracking program
CN113495270B (en) * 2020-04-07 2024-08-27 富士通株式会社 Monitoring device and method based on microwave radar
KR102328065B1 (en) * 2020-05-19 2021-11-17 국방과학연구소 Random frequency agile radar and method of detection of multiple objects using random frequency agile radar
CN117111019B (en) * 2023-10-25 2024-01-09 深圳市先创数字技术有限公司 Target tracking and monitoring method and system based on radar detection

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6413485A (en) * 1987-07-07 1989-01-18 Sumitomo Heavy Industries Automatic tracking device for moving body
JP3180239B2 (en) * 1993-12-27 2001-06-25 沖電気工業株式会社 Target tracking device
JP2000298169A (en) * 1999-04-14 2000-10-24 Japan Radio Co Ltd Collision prevention support device for vessel
JP4153625B2 (en) * 1999-08-19 2008-09-24 株式会社トキメック Motion prediction device
JP2001337158A (en) * 2000-05-25 2001-12-07 Mitsubishi Electric Corp Target detector
JP2009109293A (en) * 2007-10-29 2009-05-21 Mitsubishi Electric Corp Target tracking device, target observation system, target tracking method, and program
JP2012141189A (en) * 2010-12-28 2012-07-26 Furuno Electric Co Ltd Representative position detection device, display device, radar device, representative position detection method and representative position detection program

Also Published As

Publication number Publication date
JP2014089056A (en) 2014-05-15

Similar Documents

Publication Publication Date Title
JP6084810B2 (en) Tracking processing apparatus and tracking processing method
JP5658871B2 (en) Signal processing apparatus, radar apparatus, signal processing program, and signal processing method
JP6084812B2 (en) Tracking processing apparatus and tracking processing method
JP5607428B2 (en) Signal processing apparatus, radar apparatus, signal processing method, and signal processing program
JP6554205B2 (en) Tracking processing apparatus and tracking processing method
JP5398195B2 (en) Radar equipment
JP2014002085A (en) Signal processing device, radar device, signal processing method, and program
JP2008164545A (en) Moving target detecting device, moving target detection method, and moving target detection program
JP2011174714A (en) Method and device for processing echo signal, radar device and echo signal processing program
WO2019058836A1 (en) Radar device and target tracking method
EP3290947B1 (en) Signal processing device and radar device
JP2012112672A (en) Signal processor, radar device, signal processing method and signal processing program
JP6732900B2 (en) Signal processing device and radar device
JP6466702B2 (en) Tracking processing device, radar device, and tracking processing method
EP2929366B1 (en) Improvements in and relating to course and/or speed data
JP2008039557A (en) Radar system with wake display function
JP2011191141A (en) False image reducing device, radar device, false image reducing method, and false image reducing program
JP6084811B2 (en) Tracking processing apparatus and tracking processing method
JP2011185719A (en) Tracking radar device
JP6180004B2 (en) Tracking processing apparatus and tracking processing method
JP2014032016A (en) Representative position detecting device, display device, radar device, representative position detecting method, and representative position detecting program
JP2014055778A (en) Periphery monitoring device
JP2013242255A (en) Interference signal detection device and radar device
JP6235557B2 (en) Radar device
JP2018169320A (en) Laser radar device and method for acquiring intensity image used therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170126

R150 Certificate of patent or registration of utility model

Ref document number: 6084810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250