[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014235155A - Radar image processing apparatus and radar image processing method - Google Patents

Radar image processing apparatus and radar image processing method Download PDF

Info

Publication number
JP2014235155A
JP2014235155A JP2013119085A JP2013119085A JP2014235155A JP 2014235155 A JP2014235155 A JP 2014235155A JP 2013119085 A JP2013119085 A JP 2013119085A JP 2013119085 A JP2013119085 A JP 2013119085A JP 2014235155 A JP2014235155 A JP 2014235155A
Authority
JP
Japan
Prior art keywords
radar
radar image
target
coherence
scattering intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013119085A
Other languages
Japanese (ja)
Other versions
JP6292772B2 (en
Inventor
赳寛 星野
Takehiro Hoshino
赳寛 星野
啓 諏訪
Hiroshi Suwa
啓 諏訪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013119085A priority Critical patent/JP6292772B2/en
Publication of JP2014235155A publication Critical patent/JP2014235155A/en
Application granted granted Critical
Publication of JP6292772B2 publication Critical patent/JP6292772B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To discriminate changes in a target in an observation area by using a uniform threshold over the entire observation area.SOLUTION: A radar image processing apparatus comprises an index calculation processing section 4 that calculates a coherence γ showing a correlation between two radar images whose misalignment are compensated by an alignment processing section 2, and calculates average scattering intensity of each radar image for calculating an average normalized scattering intensity differential value C which is a normalized value of a differential value in the two average scattering intensity. A target change discrimination section 5 discriminates changes in a target in an observation area by using the coherence γ and the average normalized scattering intensity differential value C calculated by the index calculation processing section 4.

Description

この発明は、同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像から観測領域における目標の変化を弁別するレーダ画像処理装置及びレーダ画像処理方法に関するものである。   The present invention relates to a radar image processing apparatus and a radar image processing method for acquiring two radar images at different observation times for the same observation area and discriminating changes in a target in the observation area from the two radar images. .

観測領域における目標の変化を検出するレーダ画像処理装置が以下の特許文献1に開示されている。
このレーダ画像処理装置では、同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の相関を示すコヒーレンスを算出する。
このコヒーレンスは、2枚のレーダ画像が完全に一致する場合には“1”になり、2枚のレーダ画像間の差異が大きくなる程、“0”に近づく性質がある。
そこで、このレーダ画像処理装置は、そのコヒーレンスと所定の閾値を比較し、そのコヒーレンスが閾値より小さければ、2枚のレーダ画像の異なる取得時刻の間に生じている観測領域の時間的変化を検出する。
また、このレーダ画像処理装置は、2枚のレーダ画像間の散乱強度差分及び散乱強度差分の標準偏差を算出し、その散乱強度差分及び標準偏差をコヒーレンスと組み合わせて、観測領域の時間的変化を検出する。
A radar image processing apparatus that detects a change in a target in an observation region is disclosed in Patent Document 1 below.
In this radar image processing apparatus, two radar images at different observation times for the same observation area are acquired, and coherence indicating a correlation between the two radar images is calculated.
This coherence is “1” when two radar images completely match, and has a property of approaching “0” as the difference between the two radar images increases.
Therefore, this radar image processing apparatus compares the coherence with a predetermined threshold value, and if the coherence is smaller than the threshold value, detects a temporal change in the observation region occurring between different acquisition times of the two radar images. To do.
Further, this radar image processing apparatus calculates a scattering intensity difference between two radar images and a standard deviation of the scattering intensity difference, and combines the scattering intensity difference and the standard deviation with coherence to change temporal changes in the observation region. To detect.

特開2008−46107号公報(段落番号[0031]から[0035])JP 2008-46107 A (paragraph numbers [0031] to [0035])

従来のレーダ画像処理装置は以上のように構成されているので、2枚のレーダ画像間の散乱強度差分及び散乱強度差分の標準偏差を用いて、観測領域の時間的変化を検出しているが、一般的にレーダ画像はダイナミックレンジが大きいため、散乱強度差分や標準偏差値が観測領域毎に大幅に揺らぐことがある。このため、観測領域の地理情報や光学画像情報などを取得し、これらの情報を用いて、観測領域毎に異なる閾値を設定する必要がある課題があった。
また、観測領域の時間的変化を検出することができても、その観測領域における新たな目標の出現、目標の消失、目標の微小移動などを弁別することができない課題があった。
また、信号対雑音電力比(SNR:Signal to Noise Ratio)が低下して、2枚のレーダ画像間の相関が低下すると、時間的変化の検出精度が低下してしまう課題があった。
Since the conventional radar image processing apparatus is configured as described above, the temporal change in the observation region is detected using the scattering intensity difference between the two radar images and the standard deviation of the scattering intensity difference. In general, since the radar image has a large dynamic range, the difference in scattering intensity and the standard deviation value may fluctuate greatly for each observation region. For this reason, there has been a problem that it is necessary to acquire geographical information, optical image information, and the like of the observation area, and to set different threshold values for each observation area using the information.
In addition, even if the temporal change of the observation area can be detected, there is a problem that the appearance of a new target, the disappearance of the target, the minute movement of the target, and the like cannot be distinguished.
In addition, when the signal-to-noise power ratio (SNR) decreases and the correlation between two radar images decreases, there is a problem that the detection accuracy of temporal changes decreases.

この発明は上記のような課題を解決するためになされたもので、全観測領域に亘って一様な閾値を用いて、観測領域における目標の変化を弁別することができるレーダ画像処理装置及びレーダ画像処理方法を得ることを目的とする。
また、この発明は、信号対雑音電力比が低下しても、目標の変化を高精度に弁別することができるレーダ画像処理装置を得ることを目的とする。
The present invention has been made to solve the above-described problems, and a radar image processing apparatus and a radar capable of discriminating a change in a target in an observation region using a uniform threshold value over the entire observation region. An object is to obtain an image processing method.
It is another object of the present invention to provide a radar image processing apparatus that can discriminate target changes with high accuracy even when the signal-to-noise power ratio is lowered.

この発明に係るレーダ画像処理装置は、同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の位置ずれを補償する位置ずれ補償手段と、位置ずれ補償手段により位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値を算出する目標変化関連指標算出手段とを設け、目標変化弁別手段が、目標変化関連指標算出手段により算出されたコヒーレンス及び平均規格化散乱強度差分値を用いて、観測領域における目標の変化を弁別するようにしたものである。   A radar image processing apparatus according to the present invention acquires two radar images at different observation times for the same observation area, and compensates for a positional deviation between the two radar images, and a positional deviation compensation means. The coherence indicating the correlation between the two radar images whose positional deviation is compensated by calculating the average scatter intensity of each radar image and calculating the average of the difference values of the two average scatter intensity A target change-related index calculating means for calculating a normalized scattering intensity difference value, and the target change discriminating means uses the coherence calculated by the target change-related index calculating means and the average normalized scattering intensity difference value to It is intended to discriminate changes in the target.

この発明によれば、位置ずれ補償手段により位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値を算出する目標変化関連指標算出手段を設け、目標変化弁別手段が、目標変化関連指標算出手段により算出されたコヒーレンス及び平均規格化散乱強度差分値を用いて、観測領域における目標の変化を弁別するように構成したので、全観測領域に亘って一様な閾値を用いて、観測領域における目標の変化を弁別することができる効果がある。   According to the present invention, the coherence indicating the correlation between the two radar images whose positional deviation has been compensated for by the positional deviation compensation means is calculated, and the average scattering intensity of each radar image is calculated to obtain the two average scattering intensities. The target change related index calculating means for calculating the average normalized scattering intensity difference value, which is the normalized value of the difference value, is provided, and the target change discriminating means includes the coherence and average normalized scattering calculated by the target change related index calculating means. Since it is configured to discriminate changes in the target in the observation region using the intensity difference value, there is an effect that it is possible to discriminate the change in the target in the observation region using a uniform threshold value over the entire observation region. is there.

この発明の実施の形態1によるレーダ画像処理装置を示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the radar image processing apparatus by Embodiment 1 of this invention. この発明の実施の形態1によるレーダ画像処理装置の処理内容(レーダ画像処理方法)を示すフローチャートである。It is a flowchart which shows the processing content (radar image processing method) of the radar image processing apparatus by Embodiment 1 of this invention. この発明の実施の形態1によるレーダ画像処理装置の目標変化弁別部5を示す構成図である。It is a block diagram which shows the target change discrimination part 5 of the radar image processing apparatus by Embodiment 1 of this invention.

実施の形態1.
図1はこの発明の実施の形態1によるレーダ画像処理装置を示す構成図である。
図1において、レーダ画像格納部1は例えばRAMやハードディスクなどの記憶装置から構成されており、図示せぬレーダ装置により生成された複数のレーダ画像(同一の観測領域に対する異なる観測時刻のレーダ画像)を格納している。
レーダ装置の種類は特に問わないが、音波を送受信する音波レーダ装置や、光波を送受信する光波レーダ装置などが考えられる。
Embodiment 1 FIG.
1 is a block diagram showing a radar image processing apparatus according to Embodiment 1 of the present invention.
In FIG. 1, a radar image storage unit 1 is constituted by a storage device such as a RAM or a hard disk, and a plurality of radar images (radar images at different observation times for the same observation region) generated by a radar device (not shown). Is stored.
The type of the radar device is not particularly limited, and a sound wave radar device that transmits and receives sound waves, a light wave radar device that transmits and receives light waves, and the like are conceivable.

位置合わせ処理部2は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、レーダ画像格納部1から同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の位置ずれを補償する処理を実施する。なお、位置合わせ処理部2は位置ずれ補償手段を構成している。
前処理部3は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、位置合わせ処理部2により位置ずれが補償された2枚のレーダ画像間のドップラー周波数差や幾何位相差を補償する前処理を実施する。なお、前処理部3は前処理手段を構成している。
The alignment processing unit 2 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like. Two radar images at different observation times for the same observation area are obtained from the radar image storage unit 1. A process for acquiring and compensating for the positional deviation between the two radar images is performed. The alignment processing unit 2 constitutes a misalignment compensation unit.
The preprocessing unit 3 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and a Doppler frequency difference between two radar images whose positional deviation is compensated by the alignment processing unit 2. And pre-processing to compensate for geometric phase difference. The preprocessing unit 3 constitutes preprocessing means.

指標計算処理部4は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、前処理部3による前処理後の2枚のレーダ画像間の相関を示すコヒーレンスγを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値Cを算出する処理を実施する。なお、指標計算処理部4は目標変化関連指標算出手段を構成している。
目標変化弁別部5は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、指標計算処理部4により算出されたコヒーレンスγ及び平均規格化散乱強度差分値Cを用いて、観測領域における目標の変化を弁別する処理を実施する。なお、目標変化弁別部5は目標変化弁別手段を構成している。
出力格納部6は例えばRAMやハードディスクなどの記憶装置から構成されており、目標変化弁別部5の弁別結果を格納する。
The index calculation processing unit 4 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer or the like, and a coherence γ indicating a correlation between two radar images after preprocessing by the preprocessing unit 3. Is calculated, and the average scattering intensity of each radar image is calculated, and an average normalized scattering intensity difference value C that is a normalized value of the difference value of the two average scattering intensity is calculated. The index calculation processing unit 4 constitutes a target change related index calculation unit.
The target change discriminating unit 5 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and the coherence γ and the average normalized scattering intensity difference value C calculated by the index calculation processing unit 4 are used. To perform a process of discriminating changes in the target in the observation region. The target change discriminating unit 5 constitutes a target change discriminating means.
The output storage unit 6 includes a storage device such as a RAM or a hard disk, and stores the discrimination result of the target change discrimination unit 5.

図1の例では、レーダ画像処理装置の構成要素であるレーダ画像格納部1、位置合わせ処理部2、前処理部3、指標計算処理部4、目標変化弁別部5及び出力格納部6のそれぞれが専用のハードウェアで構成されているものを想定しているが、レーダ画像処理装置がコンピュータで構成されていてもよい。
レーダ画像処理装置がコンピュータで構成されている場合、レーダ画像格納部1及び出力格納部6をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、位置合わせ処理部2、前処理部3、指標計算処理部4及び目標変化弁別部5の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図2はこの発明の実施の形態1によるレーダ画像処理装置の処理内容(レーダ画像処理方法)を示すフローチャートである。
In the example of FIG. 1, each of the radar image storage unit 1, the alignment processing unit 2, the preprocessing unit 3, the index calculation processing unit 4, the target change discriminating unit 5, and the output storage unit 6 that are components of the radar image processing apparatus. Is assumed to be configured with dedicated hardware, but the radar image processing apparatus may be configured with a computer.
When the radar image processing apparatus is configured by a computer, the radar image storage unit 1 and the output storage unit 6 are configured on an internal memory or an external memory of the computer, and an alignment processing unit 2, a preprocessing unit 3, an index calculation A program describing the processing contents of the processing unit 4 and the target change discriminating unit 5 may be stored in a memory of a computer, and the CPU of the computer may execute the program stored in the memory.
FIG. 2 is a flowchart showing the processing contents (radar image processing method) of the radar image processing apparatus according to the first embodiment of the present invention.

図3はこの発明の実施の形態1によるレーダ画像処理装置の目標変化弁別部5を示す構成図である。
図3において、振幅判定部11は前処理部3による前処理後の2枚のレーダ画像における局所領域の振幅の絶対値A1,A2と予め設定されている振幅閾値T0(雑音電力に相当する閾値)を比較して、その振幅の絶対値A1,A2が振幅閾値T0より大きいか否かを判定する処理を実施する。
FIG. 3 is a block diagram showing the target change discriminating unit 5 of the radar image processing apparatus according to Embodiment 1 of the present invention.
In FIG. 3, the amplitude determination unit 11 includes absolute values A 1 and A 2 of amplitudes of local regions in two radar images after the preprocessing by the preprocessing unit 3 and a preset amplitude threshold T 0 (to noise power). (Corresponding threshold values) are compared, and processing for determining whether or not the absolute values A 1 and A 2 of the amplitudes are larger than the amplitude threshold value T 0 is performed.

第1の差分値判定部12は振幅判定部11の判定結果が、振幅の絶対値A1,A2のうち、少なくとも一方が振幅閾値T0より大きい旨を示していれば、指標計算処理部4により算出された平均規格化散乱強度差分値Cと予め設定されている差分値閾値T1(上限側の閾値)を比較して、その平均規格化散乱強度差分値Cが差分値閾値T1より大きいか否かを判定する処理を実施する。
目標消失認定部13は第1の差分値判定部12の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T1より大きい旨を示していれば、目標の消失を認定する処理を実施する。
If the determination result of the amplitude determination unit 11 indicates that at least one of the amplitude absolute values A 1 and A 2 is greater than the amplitude threshold T 0, the first difference value determination unit 12 is an index calculation processing unit. The average normalized scattering intensity difference value C calculated in step 4 is compared with a preset difference value threshold value T 1 (upper limit side threshold value), and the average normalized scattering intensity difference value C is determined as the difference value threshold value T 1. A process for determining whether or not the value is larger is performed.
If the determination result of the first difference value determination unit 12 indicates that the average normalized scattering intensity difference value C is greater than the difference value threshold T 1, the target disappearance recognition unit 13 performs a process for determining the disappearance of the target. carry out.

第2の差分値判定部14は振幅判定部11の判定結果が、振幅の絶対値A1,A2のうち、少なくとも一方が振幅閾値T0より大きい旨を示している場合において、第1の差分値判定部12の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T1より小さい旨を示している場合、指標計算処理部4により算出された平均規格化散乱強度差分値Cと予め設定されている差分値閾値T2(下限側の閾値)を比較して、その平均規格化散乱強度差分値Cが差分値閾値T2より小さいか否かを判定する処理を実施する。
目標出現認定部15は第2の差分値判定部14の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T2より小さい旨を示していれば、新たな目標の出現を認定する処理を実施する。
When the determination result of the amplitude determination unit 11 indicates that at least one of the absolute values A 1 and A 2 of the amplitude is greater than the amplitude threshold T 0, the second difference value determination unit 14 When the determination result of the difference value determination unit 12 indicates that the average normalized scattering intensity difference value C is smaller than the difference value threshold T 1 , the average normalized scattering intensity difference value C calculated by the index calculation processing unit 4 And a preset difference value threshold value T 2 (lower limit side threshold value) are compared to determine whether or not the average normalized scattering intensity difference value C is smaller than the difference value threshold value T 2 .
If the determination result of the second difference value determination unit 14 indicates that the average normalized scattering intensity difference value C is smaller than the difference value threshold T 2, the target appearance recognition unit 15 recognizes the appearance of a new target. Perform the process.

コヒーレンス判定部16は指標計算処理部4により算出された平均規格化散乱強度差分値Cが差分値閾値T2より大きく、かつ、差分値閾値T1より小さい場合、指標計算処理部4により算出されたコヒーレンスγと予め設定されているコヒーレンス閾値T3を比較して、そのコヒーレンスγがコヒーレンス閾値T3より大きいか否かを判定する処理を実施する。
微小移動認定部17はコヒーレンス判定部16の判定結果が、コヒーレンスγがコヒーレンス閾値T3より小さい旨を示していれば、目標の微小移動を認定する処理を実施する。
不動認定部18はコヒーレンス判定部16の判定結果が、コヒーレンスγがコヒーレンス閾値T3より大きい旨を示している場合、あるいは、振幅判定部11の判定結果が、振幅の絶対値A1,A2が振幅閾値T0より小さい旨を示している場合、目標の不動を認定する処理を実施する。
The coherence determination unit 16 is calculated by the index calculation processing unit 4 when the average normalized scattering intensity difference value C calculated by the index calculation processing unit 4 is larger than the difference value threshold T 2 and smaller than the difference value threshold T 1. The coherence γ is compared with a preset coherence threshold T 3 to determine whether or not the coherence γ is greater than the coherence threshold T 3 .
If the determination result of the coherence determination unit 16 indicates that the coherence γ is smaller than the coherence threshold T 3 , the minute movement authorization unit 17 performs a process of authorizing the target minute movement.
When the determination result of the coherence determination unit 16 indicates that the coherence γ is greater than the coherence threshold T 3 , or the determination result of the amplitude determination unit 11 indicates that the immobility recognition unit 18 indicates that the absolute values of amplitudes A 1 and A 2 If is showing the amplitude threshold T 0 is less than fact, it carries out a process to certify the stationary target.

次に動作について説明する。
位置合わせ処理部2は、レーダ画像格納部1により格納されている複数のレーダ画像の中から、同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の位置ずれを補償する(図2のステップST1)。
2枚のレーダ画像間の位置ずれの補償方法としては、例えば、各レーダ画像を生成する際のレーダ装置と観測領域の幾何学的な位置関係から2枚のレーダ画像間の位置ずれ量を算出し、その位置ずれ量に応じて少なくとも一方のレーダ画像を幾何補償(例えば、アフィン変換や写像関数を用いた幾何補償)することで、2枚のレーダ画像間の位置ずれを補償する方法がある。
Next, the operation will be described.
The alignment processing unit 2 acquires two radar images at different observation times for the same observation area from the plurality of radar images stored in the radar image storage unit 1, and obtains a value between the two radar images. The displacement is compensated (step ST1 in FIG. 2).
As a method for compensating for the positional deviation between two radar images, for example, the amount of positional deviation between the two radar images is calculated from the geometric positional relationship between the radar apparatus and the observation area when each radar image is generated. In addition, there is a method of compensating for a positional deviation between two radar images by geometrically compensating at least one of the radar images (for example, geometric compensation using an affine transformation or a mapping function) according to the positional deviation amount. .

ただし、観測領域が地表面である場合、レーダ装置を搭載しているプラットフォームに依存する距離ずれ、サンプリングずれ、幾何学的な影響によってチャープ状の複素信号が得られるなどの影響から、レーダ画像の領域毎の画像ずれの非線形性から周波数空間上の複素正弦波が一様でない場合がある。
このため、2枚のレーダ画像間の局所領域(例えば、散乱強度が高い点の近傍の小区間)の位置ずれに伴う複素正弦波を算出し、その複素正弦波を2次元逆フーリエ変換することで、レーダ画像の小区間毎に位置ずれ量を算出し、その位置ずれ量に応じて少なくとも一方のレーダ画像を幾何補償(例えば、アフィン変換や写像関数を用いたバイリニア、バイキュービック、sincの畳み込み内挿などの用途にあわせた各種補間処理)することで、2枚のレーダ画像間の位置ずれを補償する。
However, if the observation area is the ground surface, the radar image may be affected by the effects of distance deviation, sampling deviation, and chirp-like complex signals due to geometrical effects depending on the platform on which the radar device is installed. The complex sine wave in the frequency space may not be uniform due to the non-linearity of the image shift for each region.
For this reason, a complex sine wave accompanying a positional shift of a local region between two radar images (for example, a small section near a point with high scattering intensity) is calculated, and the complex sine wave is subjected to two-dimensional inverse Fourier transform. Thus, a positional deviation amount is calculated for each small section of the radar image, and at least one radar image is geometrically compensated according to the positional deviation amount (for example, bilinear, bicubic, sinc convolution using an affine transformation or a mapping function) By performing various interpolation processes in accordance with applications such as interpolation, the positional deviation between the two radar images is compensated.

前処理部3は、位置合わせ処理部2が2枚のレーダ画像間の位置ずれを補償すると、位置ずれ補償後の2枚のレーダ画像間のドップラー周波数差や幾何位相差を補償する前処理を実施する(ステップST2)。
ただし、観測領域から見た場合のレーダ装置の軌道と、レーダ装置におけるアンテナビームの走査とが全く同一であれば、前処理部3による前処理を省略してもよい。
When the registration processing unit 2 compensates for the positional deviation between the two radar images, the preprocessing unit 3 performs preprocessing for compensating for the Doppler frequency difference and the geometric phase difference between the two radar images after the positional deviation compensation. Implement (step ST2).
However, if the trajectory of the radar apparatus viewed from the observation region and the scanning of the antenna beam in the radar apparatus are exactly the same, the preprocessing by the preprocessing unit 3 may be omitted.

2枚のレーダ画像間のドップラー周波数差を補償するには、いわゆるスペクトルフィルタを適用する必要があり、スペクトルフィルタを適用するには、レーダ画像の座標毎にドップラー中心周波数を得る必要がある。
ドップラー中心周波数は、予め、観測領域とアンテナ位相中心の間の位置ベクトルに対するレーダ距離の変化率と、レーダ送信波長とから、幾何学的に算出するようにすればよい。
あるいは、レーダ画像に対して、アジマス方向にチャープ率αのチャープ信号を乗算するDeramp処理を実施し、アジマスドップラー周波数の帯域幅最小化や、同周波数の振幅を基準とする最適化問題の解として推定するようにしてもよい。
In order to compensate for the Doppler frequency difference between the two radar images, it is necessary to apply a so-called spectral filter. To apply the spectral filter, it is necessary to obtain the Doppler center frequency for each coordinate of the radar image.
The Doppler center frequency may be calculated in advance geometrically from the rate of change of the radar distance with respect to the position vector between the observation region and the antenna phase center and the radar transmission wavelength.
Alternatively, the radar image is subjected to a Deramp process for multiplying a chirp signal having a chirp rate α in the azimuth direction to minimize the bandwidth of the azimuth Doppler frequency or to solve an optimization problem based on the amplitude of the same frequency. You may make it estimate.

なお、合成開口処理時間が比較的長く、2次以上の多項式で、アジマスドップラー中心周波数が得られる場合には、1次のアジマスドップラー中心周波数多項式係数であるチャープ率αの最適化問題と同様に、逐次代入することで、その最適解を得ることが可能である。
言うまでもないが、スクイント観測によってレンジ方向に発生するレンジドップラー中心周波数の多項式係数も、アジマスドップラー中心周波数の推定と同様に導出することが可能である。
得られたドップラー中心周波数を瞬時周波数として、そのドップラー中心周波数に対して2πを乗算して時間積分し、その積分結果に対して虚数単位と“−1”を乗算し、その乗算結果を、ネイピア数を底とする指数関数の指数として、レーダ画像時間におけるDeramp関数が得られる。
If the synthetic aperture processing time is relatively long and the azimuth Doppler center frequency can be obtained with a second or higher order polynomial, the optimization problem of the chirp rate α, which is a first order azimuth Doppler center frequency polynomial coefficient, is obtained. The optimal solution can be obtained by sequentially substituting.
Needless to say, the polynomial coefficient of the range Doppler center frequency generated in the range direction by the squint observation can be derived in the same manner as the estimation of the azimuth Doppler center frequency.
Using the obtained Doppler center frequency as an instantaneous frequency, the Doppler center frequency is multiplied by 2π and time-integrated, the integration result is multiplied by an imaginary unit and “−1”, and the multiplication result is expressed as Napier. The Deramp function in the radar image time is obtained as the exponent of the exponential function with the number as a base.

前記Deramp関数をレーダ画像に乗算することでDeramp処理を実行する。
これにより、レーダ画像の2次元フーリエ変換後の中心周波数を1点に集約することが可能になるため、ここで共通するレーダ周波数帯域を抽出したり、共通しない帯域に0を乗算したり、メモリ上で0に置き換えたりすることで、スペクトルフィルタ処理を実施する。
なお、一般的にレーダ画像には窓関数が乗算されていることから、Deramp処理後に窓関数の逆数を乗算して窓関数を補償するようにしてもよいし、スペクトルフィルタ処理後に再度窓関数を乗算するようにしてもよい。
スペクトルフィルタ処理の後、いずれかのレーダ画像に対してDeramp関数の複素共役を乗算するReramp処理を実施することで、2枚のレーダ画像間のドップラー周波数差を補償する。
The Deramp process is executed by multiplying the radar image by the Deramp function.
As a result, the center frequency of the radar image after the two-dimensional Fourier transform can be collected at one point, so that a common radar frequency band can be extracted here, a non-common band can be multiplied by 0, Spectral filter processing is performed by replacing it with 0 above.
Since the radar image is generally multiplied by the window function, the window function may be compensated by multiplying the inverse of the window function after the Delamp process, or the window function may be re-applied after the spectrum filter process. You may make it multiply.
After the spectrum filtering process, a Reramp process for multiplying any radar image by a complex conjugate of the Deramp function is performed to compensate for a Doppler frequency difference between the two radar images.

2枚のレーダ画像間の幾何位相差は、いわゆる平面位相に相当し、コヒーレンスを劣化させる要因になるため、幾何位相差を除去する必要がある。
幾何位相差である平面位相(位相画像)は、各レーダ画像を生成する際のレーダ装置と観測領域の幾何学的な距離から算出することができる。即ち、位置ずれ補償後の2枚のレーダ画像の位相を2次元フーリエ変換することで推定することができる。
また、位置ずれ補償後の2枚のレーダ画像の同一の地形情報であるDEM(Digital Elevation Map)が得られている場合、そのDEMから平面位相(位相画像)をシミュレーションしてもよい。また、平面位相(位相画像)を同一の地形情報の干渉結果から得てもよい。
幾何位相差である平面位相(位相画像)を算出すると、その位相画像の複素共役をいずれかのレーダ画像に乗算することで、2枚のレーダ画像間の幾何位相差を補償する。
なお、幾何位相差である平面位相は、観測領域がある接平面を地表面の基準として幾何学的に除去してもよいし、地球の楕円体を地表面の基準としてレーダ観測の位相中心の座標を用いて幾何学的に除去してもよい。
The geometric phase difference between the two radar images corresponds to a so-called plane phase, and causes a deterioration in coherence, so it is necessary to remove the geometric phase difference.
The planar phase (phase image) that is the geometric phase difference can be calculated from the geometric distance between the radar apparatus and the observation area when each radar image is generated. That is, the phase of the two radar images after the positional deviation compensation can be estimated by performing a two-dimensional Fourier transform.
In addition, when a DEM (Digital Elevation Map) that is the same topographic information of two radar images after positional deviation compensation is obtained, a planar phase (phase image) may be simulated from the DEM. Moreover, you may obtain a plane phase (phase image) from the interference result of the same topographic information.
When a planar phase (phase image) that is a geometric phase difference is calculated, any radar image is multiplied by the complex conjugate of the phase image to compensate for the geometric phase difference between the two radar images.
The plane phase, which is the geometric phase difference, may be geometrically removed with the tangent plane where the observation area is located as the ground surface reference, or the phase center of the radar observation with the earth ellipsoid as the ground surface reference. You may remove geometrically using coordinates.

指標計算処理部4は、前処理部3による前処理後の2枚のレーダ画像を入力し、観測領域に存在している目標の変化に関連する指標として、2枚のレーダ画像間の相関を示すコヒーレンスγを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値Cを算出する。
以下、指標計算処理部4の処理内容を具体的に説明する。
The index calculation processing unit 4 inputs the two radar images after the preprocessing by the preprocessing unit 3, and calculates the correlation between the two radar images as an index related to the change of the target existing in the observation region. The coherence γ shown is calculated, and the average scattering intensity of each radar image is calculated, and an average normalized scattering intensity difference value C, which is a normalized value of the difference value between the two average scattering intensities, is calculated.
Hereinafter, the processing content of the index calculation processing unit 4 will be specifically described.

指標計算処理部4は、2枚のレーダ画像における局所領域内の画素値s1,s2を下記の式(1)に代入することで、コヒーレンスγを算出する(ステップST3)。

Figure 2014235155
式(1)において、s1は2枚のレーダ画像のうち、観測時刻t1のレーダ画像G1の局所領域内の画素値であり、s2は観測時刻t2のレーダ画像G2の局所領域内の画素値である。なお、本明細書において画素値と呼称する場合、レーダ画像特有の複素数値である場合を含むものとする。一方で、画素値の輝度値または絶対値と呼称した場合、それは画素値の絶対値をとった値と同一である。また、*は複素共役である。この実施の形態1では、説明の便宜上、観測時刻t1は、観測時刻t2より早い時刻であるとする。
式(1)の分子にある「s12 *」は、レーダ画像G1の局所領域内の画素値s1と、レーダ画像G2の局所領域内の画素値s2との内積を表している。 The index calculation processing unit 4 calculates the coherence γ by substituting the pixel values s 1 and s 2 in the local area in the two radar images into the following equation (1) (step ST3).
Figure 2014235155
In Expression (1), s 1 is a pixel value in the local region of the radar image G1 at the observation time t 1 out of the two radar images, and s 2 is in the local region of the radar image G2 at the observation time t 2 . Pixel value. In this specification, the term “pixel value” includes the case of a complex value unique to a radar image. On the other hand, when referred to as the luminance value or absolute value of the pixel value, it is the same as the value obtained by taking the absolute value of the pixel value. * Is a complex conjugate. In the first embodiment, for the convenience of explanation, it is assumed that the observation time t 1 is earlier than the observation time t 2 .
"S 1 s 2 *" on the molecule of formula (1) includes a pixel value s 1 in the local region of the radar image G1, represents the inner product of the pixel values s 2 in the local region of the radar image G2 .

ただし、コヒーレンスγを算出する際、局所領域の中に、信号対雑音電力比が低い領域が含まれている場合、真のコヒーレンスγの値は0に近くなる。このとき、コヒーレンスγの算出精度が劣化して、高い値にバイアスを持ってしまうことが知られている。
例えば、式(1)において、空間平均を行わずに、サンプル数L=1とした場合、常に、γ=1が成立する。
そこで、指標計算処理部4は、コヒーレンスγの算出精度の劣化を防止するため、画素値sの輝度値が所定の輝度値閾値より大きな画素の個数が所定数以上であるレーダ画像内の局所領域を探索し、その局所領域内の画素値sを用いて、コヒーレンスγを算出する。
However, when calculating the coherence γ, if the local region includes a region with a low signal-to-noise power ratio, the value of the true coherence γ is close to zero. At this time, it is known that the calculation accuracy of the coherence γ deteriorates and a bias is given to a high value.
For example, in Equation (1), when the number of samples L = 1 without performing spatial averaging, γ = 1 is always established.
Therefore, the index calculation processing unit 4 is a local region in the radar image in which the number of pixels in which the luminance value of the pixel value s is greater than a predetermined luminance value threshold is equal to or greater than a predetermined number in order to prevent deterioration in the calculation accuracy of the coherence γ. And the coherence γ is calculated using the pixel value s in the local region.

即ち、指標計算処理部4は、コヒーレンス推定窓内のサンプル数(局所領域の画素数)がLであるとき、輝度値sが輝度値閾値TLより高い画素の数Nが下記の式(2)を満足する局所領域を探索する。
N>ξL (2)
式(2)において、ξは予め設定されている係数(0<ξ≦1)である。
指標計算処理部4は、式(2)を満足する局所領域を探索すると、その局所領域内の画素値s1,s2を式(1)に代入することで、コヒーレンスγを算出する。
That is, when the number of samples in the coherence estimation window (the number of pixels in the local region) is L, the index calculation processing unit 4 determines that the number N of pixels whose luminance value s is higher than the luminance value threshold value T L is the following equation (2 ) Is searched for a local area satisfying
N> ξL (2)
In equation (2), ξ is a preset coefficient (0 <ξ ≦ 1).
When the index calculation processing unit 4 searches for a local region that satisfies the equation (2), the index calculation processing unit 4 substitutes the pixel values s 1 and s 2 in the local region into the equation (1) to calculate the coherence γ.

また、指標計算処理部4は、2枚のレーダ画像における局所領域内の画素値s1,s2を下記の式(3)に代入することで、平均規格化散乱強度差分値Cを算出する(ステップST4)。

Figure 2014235155
式(3)では、2次元ノルムの二乗を用いて、平均規格化散乱強度差分値Cを算出しているが、n次元ノルムを用いて(n≧3)、平均規格化散乱強度差分値Cを算出するようにしてもよい。
式(3)では、平均規格化散乱強度差分値Cは、−1〜+1の値をとるため、例えば、1−|C|として、コヒーレンスγと同じ値域を持つようにしてもよい。 Further, the index calculation processing unit 4 calculates the average normalized scattering intensity difference value C by substituting the pixel values s 1 and s 2 in the local region in the two radar images into the following equation (3). (Step ST4).
Figure 2014235155
In Expression (3), the average normalized scattering intensity difference value C is calculated using the square of the two-dimensional norm, but the average normalized scattering intensity difference value C is calculated using the n-dimensional norm (n ≧ 3). May be calculated.
In Expression (3), the average normalized scattering intensity difference value C takes a value of −1 to +1, and may have the same value range as the coherence γ, for example, as 1− | C |.

目標変化弁別部5は、指標計算処理部4がコヒーレンスγ及び平均規格化散乱強度差分値Cを算出すると、そのコヒーレンスγ及び平均規格化散乱強度差分値Cを用いて、観測領域における目標の変化を弁別する。
以下、目標変化弁別部5の処理内容を具体的に説明する。
When the index calculation processing unit 4 calculates the coherence γ and the average normalized scattering intensity difference value C, the target change discriminating unit 5 uses the coherence γ and the average normalized scattering intensity difference value C to change the target in the observation region. Discriminate.
Hereinafter, the processing content of the target change discrimination part 5 is demonstrated concretely.

目標変化弁別部5の振幅判定部11は、前処理部3による前処理後の2枚のレーダ画像G1,G2のうち、観測時刻t1のレーダ画像G1における局所領域の振幅の絶対値A1を算出する。
局所領域の振幅の絶対値A1として、例えば、その局所領域内の画素値s1の輝度値の平均値などを算出する。
ここでの局所領域は、指標計算処理部4により探索される局所領域と同じ領域であってもよいし、異なる領域であってもよい。
振幅判定部11は、観測時刻t1のレーダ画像G1における局所領域の振幅の絶対値A1を算出すると、その振幅の絶対値A1と予め設定されている振幅閾値T0(雑音電力に相当する閾値)を比較し、その振幅の絶対値A1が振幅閾値T0より大きいか否かを判定する(ステップST5)。
例えば、レーダ画像を構成する画素値sの輝度値が0〜255の値を取る場合、振幅閾値T0は、0〜255の中のいずれかの値に設定される。
The amplitude determining unit 11 of the target change discriminating unit 5 is the absolute value A 1 of the amplitude of the local region in the radar image G1 at the observation time t 1 out of the two radar images G1 and G2 after the preprocessing by the preprocessing unit 3. Is calculated.
As the absolute value A 1 of the amplitude of the local region, for example, an average value of luminance values of the pixel value s 1 in the local region is calculated.
The local region here may be the same region as the local region searched by the index calculation processing unit 4 or may be a different region.
When the amplitude determination unit 11 calculates the absolute value A 1 of the local region amplitude in the radar image G 1 at the observation time t 1 , the amplitude absolute value A 1 and a preset amplitude threshold T 0 (corresponding to noise power) To determine whether the absolute value A 1 of the amplitude is greater than the amplitude threshold T 0 (step ST5).
For example, when the luminance value of the pixel value s constituting the radar image takes a value from 0 to 255, the amplitude threshold T 0 is set to any value from 0 to 255.

また、振幅判定部11は、観測時刻t2のレーダ画像G2における局所領域の振幅の絶対値A2を算出する。
振幅判定部11は、観測時刻t2のレーダ画像G2における局所領域の振幅の絶対値A2を算出すると、その振幅の絶対値A2と振幅閾値T0を比較して、その振幅の絶対値A2が振幅閾値T0より大きいか否かを判定する(ステップST6)。
The amplitude judging section 11 calculates an absolute value A 2 of the amplitude of the local area in the radar image G2 of observation time t 2.
When the amplitude determination unit 11 calculates the absolute value A 2 of the amplitude of the local region in the radar image G2 at the observation time t 2 , the amplitude determination unit 11 compares the absolute value A 2 of the amplitude with the amplitude threshold value T 0 and calculates the absolute value of the amplitude. It is determined whether A 2 is larger than the amplitude threshold T 0 (step ST6).

第1の差分値判定部12は、振幅判定部11の判定結果が、振幅の絶対値A1,A2のうち、少なくとも一方が振幅閾値T0より大きい旨を示していれば、指標計算処理部4により算出された平均規格化散乱強度差分値Cと予め設定されている差分値閾値T1を比較して、その平均規格化散乱強度差分値Cが差分値閾値T1より大きいか否かを判定する(ステップST7)。差分値閾値T1は、予め、0〜1の中のいずれかの値に設定される。
目標消失認定部13は、第1の差分値判定部12の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T1より大きい旨を示していれば、観測領域から目標が消失している旨を認定する(ステップST8)。
If the determination result of the amplitude determination unit 11 indicates that at least one of the absolute values A 1 and A 2 of the amplitude is greater than the amplitude threshold T 0, the first difference value determination unit 12 performs index calculation processing. Part 4 by comparing the difference value thresholds T 1 which is set in advance as the average normalized scattering intensity difference value C calculated by, whether the average normalized scattering intensity difference value C is greater than the difference value thresholds T 1 Is determined (step ST7). The difference value threshold T 1 is set in advance to any value from 0 to 1 .
If the determination result of the first difference value determination unit 12 indicates that the average normalized scattering intensity difference value C is greater than the difference value threshold T 1 , the target disappearance recognition unit 13 disappears from the observation region. (Step ST8).

第2の差分値判定部14は、振幅判定部11の判定結果が、振幅の絶対値A1,A2のうち、少なくとも一方が振幅閾値T0より大きい旨を示している場合において、第1の差分値判定部12の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T1より小さい旨を示していれば、指標計算処理部4により算出された平均規格化散乱強度差分値Cと予め設定されている差分値閾値T2を比較して、その平均規格化散乱強度差分値Cが差分値閾値T2より小さいか否かを判定する(ステップST9)。差分値閾値T2は、予め、−1〜0の中のいずれかの値に設定される。
目標出現認定部15は、第2の差分値判定部14の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T2より小さい旨を示していれば、観測領域において、新たな目標が出現している旨を認定する(ステップST10)。
When the determination result of the amplitude determination unit 11 indicates that at least one of the absolute values A 1 and A 2 of the amplitude is greater than the amplitude threshold T 0, the second difference value determination unit 14 If the determination result of the difference value determination unit 12 indicates that the average normalized scattering intensity difference value C is smaller than the difference value threshold T 1, the average normalized scattering intensity difference value calculated by the index calculation processing unit 4 C is compared with a preset difference value threshold T 2 to determine whether or not the average normalized scattering intensity difference value C is smaller than the difference value threshold T 2 (step ST9). The difference value threshold T 2 is set in advance to any value in the range from −1 to 0.
If the determination result of the second difference value determination unit 14 indicates that the average normalized scattering intensity difference value C is smaller than the difference value threshold T 2 , the target appearance recognition unit 15 creates a new target in the observation region. Is recognized (step ST10).

コヒーレンス判定部16は、指標計算処理部4により算出された平均規格化散乱強度差分値Cが差分値閾値T2より大きく、かつ、差分値閾値T1より小さい場合(T2<C<T1)、指標計算処理部4により算出されたコヒーレンスγと予め設定されているコヒーレンス閾値T3を比較して、そのコヒーレンスγがコヒーレンス閾値T3より大きいか否かを判定する(ステップST11)。コヒーレンス閾値T3は、予め、0〜1の中のいずれかの値に設定される。
微小移動認定部17は、コヒーレンス判定部16の判定結果が、コヒーレンスγがコヒーレンス閾値T3より小さい旨を示していれば、観測領域内の目標が微小に移動又は変化している旨を認定する(ステップST12)。
The coherence determination unit 16 determines that the average normalized scattering intensity difference value C calculated by the index calculation processing unit 4 is larger than the difference value threshold T 2 and smaller than the difference value threshold T 1 (T 2 <C <T 1 ), The coherence γ calculated by the index calculation processing unit 4 is compared with a preset coherence threshold T 3 to determine whether the coherence γ is larger than the coherence threshold T 3 (step ST11). The coherence threshold T 3 is set in advance to any value from 0 to 1.
If the determination result of the coherence determination unit 16 indicates that the coherence γ is smaller than the coherence threshold T 3 , the minute movement recognition unit 17 recognizes that the target in the observation region has moved or changed slightly. (Step ST12).

不動認定部18は、コヒーレンス判定部16の判定結果が、コヒーレンスγがコヒーレンス閾値T3より大きい旨を示している場合、観測領域内の目標が全く動いていない旨を認定する(ステップST13)。
また、不動認定部18は、振幅判定部11の判定結果が、振幅の絶対値A1,A2が振幅閾値T0より小さい旨を示している場合にも、観測領域内の目標が全く動いていない旨を認定する(ステップST13)。
目標変化弁別部5の弁別結果は、出力格納部6により格納され、必要に応じてディスプレイなどの外部出力装置に出力される。
If the determination result of the coherence determination unit 16 indicates that the coherence γ is greater than the coherence threshold T 3 , the immobility recognition unit 18 recognizes that the target in the observation region is not moving at all (step ST13).
The immobility recognition unit 18 also moves the target in the observation region at all even when the determination result of the amplitude determination unit 11 indicates that the absolute values A 1 and A 2 of the amplitude are smaller than the amplitude threshold T 0. If not, it is certified (step ST13).
The discrimination result of the target change discriminating unit 5 is stored by the output storage unit 6, and is output to an external output device such as a display as necessary.

以上で明らかなように、この実施の形態1によれば、位置合わせ処理部2により位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスγを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値Cを算出する指標計算処理部4を設け、目標変化弁別部5が、指標計算処理部4により算出されたコヒーレンスγ及び平均規格化散乱強度差分値Cを用いて、観測領域における目標の変化を弁別するように構成したので、全観測領域に亘って一様な閾値を用いて、観測領域における目標の変化を弁別することができる効果を奏する。   As is apparent from the above, according to the first embodiment, the coherence γ indicating the correlation between the two radar images whose positional deviation has been compensated for by the alignment processing unit 2 is calculated, and the average of each radar image is calculated. An index calculation processing unit 4 that calculates the scattering intensity and calculates an average normalized scattering intensity difference value C that is a normalized value of the difference value between the two average scattering intensities is provided, and the target change discriminating unit 5 performs the index calculation processing. Using the coherence γ calculated by the unit 4 and the average normalized scattering intensity difference value C, it is configured to discriminate target changes in the observation region, so that a uniform threshold is used over the entire observation region, There is an effect that the change of the target in the observation region can be discriminated.

また、この実施の形態1によれば、指標計算処理部4が、画素値sの輝度値が所定の輝度値閾値より大きな画素の個数が所定数以上であるレーダ画像内の局所領域を探索し、その局所領域内の画素値sを用いて、コヒーレンスγを算出するように構成したので、バイアスが発生している領域を除外して、コヒーレンスγを算出することができるようになり、その結果、コヒーレンスγの算出精度の劣化を防止することができる効果を奏する。   Further, according to the first embodiment, the index calculation processing unit 4 searches for a local region in the radar image in which the number of pixels in which the luminance value of the pixel value s is greater than the predetermined luminance value threshold is equal to or greater than the predetermined number. Since the coherence γ is calculated using the pixel value s in the local region, the coherence γ can be calculated excluding the region where the bias is generated, and as a result, Thus, there is an effect that it is possible to prevent deterioration in calculation accuracy of the coherence γ.

さらに、この実施の形態1によれば、不動認定部18が、2枚のレーダ画像における局所領域の振幅が雑音電力より小さい場合、目標の不動を認定するように構成したので、例えば、アスファルトなどのような鏡面状であって、観測毎に変化が生じ難い観測領域を変化弁別対象から除外することができるようになり、その結果、信号対雑音電力比が低下しても、目標の変化を高精度に弁別することができる効果を奏する。   Further, according to the first embodiment, the immobility recognition unit 18 is configured to recognize the target immobility when the amplitude of the local region in the two radar images is smaller than the noise power. It is possible to exclude the observation area that is mirror-like and difficult to change at each observation from the change discrimination target, and as a result, even if the signal-to-noise power ratio is reduced, the target change There is an effect that can be discriminated with high accuracy.

なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。   In the present invention, any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.

1 レーダ画像格納部、2 位置合わせ処理部(位置ずれ補償手段)、3 前処理部(前処理手段)、4 指標計算処理部(目標変化関連指標算出手段)、5 目標変化弁別部(目標変化弁別手段)、6 出力格納部、11 振幅判定部、12 第1の差分値判定部、13 目標消失認定部、14 第2の差分値判定部、15 目標出現認定部、16 コヒーレンス判定部、17 微小移動認定部、18 不動認定部。   DESCRIPTION OF SYMBOLS 1 Radar image storage part, 2 Positioning process part (position shift compensation means), 3 Pre-processing part (Pre-processing means), 4 Index calculation process part (Target change related index calculation means), 5 Target change discrimination part (Target change) Discrimination means), 6 output storage unit, 11 amplitude determination unit, 12 first difference value determination unit, 13 target disappearance recognition unit, 14 second difference value determination unit, 15 target appearance determination unit, 16 coherence determination unit, 17 Micro movement certification part, 18 immobility certification part.

Claims (13)

同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の位置ずれを補償する位置ずれ補償手段と、
上記位置ずれ補償手段により位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値を算出する目標変化関連指標算出手段と、
上記目標変化関連指標算出手段により算出されたコヒーレンス及び平均規格化散乱強度差分値を用いて、上記観測領域における目標の変化を弁別する目標変化弁別手段と
を備えたレーダ画像処理装置。
Misalignment compensation means for acquiring two radar images at different observation times for the same observation region and compensating for misalignment between the two radar images;
The coherence indicating the correlation between the two radar images whose positional deviation has been compensated by the positional deviation compensation means is calculated, the average scattering intensity of each radar image is calculated, and the standard of the difference value between the two average scattering intensity is calculated. A target change related index calculating means for calculating an average normalized scattering intensity difference value which is a normalized value;
A radar image processing apparatus comprising: target change discriminating means for discriminating a change in a target in the observation region using the coherence calculated by the target change related index calculating means and the average normalized scattering intensity difference value.
目標変化弁別手段は、目標変化関連指標算出手段により算出された平均規格化散乱強度差分値が予め設定されている上限側の閾値より大きい場合、目標の消失を認定することを特徴とする請求項1記載のレーダ画像処理装置。   The target change discriminating means recognizes the disappearance of the target when the average normalized scattering intensity difference value calculated by the target change related index calculating means is larger than a preset upper limit side threshold value. The radar image processing apparatus according to 1. 目標変化弁別手段は、目標変化関連指標算出手段により算出された平均規格化散乱強度差分値が予め設定されている下限側の閾値より小さい場合、新たな目標の出現を認定することを特徴とする請求項1または請求項2記載のレーダ画像処理装置。   The target change discriminating means recognizes the appearance of a new target when the average normalized scattering intensity difference value calculated by the target change related index calculating means is smaller than a preset lower threshold value. The radar image processing apparatus according to claim 1 or 2. 目標変化弁別手段は、目標変化関連指標算出手段により算出された平均規格化散乱強度差分値が予め設定されている下限側の閾値より大きく、かつ、予め設定されている上限側の閾値より小さい場合、上記目標変化関連指標算出手段により算出されたコヒーレンスが予め設定されているコヒーレンス閾値より小さければ、目標の微小移動を認定し、上記コヒーレンスが上記コヒーレンス閾値より大きければ、目標の不動を認定することを特徴とする請求項1から請求項3のうちのいずれか1項記載のレーダ画像処理装置。   The target change discriminating means has a case where the average normalized scattering intensity difference value calculated by the target change related index calculating means is larger than a preset lower limit side threshold and smaller than a preset upper limit side threshold. If the coherence calculated by the target change related index calculating means is smaller than a preset coherence threshold, the minute movement of the target is recognized, and if the coherence is larger than the coherence threshold, the target immobility is recognized. The radar image processing apparatus according to any one of claims 1 to 3, wherein 目標変化弁別手段は、2枚のレーダ画像における局所領域の振幅が雑音電力程度の場合、目標の不動を認定することを特徴とする請求項1から請求項4のうちのいずれか1項記載のレーダ画像処理装置。   The target change discriminating means recognizes the immobility of the target when the amplitude of the local region in the two radar images is about noise power. Radar image processing device. 位置ずれ補償手段は、音波又は光波を用いて、レーダ画像を生成するレーダ装置から2枚のレーダ画像を取得することを特徴とする請求項1から請求項5のうちのいずれか1項記載のレーダ画像処理装置。   6. The position shift compensation means acquires two radar images from a radar device that generates a radar image using sound waves or light waves, according to any one of claims 1 to 5. Radar image processing device. 位置ずれ補償手段は、各レーダ画像を生成する際のレーダ装置と観測領域の幾何学的な位置関係から2枚のレーダ画像間の位置ずれ量を算出し、その位置ずれ量に応じて少なくとも一方のレーダ画像を幾何補償することで、2枚のレーダ画像間の位置ずれを補償することを特徴とする請求項6記載のレーダ画像処理装置。   The positional deviation compensation means calculates the positional deviation amount between the two radar images from the geometric positional relationship between the radar apparatus and the observation area when generating each radar image, and at least one of them is determined according to the positional deviation amount. The radar image processing apparatus according to claim 6, wherein a positional deviation between the two radar images is compensated by geometrically compensating the radar image. 位置ずれ補償手段は、2枚のレーダ画像間の局所領域の位置ずれに伴う複素正弦波から2枚のレーダ画像間の位置ずれ量を算出し、その位置ずれ量に応じて少なくとも一方のレーダ画像を幾何補償することで、2枚のレーダ画像間の位置ずれを補償することを特徴とする請求項6記載のレーダ画像処理装置。   The misregistration compensation means calculates a misregistration amount between the two radar images from a complex sine wave accompanying the misregistration of the local region between the two radar images, and at least one of the radar images according to the misregistration amount. The radar image processing apparatus according to claim 6, wherein the positional deviation between the two radar images is compensated by geometrically compensating for. 目標変化関連指標算出手段は、2枚のレーダ画像間の相関を示すコヒーレンスを算出する際、輝度値が所定の輝度値閾値より大きな画素の個数が所定数以上であるレーダ画像内の局所領域を探索し、上記局所領域内の画素値を用いて、コヒーレンスを算出することを特徴とする請求項1から請求項8のうちのいずれか1項記載のレーダ画像処理装置。   When calculating the coherence indicating the correlation between the two radar images, the target change related index calculating means calculates a local region in the radar image in which the number of pixels whose luminance value is greater than a predetermined luminance value threshold is a predetermined number or more. The radar image processing apparatus according to any one of claims 1 to 8, wherein search is performed, and coherence is calculated using a pixel value in the local region. 位置ずれ補償手段により位置ずれが補償された2枚のレーダ画像間のドップラー周波数差又は幾何位相差を補償する前処理を実施し、前処理後の2枚のレーダ画像を目標変化関連指標算出手段に出力する前処理手段を備えたことを特徴とする請求項1から請求項9のうちのいずれか1項記載のレーダ画像処理装置。   Pre-processing for compensating for the Doppler frequency difference or geometric phase difference between the two radar images whose positional deviation has been compensated by the positional deviation compensating means is performed, and the two radar images after the pre-processing are converted into target change related index calculating means. The radar image processing apparatus according to claim 1, further comprising pre-processing means for outputting the signal to 前処理手段は、各レーダ画像を生成する際のレーダ装置と観測領域の幾何学的な距離から位相画像を算出し、上記位相画像の複素共役をいずれかのレーダ画像に乗算することで、2枚のレーダ画像間の幾何位相差を補償することを特徴とする請求項10記載のレーダ画像処理装置。   The preprocessing means calculates a phase image from the geometric distance between the radar apparatus and the observation area when each radar image is generated, and multiplies one of the radar images by the complex conjugate of the phase image to The radar image processing apparatus according to claim 10, wherein a geometric phase difference between a plurality of radar images is compensated. 前処理手段は、位置ずれ補償手段により位置ずれが補償された2枚のレーダ画像の同一地形情報の干渉結果を示す位相画像、または、上記地形情報から算出される位相画像の複素共役をいずれかのレーダ画像に乗算することで、2枚のレーダ画像間の幾何位相差を補償することを特徴とする請求項10記載のレーダ画像処理装置。   The pre-processing means is either a phase image showing an interference result of the same terrain information of two radar images whose positional deviation is compensated by the positional deviation compensation means, or a complex conjugate of the phase image calculated from the terrain information. The radar image processing apparatus according to claim 10, wherein a geometric phase difference between the two radar images is compensated by multiplying the radar image. 位置ずれ補償手段が、同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の位置ずれを補償する位置ずれ補償処理ステップと、
目標変化関連指標算出手段が、上記位置ずれ補償処理ステップで位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値を算出する目標変化関連指標算出処理ステップと、
目標変化弁別手段が、上記目標変化関連指標算出処理ステップで算出されたコヒーレンス及び平均規格化散乱強度差分値を用いて、上記観測領域における目標の変化を弁別する目標変化弁別処理ステップと
を備えたレーダ画像処理方法。
A displacement compensation processing step in which the displacement compensation means acquires two radar images at different observation times for the same observation region, and compensates for the displacement between the two radar images;
The target change related index calculation means calculates coherence indicating the correlation between the two radar images whose positional deviation has been compensated in the positional deviation compensation processing step, calculates the average scattering intensity of each radar image, and calculates 2 A target change related index calculation processing step for calculating an average normalized scattering intensity difference value that is a normalized value of a difference value of two average scattering intensities;
The target change discriminating means comprises a target change discrimination processing step for discriminating changes in the target in the observation region using the coherence calculated in the target change related index calculation processing step and the average normalized scattering intensity difference value. Radar image processing method.
JP2013119085A 2013-06-05 2013-06-05 Radar image processing apparatus and radar image processing method Expired - Fee Related JP6292772B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013119085A JP6292772B2 (en) 2013-06-05 2013-06-05 Radar image processing apparatus and radar image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013119085A JP6292772B2 (en) 2013-06-05 2013-06-05 Radar image processing apparatus and radar image processing method

Publications (2)

Publication Number Publication Date
JP2014235155A true JP2014235155A (en) 2014-12-15
JP6292772B2 JP6292772B2 (en) 2018-03-14

Family

ID=52137958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013119085A Expired - Fee Related JP6292772B2 (en) 2013-06-05 2013-06-05 Radar image processing apparatus and radar image processing method

Country Status (1)

Country Link
JP (1) JP6292772B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016142714A (en) * 2015-02-05 2016-08-08 三菱電機株式会社 Radar image processing device and radar image processing method
JP5979336B1 (en) * 2015-08-06 2016-08-24 三菱電機株式会社 Image processing apparatus and image processing method
JP2018031741A (en) * 2016-08-26 2018-03-01 沖電気工業株式会社 Display device and display method
JP2020173213A (en) * 2019-04-12 2020-10-22 日本電気株式会社 Sonar image processing device, sonar image processing method, and program
CN114280613A (en) * 2022-03-08 2022-04-05 南京雷电信息技术有限公司 Method for generating ground mapping image of simulated airborne fire control radar based on DEM data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210036200A (en) 2019-09-25 2021-04-02 삼성전자주식회사 LiDAR device and operating method of the same

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60123787A (en) * 1983-12-08 1985-07-02 Toshiba Corp Imaging apparatus using aperature synthesis method
JP2006317304A (en) * 2005-05-13 2006-11-24 Mitsubishi Heavy Ind Ltd Monitor device
WO2008016034A1 (en) * 2006-08-01 2008-02-07 Pasco Corporation Map information update supporting device, map information update supporting method, computer-readable recording medium
WO2008016153A1 (en) * 2006-08-03 2008-02-07 Pasco Corporation Disaster countermeasure support method
JP2008046107A (en) * 2006-07-21 2008-02-28 Pasuko:Kk Method and apparatus for radar image processing
JP2010117327A (en) * 2008-11-14 2010-05-27 Pasuko:Kk Vegetation growth condition analysis method, program, and vegetation growth condition analyzer
JP2011209780A (en) * 2010-03-29 2011-10-20 Mitsubishi Space Software Kk Change area specification device and change area specification program
JP2013084072A (en) * 2011-10-07 2013-05-09 Hitachi Ltd Land state estimation system and land state estimation method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60123787A (en) * 1983-12-08 1985-07-02 Toshiba Corp Imaging apparatus using aperature synthesis method
JP2006317304A (en) * 2005-05-13 2006-11-24 Mitsubishi Heavy Ind Ltd Monitor device
JP2008046107A (en) * 2006-07-21 2008-02-28 Pasuko:Kk Method and apparatus for radar image processing
WO2008016034A1 (en) * 2006-08-01 2008-02-07 Pasco Corporation Map information update supporting device, map information update supporting method, computer-readable recording medium
WO2008016153A1 (en) * 2006-08-03 2008-02-07 Pasco Corporation Disaster countermeasure support method
JP2010117327A (en) * 2008-11-14 2010-05-27 Pasuko:Kk Vegetation growth condition analysis method, program, and vegetation growth condition analyzer
JP2011209780A (en) * 2010-03-29 2011-10-20 Mitsubishi Space Software Kk Change area specification device and change area specification program
JP2013084072A (en) * 2011-10-07 2013-05-09 Hitachi Ltd Land state estimation system and land state estimation method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016142714A (en) * 2015-02-05 2016-08-08 三菱電機株式会社 Radar image processing device and radar image processing method
JP5979336B1 (en) * 2015-08-06 2016-08-24 三菱電機株式会社 Image processing apparatus and image processing method
WO2017022123A1 (en) * 2015-08-06 2017-02-09 三菱電機株式会社 Image processing device and image processing method
JP2018031741A (en) * 2016-08-26 2018-03-01 沖電気工業株式会社 Display device and display method
JP2020173213A (en) * 2019-04-12 2020-10-22 日本電気株式会社 Sonar image processing device, sonar image processing method, and program
JP7259503B2 (en) 2019-04-12 2023-04-18 日本電気株式会社 Sonar image processing device, sonar image processing method and program
CN114280613A (en) * 2022-03-08 2022-04-05 南京雷电信息技术有限公司 Method for generating ground mapping image of simulated airborne fire control radar based on DEM data

Also Published As

Publication number Publication date
JP6292772B2 (en) 2018-03-14

Similar Documents

Publication Publication Date Title
JP6292772B2 (en) Radar image processing apparatus and radar image processing method
US10234561B2 (en) Specular reflection removal in time-of-flight camera apparatus
JP5404773B2 (en) Stereo image processing apparatus and stereo image processing method
Wang et al. SRMF-CLEAN imaging algorithm for space debris
CN106772369B (en) A kind of three-D imaging method based on multi-angle of view imaging
US8937849B1 (en) Auto-focus for circular synthetic aperture sonar
CN105180852B (en) GB SAR deformation monitoring methods based on triple steppings
Kuz’kin et al. Resolving power of the interferometric method of source localization
JP4862816B2 (en) Image correspondence point search device, distance measuring device and image motion detection device using the same
Serafino SAR image coregistration based on isolated point scatterers
JP6279193B2 (en) Object detection device and sensor device
US10921441B2 (en) Synthetic aperture radar signal processing device
CN104155653B (en) SAR back projection imaging method based on feature distance subspace
KR101854573B1 (en) Apparatus for cross-range scaling of isar image usnig radon transform and projection and method thereof
JP6278910B2 (en) Radar image processing apparatus and radar image processing method
CN104459634A (en) Interferometric phase truth value computing method for UWB InSAR
JP4980129B2 (en) Image radar device
EP1198757B1 (en) Correlation analysis in the phase domain
Zhao et al. Improved maximum likelihood estimation for optimal phase history retrieval of distributed scatterers in InSAR stacks
JP5888153B2 (en) Image radar apparatus and signal processing apparatus
Wang et al. Interference image registration combined by enhanced scale-invariant feature transform characteristics and correlation coefficient
Liu et al. MTRC compensation in high-resolution ISAR imaging via improved polar format algorithm based on ICPF
JP2008256447A (en) Moving target detection apparatus
Totir et al. Superresolution algorithms for spatial extended scattering centers
Duan et al. A weighted eigenvector autofocus method for sparse-aperture ISAR imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180213

R150 Certificate of patent or registration of utility model

Ref document number: 6292772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees