JP2014235155A - Radar image processing apparatus and radar image processing method - Google Patents
Radar image processing apparatus and radar image processing method Download PDFInfo
- Publication number
- JP2014235155A JP2014235155A JP2013119085A JP2013119085A JP2014235155A JP 2014235155 A JP2014235155 A JP 2014235155A JP 2013119085 A JP2013119085 A JP 2013119085A JP 2013119085 A JP2013119085 A JP 2013119085A JP 2014235155 A JP2014235155 A JP 2014235155A
- Authority
- JP
- Japan
- Prior art keywords
- radar
- radar image
- target
- coherence
- scattering intensity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
この発明は、同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像から観測領域における目標の変化を弁別するレーダ画像処理装置及びレーダ画像処理方法に関するものである。 The present invention relates to a radar image processing apparatus and a radar image processing method for acquiring two radar images at different observation times for the same observation area and discriminating changes in a target in the observation area from the two radar images. .
観測領域における目標の変化を検出するレーダ画像処理装置が以下の特許文献1に開示されている。
このレーダ画像処理装置では、同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の相関を示すコヒーレンスを算出する。
このコヒーレンスは、2枚のレーダ画像が完全に一致する場合には“1”になり、2枚のレーダ画像間の差異が大きくなる程、“0”に近づく性質がある。
そこで、このレーダ画像処理装置は、そのコヒーレンスと所定の閾値を比較し、そのコヒーレンスが閾値より小さければ、2枚のレーダ画像の異なる取得時刻の間に生じている観測領域の時間的変化を検出する。
また、このレーダ画像処理装置は、2枚のレーダ画像間の散乱強度差分及び散乱強度差分の標準偏差を算出し、その散乱強度差分及び標準偏差をコヒーレンスと組み合わせて、観測領域の時間的変化を検出する。
A radar image processing apparatus that detects a change in a target in an observation region is disclosed in Patent Document 1 below.
In this radar image processing apparatus, two radar images at different observation times for the same observation area are acquired, and coherence indicating a correlation between the two radar images is calculated.
This coherence is “1” when two radar images completely match, and has a property of approaching “0” as the difference between the two radar images increases.
Therefore, this radar image processing apparatus compares the coherence with a predetermined threshold value, and if the coherence is smaller than the threshold value, detects a temporal change in the observation region occurring between different acquisition times of the two radar images. To do.
Further, this radar image processing apparatus calculates a scattering intensity difference between two radar images and a standard deviation of the scattering intensity difference, and combines the scattering intensity difference and the standard deviation with coherence to change temporal changes in the observation region. To detect.
従来のレーダ画像処理装置は以上のように構成されているので、2枚のレーダ画像間の散乱強度差分及び散乱強度差分の標準偏差を用いて、観測領域の時間的変化を検出しているが、一般的にレーダ画像はダイナミックレンジが大きいため、散乱強度差分や標準偏差値が観測領域毎に大幅に揺らぐことがある。このため、観測領域の地理情報や光学画像情報などを取得し、これらの情報を用いて、観測領域毎に異なる閾値を設定する必要がある課題があった。
また、観測領域の時間的変化を検出することができても、その観測領域における新たな目標の出現、目標の消失、目標の微小移動などを弁別することができない課題があった。
また、信号対雑音電力比(SNR:Signal to Noise Ratio)が低下して、2枚のレーダ画像間の相関が低下すると、時間的変化の検出精度が低下してしまう課題があった。
Since the conventional radar image processing apparatus is configured as described above, the temporal change in the observation region is detected using the scattering intensity difference between the two radar images and the standard deviation of the scattering intensity difference. In general, since the radar image has a large dynamic range, the difference in scattering intensity and the standard deviation value may fluctuate greatly for each observation region. For this reason, there has been a problem that it is necessary to acquire geographical information, optical image information, and the like of the observation area, and to set different threshold values for each observation area using the information.
In addition, even if the temporal change of the observation area can be detected, there is a problem that the appearance of a new target, the disappearance of the target, the minute movement of the target, and the like cannot be distinguished.
In addition, when the signal-to-noise power ratio (SNR) decreases and the correlation between two radar images decreases, there is a problem that the detection accuracy of temporal changes decreases.
この発明は上記のような課題を解決するためになされたもので、全観測領域に亘って一様な閾値を用いて、観測領域における目標の変化を弁別することができるレーダ画像処理装置及びレーダ画像処理方法を得ることを目的とする。
また、この発明は、信号対雑音電力比が低下しても、目標の変化を高精度に弁別することができるレーダ画像処理装置を得ることを目的とする。
The present invention has been made to solve the above-described problems, and a radar image processing apparatus and a radar capable of discriminating a change in a target in an observation region using a uniform threshold value over the entire observation region. An object is to obtain an image processing method.
It is another object of the present invention to provide a radar image processing apparatus that can discriminate target changes with high accuracy even when the signal-to-noise power ratio is lowered.
この発明に係るレーダ画像処理装置は、同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の位置ずれを補償する位置ずれ補償手段と、位置ずれ補償手段により位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値を算出する目標変化関連指標算出手段とを設け、目標変化弁別手段が、目標変化関連指標算出手段により算出されたコヒーレンス及び平均規格化散乱強度差分値を用いて、観測領域における目標の変化を弁別するようにしたものである。 A radar image processing apparatus according to the present invention acquires two radar images at different observation times for the same observation area, and compensates for a positional deviation between the two radar images, and a positional deviation compensation means. The coherence indicating the correlation between the two radar images whose positional deviation is compensated by calculating the average scatter intensity of each radar image and calculating the average of the difference values of the two average scatter intensity A target change-related index calculating means for calculating a normalized scattering intensity difference value, and the target change discriminating means uses the coherence calculated by the target change-related index calculating means and the average normalized scattering intensity difference value to It is intended to discriminate changes in the target.
この発明によれば、位置ずれ補償手段により位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値を算出する目標変化関連指標算出手段を設け、目標変化弁別手段が、目標変化関連指標算出手段により算出されたコヒーレンス及び平均規格化散乱強度差分値を用いて、観測領域における目標の変化を弁別するように構成したので、全観測領域に亘って一様な閾値を用いて、観測領域における目標の変化を弁別することができる効果がある。 According to the present invention, the coherence indicating the correlation between the two radar images whose positional deviation has been compensated for by the positional deviation compensation means is calculated, and the average scattering intensity of each radar image is calculated to obtain the two average scattering intensities. The target change related index calculating means for calculating the average normalized scattering intensity difference value, which is the normalized value of the difference value, is provided, and the target change discriminating means includes the coherence and average normalized scattering calculated by the target change related index calculating means. Since it is configured to discriminate changes in the target in the observation region using the intensity difference value, there is an effect that it is possible to discriminate the change in the target in the observation region using a uniform threshold value over the entire observation region. is there.
実施の形態1.
図1はこの発明の実施の形態1によるレーダ画像処理装置を示す構成図である。
図1において、レーダ画像格納部1は例えばRAMやハードディスクなどの記憶装置から構成されており、図示せぬレーダ装置により生成された複数のレーダ画像(同一の観測領域に対する異なる観測時刻のレーダ画像)を格納している。
レーダ装置の種類は特に問わないが、音波を送受信する音波レーダ装置や、光波を送受信する光波レーダ装置などが考えられる。
Embodiment 1 FIG.
1 is a block diagram showing a radar image processing apparatus according to Embodiment 1 of the present invention.
In FIG. 1, a radar image storage unit 1 is constituted by a storage device such as a RAM or a hard disk, and a plurality of radar images (radar images at different observation times for the same observation region) generated by a radar device (not shown). Is stored.
The type of the radar device is not particularly limited, and a sound wave radar device that transmits and receives sound waves, a light wave radar device that transmits and receives light waves, and the like are conceivable.
位置合わせ処理部2は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、レーダ画像格納部1から同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の位置ずれを補償する処理を実施する。なお、位置合わせ処理部2は位置ずれ補償手段を構成している。
前処理部3は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、位置合わせ処理部2により位置ずれが補償された2枚のレーダ画像間のドップラー周波数差や幾何位相差を補償する前処理を実施する。なお、前処理部3は前処理手段を構成している。
The
The preprocessing unit 3 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and a Doppler frequency difference between two radar images whose positional deviation is compensated by the
指標計算処理部4は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、前処理部3による前処理後の2枚のレーダ画像間の相関を示すコヒーレンスγを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値Cを算出する処理を実施する。なお、指標計算処理部4は目標変化関連指標算出手段を構成している。
目標変化弁別部5は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、指標計算処理部4により算出されたコヒーレンスγ及び平均規格化散乱強度差分値Cを用いて、観測領域における目標の変化を弁別する処理を実施する。なお、目標変化弁別部5は目標変化弁別手段を構成している。
出力格納部6は例えばRAMやハードディスクなどの記憶装置から構成されており、目標変化弁別部5の弁別結果を格納する。
The index
The target change
The
図1の例では、レーダ画像処理装置の構成要素であるレーダ画像格納部1、位置合わせ処理部2、前処理部3、指標計算処理部4、目標変化弁別部5及び出力格納部6のそれぞれが専用のハードウェアで構成されているものを想定しているが、レーダ画像処理装置がコンピュータで構成されていてもよい。
レーダ画像処理装置がコンピュータで構成されている場合、レーダ画像格納部1及び出力格納部6をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、位置合わせ処理部2、前処理部3、指標計算処理部4及び目標変化弁別部5の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図2はこの発明の実施の形態1によるレーダ画像処理装置の処理内容(レーダ画像処理方法)を示すフローチャートである。
In the example of FIG. 1, each of the radar image storage unit 1, the
When the radar image processing apparatus is configured by a computer, the radar image storage unit 1 and the
FIG. 2 is a flowchart showing the processing contents (radar image processing method) of the radar image processing apparatus according to the first embodiment of the present invention.
図3はこの発明の実施の形態1によるレーダ画像処理装置の目標変化弁別部5を示す構成図である。
図3において、振幅判定部11は前処理部3による前処理後の2枚のレーダ画像における局所領域の振幅の絶対値A1,A2と予め設定されている振幅閾値T0(雑音電力に相当する閾値)を比較して、その振幅の絶対値A1,A2が振幅閾値T0より大きいか否かを判定する処理を実施する。
FIG. 3 is a block diagram showing the target change
In FIG. 3, the
第1の差分値判定部12は振幅判定部11の判定結果が、振幅の絶対値A1,A2のうち、少なくとも一方が振幅閾値T0より大きい旨を示していれば、指標計算処理部4により算出された平均規格化散乱強度差分値Cと予め設定されている差分値閾値T1(上限側の閾値)を比較して、その平均規格化散乱強度差分値Cが差分値閾値T1より大きいか否かを判定する処理を実施する。
目標消失認定部13は第1の差分値判定部12の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T1より大きい旨を示していれば、目標の消失を認定する処理を実施する。
If the determination result of the
If the determination result of the first difference
第2の差分値判定部14は振幅判定部11の判定結果が、振幅の絶対値A1,A2のうち、少なくとも一方が振幅閾値T0より大きい旨を示している場合において、第1の差分値判定部12の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T1より小さい旨を示している場合、指標計算処理部4により算出された平均規格化散乱強度差分値Cと予め設定されている差分値閾値T2(下限側の閾値)を比較して、その平均規格化散乱強度差分値Cが差分値閾値T2より小さいか否かを判定する処理を実施する。
目標出現認定部15は第2の差分値判定部14の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T2より小さい旨を示していれば、新たな目標の出現を認定する処理を実施する。
When the determination result of the
If the determination result of the second difference
コヒーレンス判定部16は指標計算処理部4により算出された平均規格化散乱強度差分値Cが差分値閾値T2より大きく、かつ、差分値閾値T1より小さい場合、指標計算処理部4により算出されたコヒーレンスγと予め設定されているコヒーレンス閾値T3を比較して、そのコヒーレンスγがコヒーレンス閾値T3より大きいか否かを判定する処理を実施する。
微小移動認定部17はコヒーレンス判定部16の判定結果が、コヒーレンスγがコヒーレンス閾値T3より小さい旨を示していれば、目標の微小移動を認定する処理を実施する。
不動認定部18はコヒーレンス判定部16の判定結果が、コヒーレンスγがコヒーレンス閾値T3より大きい旨を示している場合、あるいは、振幅判定部11の判定結果が、振幅の絶対値A1,A2が振幅閾値T0より小さい旨を示している場合、目標の不動を認定する処理を実施する。
The
If the determination result of the
When the determination result of the
次に動作について説明する。
位置合わせ処理部2は、レーダ画像格納部1により格納されている複数のレーダ画像の中から、同一の観測領域に対する異なる観測時刻の2枚のレーダ画像を取得し、2枚のレーダ画像間の位置ずれを補償する(図2のステップST1)。
2枚のレーダ画像間の位置ずれの補償方法としては、例えば、各レーダ画像を生成する際のレーダ装置と観測領域の幾何学的な位置関係から2枚のレーダ画像間の位置ずれ量を算出し、その位置ずれ量に応じて少なくとも一方のレーダ画像を幾何補償(例えば、アフィン変換や写像関数を用いた幾何補償)することで、2枚のレーダ画像間の位置ずれを補償する方法がある。
Next, the operation will be described.
The
As a method for compensating for the positional deviation between two radar images, for example, the amount of positional deviation between the two radar images is calculated from the geometric positional relationship between the radar apparatus and the observation area when each radar image is generated. In addition, there is a method of compensating for a positional deviation between two radar images by geometrically compensating at least one of the radar images (for example, geometric compensation using an affine transformation or a mapping function) according to the positional deviation amount. .
ただし、観測領域が地表面である場合、レーダ装置を搭載しているプラットフォームに依存する距離ずれ、サンプリングずれ、幾何学的な影響によってチャープ状の複素信号が得られるなどの影響から、レーダ画像の領域毎の画像ずれの非線形性から周波数空間上の複素正弦波が一様でない場合がある。
このため、2枚のレーダ画像間の局所領域(例えば、散乱強度が高い点の近傍の小区間)の位置ずれに伴う複素正弦波を算出し、その複素正弦波を2次元逆フーリエ変換することで、レーダ画像の小区間毎に位置ずれ量を算出し、その位置ずれ量に応じて少なくとも一方のレーダ画像を幾何補償(例えば、アフィン変換や写像関数を用いたバイリニア、バイキュービック、sincの畳み込み内挿などの用途にあわせた各種補間処理)することで、2枚のレーダ画像間の位置ずれを補償する。
However, if the observation area is the ground surface, the radar image may be affected by the effects of distance deviation, sampling deviation, and chirp-like complex signals due to geometrical effects depending on the platform on which the radar device is installed. The complex sine wave in the frequency space may not be uniform due to the non-linearity of the image shift for each region.
For this reason, a complex sine wave accompanying a positional shift of a local region between two radar images (for example, a small section near a point with high scattering intensity) is calculated, and the complex sine wave is subjected to two-dimensional inverse Fourier transform. Thus, a positional deviation amount is calculated for each small section of the radar image, and at least one radar image is geometrically compensated according to the positional deviation amount (for example, bilinear, bicubic, sinc convolution using an affine transformation or a mapping function) By performing various interpolation processes in accordance with applications such as interpolation, the positional deviation between the two radar images is compensated.
前処理部3は、位置合わせ処理部2が2枚のレーダ画像間の位置ずれを補償すると、位置ずれ補償後の2枚のレーダ画像間のドップラー周波数差や幾何位相差を補償する前処理を実施する(ステップST2)。
ただし、観測領域から見た場合のレーダ装置の軌道と、レーダ装置におけるアンテナビームの走査とが全く同一であれば、前処理部3による前処理を省略してもよい。
When the
However, if the trajectory of the radar apparatus viewed from the observation region and the scanning of the antenna beam in the radar apparatus are exactly the same, the preprocessing by the preprocessing unit 3 may be omitted.
2枚のレーダ画像間のドップラー周波数差を補償するには、いわゆるスペクトルフィルタを適用する必要があり、スペクトルフィルタを適用するには、レーダ画像の座標毎にドップラー中心周波数を得る必要がある。
ドップラー中心周波数は、予め、観測領域とアンテナ位相中心の間の位置ベクトルに対するレーダ距離の変化率と、レーダ送信波長とから、幾何学的に算出するようにすればよい。
あるいは、レーダ画像に対して、アジマス方向にチャープ率αのチャープ信号を乗算するDeramp処理を実施し、アジマスドップラー周波数の帯域幅最小化や、同周波数の振幅を基準とする最適化問題の解として推定するようにしてもよい。
In order to compensate for the Doppler frequency difference between the two radar images, it is necessary to apply a so-called spectral filter. To apply the spectral filter, it is necessary to obtain the Doppler center frequency for each coordinate of the radar image.
The Doppler center frequency may be calculated in advance geometrically from the rate of change of the radar distance with respect to the position vector between the observation region and the antenna phase center and the radar transmission wavelength.
Alternatively, the radar image is subjected to a Deramp process for multiplying a chirp signal having a chirp rate α in the azimuth direction to minimize the bandwidth of the azimuth Doppler frequency or to solve an optimization problem based on the amplitude of the same frequency. You may make it estimate.
なお、合成開口処理時間が比較的長く、2次以上の多項式で、アジマスドップラー中心周波数が得られる場合には、1次のアジマスドップラー中心周波数多項式係数であるチャープ率αの最適化問題と同様に、逐次代入することで、その最適解を得ることが可能である。
言うまでもないが、スクイント観測によってレンジ方向に発生するレンジドップラー中心周波数の多項式係数も、アジマスドップラー中心周波数の推定と同様に導出することが可能である。
得られたドップラー中心周波数を瞬時周波数として、そのドップラー中心周波数に対して2πを乗算して時間積分し、その積分結果に対して虚数単位と“−1”を乗算し、その乗算結果を、ネイピア数を底とする指数関数の指数として、レーダ画像時間におけるDeramp関数が得られる。
If the synthetic aperture processing time is relatively long and the azimuth Doppler center frequency can be obtained with a second or higher order polynomial, the optimization problem of the chirp rate α, which is a first order azimuth Doppler center frequency polynomial coefficient, is obtained. The optimal solution can be obtained by sequentially substituting.
Needless to say, the polynomial coefficient of the range Doppler center frequency generated in the range direction by the squint observation can be derived in the same manner as the estimation of the azimuth Doppler center frequency.
Using the obtained Doppler center frequency as an instantaneous frequency, the Doppler center frequency is multiplied by 2π and time-integrated, the integration result is multiplied by an imaginary unit and “−1”, and the multiplication result is expressed as Napier. The Deramp function in the radar image time is obtained as the exponent of the exponential function with the number as a base.
前記Deramp関数をレーダ画像に乗算することでDeramp処理を実行する。
これにより、レーダ画像の2次元フーリエ変換後の中心周波数を1点に集約することが可能になるため、ここで共通するレーダ周波数帯域を抽出したり、共通しない帯域に0を乗算したり、メモリ上で0に置き換えたりすることで、スペクトルフィルタ処理を実施する。
なお、一般的にレーダ画像には窓関数が乗算されていることから、Deramp処理後に窓関数の逆数を乗算して窓関数を補償するようにしてもよいし、スペクトルフィルタ処理後に再度窓関数を乗算するようにしてもよい。
スペクトルフィルタ処理の後、いずれかのレーダ画像に対してDeramp関数の複素共役を乗算するReramp処理を実施することで、2枚のレーダ画像間のドップラー周波数差を補償する。
The Deramp process is executed by multiplying the radar image by the Deramp function.
As a result, the center frequency of the radar image after the two-dimensional Fourier transform can be collected at one point, so that a common radar frequency band can be extracted here, a non-common band can be multiplied by 0, Spectral filter processing is performed by replacing it with 0 above.
Since the radar image is generally multiplied by the window function, the window function may be compensated by multiplying the inverse of the window function after the Delamp process, or the window function may be re-applied after the spectrum filter process. You may make it multiply.
After the spectrum filtering process, a Reramp process for multiplying any radar image by a complex conjugate of the Deramp function is performed to compensate for a Doppler frequency difference between the two radar images.
2枚のレーダ画像間の幾何位相差は、いわゆる平面位相に相当し、コヒーレンスを劣化させる要因になるため、幾何位相差を除去する必要がある。
幾何位相差である平面位相(位相画像)は、各レーダ画像を生成する際のレーダ装置と観測領域の幾何学的な距離から算出することができる。即ち、位置ずれ補償後の2枚のレーダ画像の位相を2次元フーリエ変換することで推定することができる。
また、位置ずれ補償後の2枚のレーダ画像の同一の地形情報であるDEM(Digital Elevation Map)が得られている場合、そのDEMから平面位相(位相画像)をシミュレーションしてもよい。また、平面位相(位相画像)を同一の地形情報の干渉結果から得てもよい。
幾何位相差である平面位相(位相画像)を算出すると、その位相画像の複素共役をいずれかのレーダ画像に乗算することで、2枚のレーダ画像間の幾何位相差を補償する。
なお、幾何位相差である平面位相は、観測領域がある接平面を地表面の基準として幾何学的に除去してもよいし、地球の楕円体を地表面の基準としてレーダ観測の位相中心の座標を用いて幾何学的に除去してもよい。
The geometric phase difference between the two radar images corresponds to a so-called plane phase, and causes a deterioration in coherence, so it is necessary to remove the geometric phase difference.
The planar phase (phase image) that is the geometric phase difference can be calculated from the geometric distance between the radar apparatus and the observation area when each radar image is generated. That is, the phase of the two radar images after the positional deviation compensation can be estimated by performing a two-dimensional Fourier transform.
In addition, when a DEM (Digital Elevation Map) that is the same topographic information of two radar images after positional deviation compensation is obtained, a planar phase (phase image) may be simulated from the DEM. Moreover, you may obtain a plane phase (phase image) from the interference result of the same topographic information.
When a planar phase (phase image) that is a geometric phase difference is calculated, any radar image is multiplied by the complex conjugate of the phase image to compensate for the geometric phase difference between the two radar images.
The plane phase, which is the geometric phase difference, may be geometrically removed with the tangent plane where the observation area is located as the ground surface reference, or the phase center of the radar observation with the earth ellipsoid as the ground surface reference. You may remove geometrically using coordinates.
指標計算処理部4は、前処理部3による前処理後の2枚のレーダ画像を入力し、観測領域に存在している目標の変化に関連する指標として、2枚のレーダ画像間の相関を示すコヒーレンスγを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値Cを算出する。
以下、指標計算処理部4の処理内容を具体的に説明する。
The index
Hereinafter, the processing content of the index
指標計算処理部4は、2枚のレーダ画像における局所領域内の画素値s1,s2を下記の式(1)に代入することで、コヒーレンスγを算出する(ステップST3)。
式(1)において、s1は2枚のレーダ画像のうち、観測時刻t1のレーダ画像G1の局所領域内の画素値であり、s2は観測時刻t2のレーダ画像G2の局所領域内の画素値である。なお、本明細書において画素値と呼称する場合、レーダ画像特有の複素数値である場合を含むものとする。一方で、画素値の輝度値または絶対値と呼称した場合、それは画素値の絶対値をとった値と同一である。また、*は複素共役である。この実施の形態1では、説明の便宜上、観測時刻t1は、観測時刻t2より早い時刻であるとする。
式(1)の分子にある「s1s2 *」は、レーダ画像G1の局所領域内の画素値s1と、レーダ画像G2の局所領域内の画素値s2との内積を表している。
The index
In Expression (1), s 1 is a pixel value in the local region of the radar image G1 at the observation time t 1 out of the two radar images, and s 2 is in the local region of the radar image G2 at the observation time t 2 . Pixel value. In this specification, the term “pixel value” includes the case of a complex value unique to a radar image. On the other hand, when referred to as the luminance value or absolute value of the pixel value, it is the same as the value obtained by taking the absolute value of the pixel value. * Is a complex conjugate. In the first embodiment, for the convenience of explanation, it is assumed that the observation time t 1 is earlier than the observation time t 2 .
"S 1 s 2 *" on the molecule of formula (1) includes a pixel value s 1 in the local region of the radar image G1, represents the inner product of the pixel values s 2 in the local region of the radar image G2 .
ただし、コヒーレンスγを算出する際、局所領域の中に、信号対雑音電力比が低い領域が含まれている場合、真のコヒーレンスγの値は0に近くなる。このとき、コヒーレンスγの算出精度が劣化して、高い値にバイアスを持ってしまうことが知られている。
例えば、式(1)において、空間平均を行わずに、サンプル数L=1とした場合、常に、γ=1が成立する。
そこで、指標計算処理部4は、コヒーレンスγの算出精度の劣化を防止するため、画素値sの輝度値が所定の輝度値閾値より大きな画素の個数が所定数以上であるレーダ画像内の局所領域を探索し、その局所領域内の画素値sを用いて、コヒーレンスγを算出する。
However, when calculating the coherence γ, if the local region includes a region with a low signal-to-noise power ratio, the value of the true coherence γ is close to zero. At this time, it is known that the calculation accuracy of the coherence γ deteriorates and a bias is given to a high value.
For example, in Equation (1), when the number of samples L = 1 without performing spatial averaging, γ = 1 is always established.
Therefore, the index
即ち、指標計算処理部4は、コヒーレンス推定窓内のサンプル数(局所領域の画素数)がLであるとき、輝度値sが輝度値閾値TLより高い画素の数Nが下記の式(2)を満足する局所領域を探索する。
N>ξL (2)
式(2)において、ξは予め設定されている係数(0<ξ≦1)である。
指標計算処理部4は、式(2)を満足する局所領域を探索すると、その局所領域内の画素値s1,s2を式(1)に代入することで、コヒーレンスγを算出する。
That is, when the number of samples in the coherence estimation window (the number of pixels in the local region) is L, the index
N> ξL (2)
In equation (2), ξ is a preset coefficient (0 <ξ ≦ 1).
When the index
また、指標計算処理部4は、2枚のレーダ画像における局所領域内の画素値s1,s2を下記の式(3)に代入することで、平均規格化散乱強度差分値Cを算出する(ステップST4)。
式(3)では、2次元ノルムの二乗を用いて、平均規格化散乱強度差分値Cを算出しているが、n次元ノルムを用いて(n≧3)、平均規格化散乱強度差分値Cを算出するようにしてもよい。
式(3)では、平均規格化散乱強度差分値Cは、−1〜+1の値をとるため、例えば、1−|C|として、コヒーレンスγと同じ値域を持つようにしてもよい。
Further, the index
In Expression (3), the average normalized scattering intensity difference value C is calculated using the square of the two-dimensional norm, but the average normalized scattering intensity difference value C is calculated using the n-dimensional norm (n ≧ 3). May be calculated.
In Expression (3), the average normalized scattering intensity difference value C takes a value of −1 to +1, and may have the same value range as the coherence γ, for example, as 1− | C |.
目標変化弁別部5は、指標計算処理部4がコヒーレンスγ及び平均規格化散乱強度差分値Cを算出すると、そのコヒーレンスγ及び平均規格化散乱強度差分値Cを用いて、観測領域における目標の変化を弁別する。
以下、目標変化弁別部5の処理内容を具体的に説明する。
When the index
Hereinafter, the processing content of the target
目標変化弁別部5の振幅判定部11は、前処理部3による前処理後の2枚のレーダ画像G1,G2のうち、観測時刻t1のレーダ画像G1における局所領域の振幅の絶対値A1を算出する。
局所領域の振幅の絶対値A1として、例えば、その局所領域内の画素値s1の輝度値の平均値などを算出する。
ここでの局所領域は、指標計算処理部4により探索される局所領域と同じ領域であってもよいし、異なる領域であってもよい。
振幅判定部11は、観測時刻t1のレーダ画像G1における局所領域の振幅の絶対値A1を算出すると、その振幅の絶対値A1と予め設定されている振幅閾値T0(雑音電力に相当する閾値)を比較し、その振幅の絶対値A1が振幅閾値T0より大きいか否かを判定する(ステップST5)。
例えば、レーダ画像を構成する画素値sの輝度値が0〜255の値を取る場合、振幅閾値T0は、0〜255の中のいずれかの値に設定される。
The
As the absolute value A 1 of the amplitude of the local region, for example, an average value of luminance values of the pixel value s 1 in the local region is calculated.
The local region here may be the same region as the local region searched by the index
When the
For example, when the luminance value of the pixel value s constituting the radar image takes a value from 0 to 255, the amplitude threshold T 0 is set to any value from 0 to 255.
また、振幅判定部11は、観測時刻t2のレーダ画像G2における局所領域の振幅の絶対値A2を算出する。
振幅判定部11は、観測時刻t2のレーダ画像G2における局所領域の振幅の絶対値A2を算出すると、その振幅の絶対値A2と振幅閾値T0を比較して、その振幅の絶対値A2が振幅閾値T0より大きいか否かを判定する(ステップST6)。
The
When the
第1の差分値判定部12は、振幅判定部11の判定結果が、振幅の絶対値A1,A2のうち、少なくとも一方が振幅閾値T0より大きい旨を示していれば、指標計算処理部4により算出された平均規格化散乱強度差分値Cと予め設定されている差分値閾値T1を比較して、その平均規格化散乱強度差分値Cが差分値閾値T1より大きいか否かを判定する(ステップST7)。差分値閾値T1は、予め、0〜1の中のいずれかの値に設定される。
目標消失認定部13は、第1の差分値判定部12の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T1より大きい旨を示していれば、観測領域から目標が消失している旨を認定する(ステップST8)。
If the determination result of the
If the determination result of the first difference
第2の差分値判定部14は、振幅判定部11の判定結果が、振幅の絶対値A1,A2のうち、少なくとも一方が振幅閾値T0より大きい旨を示している場合において、第1の差分値判定部12の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T1より小さい旨を示していれば、指標計算処理部4により算出された平均規格化散乱強度差分値Cと予め設定されている差分値閾値T2を比較して、その平均規格化散乱強度差分値Cが差分値閾値T2より小さいか否かを判定する(ステップST9)。差分値閾値T2は、予め、−1〜0の中のいずれかの値に設定される。
目標出現認定部15は、第2の差分値判定部14の判定結果が、平均規格化散乱強度差分値Cが差分値閾値T2より小さい旨を示していれば、観測領域において、新たな目標が出現している旨を認定する(ステップST10)。
When the determination result of the
If the determination result of the second difference
コヒーレンス判定部16は、指標計算処理部4により算出された平均規格化散乱強度差分値Cが差分値閾値T2より大きく、かつ、差分値閾値T1より小さい場合(T2<C<T1)、指標計算処理部4により算出されたコヒーレンスγと予め設定されているコヒーレンス閾値T3を比較して、そのコヒーレンスγがコヒーレンス閾値T3より大きいか否かを判定する(ステップST11)。コヒーレンス閾値T3は、予め、0〜1の中のいずれかの値に設定される。
微小移動認定部17は、コヒーレンス判定部16の判定結果が、コヒーレンスγがコヒーレンス閾値T3より小さい旨を示していれば、観測領域内の目標が微小に移動又は変化している旨を認定する(ステップST12)。
The
If the determination result of the
不動認定部18は、コヒーレンス判定部16の判定結果が、コヒーレンスγがコヒーレンス閾値T3より大きい旨を示している場合、観測領域内の目標が全く動いていない旨を認定する(ステップST13)。
また、不動認定部18は、振幅判定部11の判定結果が、振幅の絶対値A1,A2が振幅閾値T0より小さい旨を示している場合にも、観測領域内の目標が全く動いていない旨を認定する(ステップST13)。
目標変化弁別部5の弁別結果は、出力格納部6により格納され、必要に応じてディスプレイなどの外部出力装置に出力される。
If the determination result of the
The
The discrimination result of the target
以上で明らかなように、この実施の形態1によれば、位置合わせ処理部2により位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスγを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値Cを算出する指標計算処理部4を設け、目標変化弁別部5が、指標計算処理部4により算出されたコヒーレンスγ及び平均規格化散乱強度差分値Cを用いて、観測領域における目標の変化を弁別するように構成したので、全観測領域に亘って一様な閾値を用いて、観測領域における目標の変化を弁別することができる効果を奏する。
As is apparent from the above, according to the first embodiment, the coherence γ indicating the correlation between the two radar images whose positional deviation has been compensated for by the
また、この実施の形態1によれば、指標計算処理部4が、画素値sの輝度値が所定の輝度値閾値より大きな画素の個数が所定数以上であるレーダ画像内の局所領域を探索し、その局所領域内の画素値sを用いて、コヒーレンスγを算出するように構成したので、バイアスが発生している領域を除外して、コヒーレンスγを算出することができるようになり、その結果、コヒーレンスγの算出精度の劣化を防止することができる効果を奏する。
Further, according to the first embodiment, the index
さらに、この実施の形態1によれば、不動認定部18が、2枚のレーダ画像における局所領域の振幅が雑音電力より小さい場合、目標の不動を認定するように構成したので、例えば、アスファルトなどのような鏡面状であって、観測毎に変化が生じ難い観測領域を変化弁別対象から除外することができるようになり、その結果、信号対雑音電力比が低下しても、目標の変化を高精度に弁別することができる効果を奏する。
Further, according to the first embodiment, the
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。 In the present invention, any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.
1 レーダ画像格納部、2 位置合わせ処理部(位置ずれ補償手段)、3 前処理部(前処理手段)、4 指標計算処理部(目標変化関連指標算出手段)、5 目標変化弁別部(目標変化弁別手段)、6 出力格納部、11 振幅判定部、12 第1の差分値判定部、13 目標消失認定部、14 第2の差分値判定部、15 目標出現認定部、16 コヒーレンス判定部、17 微小移動認定部、18 不動認定部。 DESCRIPTION OF SYMBOLS 1 Radar image storage part, 2 Positioning process part (position shift compensation means), 3 Pre-processing part (Pre-processing means), 4 Index calculation process part (Target change related index calculation means), 5 Target change discrimination part (Target change) Discrimination means), 6 output storage unit, 11 amplitude determination unit, 12 first difference value determination unit, 13 target disappearance recognition unit, 14 second difference value determination unit, 15 target appearance determination unit, 16 coherence determination unit, 17 Micro movement certification part, 18 immobility certification part.
Claims (13)
上記位置ずれ補償手段により位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値を算出する目標変化関連指標算出手段と、
上記目標変化関連指標算出手段により算出されたコヒーレンス及び平均規格化散乱強度差分値を用いて、上記観測領域における目標の変化を弁別する目標変化弁別手段と
を備えたレーダ画像処理装置。 Misalignment compensation means for acquiring two radar images at different observation times for the same observation region and compensating for misalignment between the two radar images;
The coherence indicating the correlation between the two radar images whose positional deviation has been compensated by the positional deviation compensation means is calculated, the average scattering intensity of each radar image is calculated, and the standard of the difference value between the two average scattering intensity is calculated. A target change related index calculating means for calculating an average normalized scattering intensity difference value which is a normalized value;
A radar image processing apparatus comprising: target change discriminating means for discriminating a change in a target in the observation region using the coherence calculated by the target change related index calculating means and the average normalized scattering intensity difference value.
目標変化関連指標算出手段が、上記位置ずれ補償処理ステップで位置ずれが補償された2枚のレーダ画像間の相関を示すコヒーレンスを算出するとともに、各レーダ画像の平均散乱強度を算出して、2つの平均散乱強度の差分値の規格化値である平均規格化散乱強度差分値を算出する目標変化関連指標算出処理ステップと、
目標変化弁別手段が、上記目標変化関連指標算出処理ステップで算出されたコヒーレンス及び平均規格化散乱強度差分値を用いて、上記観測領域における目標の変化を弁別する目標変化弁別処理ステップと
を備えたレーダ画像処理方法。 A displacement compensation processing step in which the displacement compensation means acquires two radar images at different observation times for the same observation region, and compensates for the displacement between the two radar images;
The target change related index calculation means calculates coherence indicating the correlation between the two radar images whose positional deviation has been compensated in the positional deviation compensation processing step, calculates the average scattering intensity of each radar image, and calculates 2 A target change related index calculation processing step for calculating an average normalized scattering intensity difference value that is a normalized value of a difference value of two average scattering intensities;
The target change discriminating means comprises a target change discrimination processing step for discriminating changes in the target in the observation region using the coherence calculated in the target change related index calculation processing step and the average normalized scattering intensity difference value. Radar image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013119085A JP6292772B2 (en) | 2013-06-05 | 2013-06-05 | Radar image processing apparatus and radar image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013119085A JP6292772B2 (en) | 2013-06-05 | 2013-06-05 | Radar image processing apparatus and radar image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014235155A true JP2014235155A (en) | 2014-12-15 |
JP6292772B2 JP6292772B2 (en) | 2018-03-14 |
Family
ID=52137958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013119085A Expired - Fee Related JP6292772B2 (en) | 2013-06-05 | 2013-06-05 | Radar image processing apparatus and radar image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6292772B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016142714A (en) * | 2015-02-05 | 2016-08-08 | 三菱電機株式会社 | Radar image processing device and radar image processing method |
JP5979336B1 (en) * | 2015-08-06 | 2016-08-24 | 三菱電機株式会社 | Image processing apparatus and image processing method |
JP2018031741A (en) * | 2016-08-26 | 2018-03-01 | 沖電気工業株式会社 | Display device and display method |
JP2020173213A (en) * | 2019-04-12 | 2020-10-22 | 日本電気株式会社 | Sonar image processing device, sonar image processing method, and program |
CN114280613A (en) * | 2022-03-08 | 2022-04-05 | 南京雷电信息技术有限公司 | Method for generating ground mapping image of simulated airborne fire control radar based on DEM data |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210036200A (en) | 2019-09-25 | 2021-04-02 | 삼성전자주식회사 | LiDAR device and operating method of the same |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60123787A (en) * | 1983-12-08 | 1985-07-02 | Toshiba Corp | Imaging apparatus using aperature synthesis method |
JP2006317304A (en) * | 2005-05-13 | 2006-11-24 | Mitsubishi Heavy Ind Ltd | Monitor device |
WO2008016034A1 (en) * | 2006-08-01 | 2008-02-07 | Pasco Corporation | Map information update supporting device, map information update supporting method, computer-readable recording medium |
WO2008016153A1 (en) * | 2006-08-03 | 2008-02-07 | Pasco Corporation | Disaster countermeasure support method |
JP2008046107A (en) * | 2006-07-21 | 2008-02-28 | Pasuko:Kk | Method and apparatus for radar image processing |
JP2010117327A (en) * | 2008-11-14 | 2010-05-27 | Pasuko:Kk | Vegetation growth condition analysis method, program, and vegetation growth condition analyzer |
JP2011209780A (en) * | 2010-03-29 | 2011-10-20 | Mitsubishi Space Software Kk | Change area specification device and change area specification program |
JP2013084072A (en) * | 2011-10-07 | 2013-05-09 | Hitachi Ltd | Land state estimation system and land state estimation method |
-
2013
- 2013-06-05 JP JP2013119085A patent/JP6292772B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60123787A (en) * | 1983-12-08 | 1985-07-02 | Toshiba Corp | Imaging apparatus using aperature synthesis method |
JP2006317304A (en) * | 2005-05-13 | 2006-11-24 | Mitsubishi Heavy Ind Ltd | Monitor device |
JP2008046107A (en) * | 2006-07-21 | 2008-02-28 | Pasuko:Kk | Method and apparatus for radar image processing |
WO2008016034A1 (en) * | 2006-08-01 | 2008-02-07 | Pasco Corporation | Map information update supporting device, map information update supporting method, computer-readable recording medium |
WO2008016153A1 (en) * | 2006-08-03 | 2008-02-07 | Pasco Corporation | Disaster countermeasure support method |
JP2010117327A (en) * | 2008-11-14 | 2010-05-27 | Pasuko:Kk | Vegetation growth condition analysis method, program, and vegetation growth condition analyzer |
JP2011209780A (en) * | 2010-03-29 | 2011-10-20 | Mitsubishi Space Software Kk | Change area specification device and change area specification program |
JP2013084072A (en) * | 2011-10-07 | 2013-05-09 | Hitachi Ltd | Land state estimation system and land state estimation method |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016142714A (en) * | 2015-02-05 | 2016-08-08 | 三菱電機株式会社 | Radar image processing device and radar image processing method |
JP5979336B1 (en) * | 2015-08-06 | 2016-08-24 | 三菱電機株式会社 | Image processing apparatus and image processing method |
WO2017022123A1 (en) * | 2015-08-06 | 2017-02-09 | 三菱電機株式会社 | Image processing device and image processing method |
JP2018031741A (en) * | 2016-08-26 | 2018-03-01 | 沖電気工業株式会社 | Display device and display method |
JP2020173213A (en) * | 2019-04-12 | 2020-10-22 | 日本電気株式会社 | Sonar image processing device, sonar image processing method, and program |
JP7259503B2 (en) | 2019-04-12 | 2023-04-18 | 日本電気株式会社 | Sonar image processing device, sonar image processing method and program |
CN114280613A (en) * | 2022-03-08 | 2022-04-05 | 南京雷电信息技术有限公司 | Method for generating ground mapping image of simulated airborne fire control radar based on DEM data |
Also Published As
Publication number | Publication date |
---|---|
JP6292772B2 (en) | 2018-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6292772B2 (en) | Radar image processing apparatus and radar image processing method | |
US10234561B2 (en) | Specular reflection removal in time-of-flight camera apparatus | |
JP5404773B2 (en) | Stereo image processing apparatus and stereo image processing method | |
Wang et al. | SRMF-CLEAN imaging algorithm for space debris | |
CN106772369B (en) | A kind of three-D imaging method based on multi-angle of view imaging | |
US8937849B1 (en) | Auto-focus for circular synthetic aperture sonar | |
CN105180852B (en) | GB SAR deformation monitoring methods based on triple steppings | |
Kuz’kin et al. | Resolving power of the interferometric method of source localization | |
JP4862816B2 (en) | Image correspondence point search device, distance measuring device and image motion detection device using the same | |
Serafino | SAR image coregistration based on isolated point scatterers | |
JP6279193B2 (en) | Object detection device and sensor device | |
US10921441B2 (en) | Synthetic aperture radar signal processing device | |
CN104155653B (en) | SAR back projection imaging method based on feature distance subspace | |
KR101854573B1 (en) | Apparatus for cross-range scaling of isar image usnig radon transform and projection and method thereof | |
JP6278910B2 (en) | Radar image processing apparatus and radar image processing method | |
CN104459634A (en) | Interferometric phase truth value computing method for UWB InSAR | |
JP4980129B2 (en) | Image radar device | |
EP1198757B1 (en) | Correlation analysis in the phase domain | |
Zhao et al. | Improved maximum likelihood estimation for optimal phase history retrieval of distributed scatterers in InSAR stacks | |
JP5888153B2 (en) | Image radar apparatus and signal processing apparatus | |
Wang et al. | Interference image registration combined by enhanced scale-invariant feature transform characteristics and correlation coefficient | |
Liu et al. | MTRC compensation in high-resolution ISAR imaging via improved polar format algorithm based on ICPF | |
JP2008256447A (en) | Moving target detection apparatus | |
Totir et al. | Superresolution algorithms for spatial extended scattering centers | |
Duan et al. | A weighted eigenvector autofocus method for sparse-aperture ISAR imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6292772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |