[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2001305203A - Image object detection device - Google Patents

Image object detection device

Info

Publication number
JP2001305203A
JP2001305203A JP2001080643A JP2001080643A JP2001305203A JP 2001305203 A JP2001305203 A JP 2001305203A JP 2001080643 A JP2001080643 A JP 2001080643A JP 2001080643 A JP2001080643 A JP 2001080643A JP 2001305203 A JP2001305203 A JP 2001305203A
Authority
JP
Japan
Prior art keywords
target
infrared
image
unit
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001080643A
Other languages
Japanese (ja)
Other versions
JP3444288B2 (en
Inventor
Yoshihiro Yamada
善博 山田
Takashi Kurokawa
孝 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001080643A priority Critical patent/JP3444288B2/en
Publication of JP2001305203A publication Critical patent/JP2001305203A/en
Application granted granted Critical
Publication of JP3444288B2 publication Critical patent/JP3444288B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a means capable of instantly determining the traveling direction of an object. SOLUTION: In the embodiment shown in Fig. 11, plural image signals having different detection wavelength bands are inputted to plural binary processing parts 17 formed corresponding to the image signals one-on-one along with position data of a significant object. The plural binary processing parts 17 carry out binary processing in relation to the significant object part of the image signal. The plural binary processing image signals binary processed in the binary processing parts 17 are outputted to plural feature amount calculating parts 18 formed corresponding to the plural binary processing parts 7 one-on-one. The plural feature amount calculating part 18 calculate feature amounts such as the area of significant object, the longitudinal center of gravity, the lateral center of gravity, the overall center of gravity, the longitudinal length, the lateral length, the ratio of the longitudinal length to the lateral length or luminance information before the binary processing the feature amount data of the plural feature amount calculating parts 18 ate outputted to an object direction determination part 19. The object direction determination part 19 calculates and outputs the traveling direction of the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像信号から目
標を検出,判定するための画像目標検出装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image target detecting device for detecting and determining a target from an image signal.

【0002】[0002]

【従来の技術】図27は従来の画像目標検出装置を示す
図である。図27において1は赤外線撮像部、3は目標
判定部、16はしきい値演算部である。
2. Description of the Related Art FIG. 27 shows a conventional image target detecting apparatus. In FIG. 27, 1 is an infrared imaging unit, 3 is a target determination unit, and 16 is a threshold value calculation unit.

【0003】次に図27の動作について説明する。赤外
線撮像部1は、外界の赤外線を赤外線画像信号として出
力する。しきい値演算部16は入力された画像信号から
しきい値tを演算する。しきい値の演算方法の一例とし
て”数1”を用いる。目標判定部3は、前記しきい値演
算部16で演算されたしきい値を用いて画像信号を2値
化し、これより有意目標の判定を行う。以下に一例とし
て、赤外線撮像部1が遠赤外線に感度がある場合と中赤
外線に感度がある場合について説明する。図28、図2
9は同一背景を撮像したときの遠赤外線と中赤外線との
画像信号及び2値化画像の例である。図28に示すよう
に遠赤外線を用いたときは目標信号のみが2値化され目
標と判定されている。これに対し、図29に示すように
中赤外線を用いたときは、目標信号と目標以外の雲の信
号(クラッタ)を2値化し目標と判定している。このよ
うに、中赤外線のみを用いたシステムでは、太陽光を反
射した雲等の目標以外の高輝度物があると、これら目標
以外の信号成分を誤って目標として検出する確率(以
後、誤警報確率という)が高いという問題があった。
Next, the operation of FIG. 27 will be described. The infrared imaging unit 1 outputs infrared light from the outside world as an infrared image signal. The threshold value calculator 16 calculates a threshold value t from the input image signal. "Equation 1" is used as an example of a threshold value calculation method. The target determination unit 3 binarizes the image signal using the threshold value calculated by the threshold value calculation unit 16, and determines a significant target based on the binarized image signal. Hereinafter, a case where the infrared imaging unit 1 has sensitivity to far infrared rays and a case where it is sensitive to mid-infrared rays will be described as an example. FIG. 28, FIG.
Reference numeral 9 denotes an example of far-infrared and mid-infrared image signals and a binarized image when the same background is imaged. As shown in FIG. 28, when far infrared rays are used, only the target signal is binarized and determined to be the target. On the other hand, when the mid-infrared ray is used as shown in FIG. 29, the target signal and the cloud signal (clutter) other than the target are binarized and determined as the target. As described above, in a system using only the mid-infrared ray, when there is a high-luminance object other than the target such as a cloud reflecting sunlight, the probability of erroneously detecting a signal component other than the target as the target (hereinafter, false alarm) Probability).

【0004】[0004]

【数1】 (Equation 1)

【0005】図30に1〜15[μm]までの夏季と冬季
の透過率の一例を示す。この図に示すように、中赤外線
は年間を通じて安定した透過率を示すが、遠赤外線は夏
季の透過率が冬季と比較して著しく低下する。一例とし
てLOWTRANの中緯度地方の高度60[m]のスラントパスで、
中赤外線領域では、夏の透過率は冬の75%確保できるの
に対して遠赤外線領域では、夏の透過率は冬の40%しか
確保できない。この原因は、遠赤外線は水分子量による
吸収が大きいためである。このために、遠赤外線を用い
たシステムでは、水分子量の多い夏季や海上で性能を確
保することは中赤外線を用いたシステムと比較して難し
いという問題点があった。
[0005] Fig. 30 shows an example of transmittance in summer and winter from 1 to 15 [μm]. As shown in this figure, the mid-infrared ray shows a stable transmittance throughout the year, but the far-infrared ray has a significantly lower transmittance in summer than in winter. As an example, a slant pass at an altitude of 60 [m] in the mid-latitudes of LOWTRAN,
In the mid-infrared region, summer transmittance can be as high as 75% in winter, whereas in the far-infrared region, summer transmittance can be as low as 40% in winter. This is because far infrared rays have a large absorption due to the molecular weight of water. For this reason, in a system using far-infrared rays, there is a problem that it is more difficult to secure performance in summer or at sea when the molecular weight of water is large compared to a system using mid-infrared rays.

【0006】上記のような従来の画像目標検出装置では
以下のような問題点があった。すなわち、例えば中赤外
線領域の画像信号のみを用いて目標判定を行うときは、
太陽光を反射した雲等の目標以外の高輝度物があると、
誤警報確率が高くなるという問題があった。また、例え
ば遠赤外線領域の画像信号のみを用いて目標判定を行う
ときは、水分子量が多い夏季や海上での性能を確保する
ことが難しいという問題点があった。
[0006] The conventional image target detecting device as described above has the following problems. That is, for example, when performing the target determination using only the image signal in the mid-infrared region,
If there is a high brightness object other than the target, such as clouds reflecting sunlight,
There is a problem that the false alarm probability increases. Further, for example, when the target determination is performed using only the image signal in the far-infrared region, there is a problem that it is difficult to secure performance in summer or at sea where the water molecular weight is large.

【0007】上記問題点を解決するために特開昭61-769
70号公報に示される3〜5μm帯と8〜12μm帯の2
つの赤外波長帯を使用し、季節場所昼夜を問わず目標探
知を可能にする赤外線探知装置が発明されている。この
発明の、ブロック図を図31に示す。図31で5は光学
系、9はアンプ部、32は光検知素子、33は走査変換
手段、34は目標検出手段、35はレベル比較手段、3
6は判定手段である。
To solve the above problem, Japanese Patent Application Laid-Open No. 61-769
No. 3 of the 3-5 μm band and the 8-12 μm band shown in
An infrared detection device that uses two infrared wavelength bands and enables target detection regardless of the seasonal location day and night has been invented. FIG. 31 is a block diagram of the present invention. In FIG. 31, 5 is an optical system, 9 is an amplifier unit, 32 is a photodetector, 33 is scan conversion means, 34 is target detection means, 35 is level comparison means,
Reference numeral 6 denotes a determination unit.

【0008】図31の動作について説明する。光学系5
を透過した赤外線が、感度波長の異なる光検知素子32
a及び32bに入射する。それぞれの光検知素子出力信号
がアンプ部9で増幅され、走査変換手段33で走査変換
されてシリアルビデオ信号に変り出力される。前記査変
換手段33の一方の出力を受けて目標検出手段34で
は、目標を検出する。レベル比較手段35は、それぞれ
のシリアルビデオ信号のレベルを測定し、一方が他方に
比べどれだけレベルが高いかまたは低いかを比較する。
具体的には、3〜5μm帯の信号強度を8〜12μm帯
の信号強度で除算する。判定手段36は目標検出手段3
4からの検出信号を受け、それが目標であるかいなかの
判断をレベル比較手段35の除算値に基づき行う。すな
わち、目標信号部分での除算値が基準値以下であれば目
標と判定する。これを、図28及び図29を用いて説明
する。目標が雲クラッタである場合には3〜5μm帯で
は観測されるが8〜12μm帯では観測されず除算値は
非常に大きな値となる。ところが目標が航空機である場
合にはどちらの波長帯でも観測されるために除算値はあ
る値に収まる。しかしながら、目標が巡航速度と比較し
て十分に速い速度で飛行しているときや、アフタバーナ
(以下A/Bという)の使用、ミサイル発射など3〜5μ
m帯の信号強度が8〜12μm帯の信号強度と比較して
高い場合には、このシステムではククラッタとして目標
は除去されてしまう。また水分子量の多い夏季や海上で
は8〜12μm帯で観測されず、3〜5μm帯だけで観
測される目標も除去されてしまう。
The operation of FIG. 31 will be described. Optical system 5
Infrared rays transmitted through the light detecting elements 32 having different sensitivity wavelengths.
a and 32b. Each output signal of the photodetector is amplified by the amplifier unit 9, scan-converted by the scan conversion unit 33, converted into a serial video signal, and output. Upon receiving one output of the conversion unit 33, the target detection unit 34 detects a target. The level comparing means 35 measures the level of each serial video signal and compares how much one is higher or lower than the other.
Specifically, the signal intensity in the 3-5 μm band is divided by the signal intensity in the 8-12 μm band. The determination means 36 is the target detection means 3
4 to determine whether it is the target or not based on the divided value of the level comparing means 35. That is, if the division value at the target signal portion is equal to or less than the reference value, it is determined that the target is the target. This will be described with reference to FIGS. 28 and 29. When the target is cloud clutter, it is observed in the 3 to 5 μm band, but is not observed in the 8 to 12 μm band, and the division value is a very large value. However, when the target is an aircraft, the division value falls within a certain value because the target is observed in both wavelength bands. However, when the target is flying at a sufficiently high speed compared to the cruising speed, use of afterburner (hereinafter referred to as A / B), missile launch, etc.
If the signal strength in the m band is higher than the signal strength in the 8 to 12 μm band, the target is removed as clutter in this system. Also, in summer or at sea where the water molecular weight is high, targets that are not observed in the 8-12 μm band but are observed only in the 3-5 μm band are also removed.

【0009】[0009]

【発明が解決しようとする課題】上記のような従来の画
像目標検出装置では次のような問題点があった。検出目
標が航空機の場合、目標の進行方向を知ることは、脅威
度を判定し効果的な対策を立てるための重要なファクタ
ーである。しかしながら、現状の画像目標検出装置で
は、目標がヘッドオンかテールオンかの区別つまり、目
標が自機に向かって飛行しているのか遠ざかって飛行し
ているかの判断するためには、目標の輝度変化を目視確
認し輝度が明るくなってきたときは接近していると判断
し、また、暗くなってきたときは遠ざかっていると判断
した。目標が非常に遠方にある場合には輝度の変化を目
視で確認することは容易でなく、数十秒ないしそれ以上
の時間がかかる。このあいだに敵が巡航速度で飛行して
いる場合でも数km以上接近してきてしまい、効果的な
対策を立てるための時間を短くしていた。このように目
標の進行方向が瞬時に判断できないと言う問題があっ
た。また自機方向に向かって飛行していることが分かっ
たとしても、その画像を写しているモニタ上で上下左右
どちらに向かっているのか瞬時に判断することは先と同
じ理由でできなかった。
The above-mentioned conventional image target detection apparatus has the following problems. If the detection target is an aircraft, knowing the direction of travel of the target is an important factor for determining the threat level and taking effective measures. However, with the current image target detection device, it is necessary to determine whether the target is head-on or tail-on. Was visually checked, and it was determined that the vehicle was approaching when the brightness became bright, and it was determined that it was moving away when it became dark. When the target is very far away, it is not easy to visually confirm the change in luminance, and it takes several tens of seconds or more. During this time, even if the enemy was flying at cruising speed, the enemy approached several kilometers or more, shortening the time required for effective countermeasures. As described above, there is a problem that the traveling direction of the target cannot be determined instantaneously. Even if it was found that the aircraft was flying in the direction of the aircraft, it was not possible to instantly determine whether the aircraft was heading up, down, left, or right on the monitor displaying the image for the same reason as before.

【0010】この発明は、かかる課題を解決するために
なされたものであり、目標の進行方向が瞬時に判定でき
る手段を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve such a problem, and an object of the present invention is to provide means capable of instantaneously determining the traveling direction of a target.

【0011】[0011]

【課題を解決するための手段】この発明の画像目標検出
装置は、有意目標ポジション近傍の2値化を行う複数の
異なる波長帯の赤外線画像信号に対応して設けられた複
数の2値化部と、前記複数の2値化部の出力から目標の
面積、縦方向重心、横方向重心、縦の長さ、横の長さ、
縦の長さと横の長さとの比等の特徴量を演算する複数の
2値化部と対応して設けられた複数の特徴量演算部と、
前記複数の特徴量演算部の出力から目標の進行方向を判
定する目標方向判定部とにより構成したものである。
An image target detecting apparatus according to the present invention includes a plurality of binarizing sections provided corresponding to infrared image signals in a plurality of different wavelength bands for performing binarization near a significant target position. A target area, a vertical center of gravity, a horizontal center of gravity, a vertical length, a horizontal length,
A plurality of feature value calculation units provided corresponding to a plurality of binarization units for calculating a feature value such as a ratio of a vertical length to a horizontal length;
A target direction determining unit that determines a target traveling direction from outputs of the plurality of feature amount calculating units.

【0012】この発明の画像目標検出装置は、目標の波
長ごとの面積、縦方向重心、横方向重心、縦の長さ、横
の長さ、縦の長さと横の長さとの比等のデータを記憶し
ている目標データ部と、目標の自機に対する角度情報及
びレンジ情報等を出力するサーボ機構と、目標方向判定
部とサーボ機構と目標データ部との出力から目標識別を
行う目標識別部とにより構成したものである。
The image target detecting apparatus according to the present invention is characterized in that data such as an area for each target wavelength, a center of gravity in a vertical direction, a center of gravity in a horizontal direction, a vertical length, a horizontal length, a ratio of a vertical length to a horizontal length, and the like are obtained. And a servo mechanism that outputs angle information and range information of the target with respect to its own device, and a target identification unit that performs target identification based on outputs from the target direction determination unit, the servo mechanism, and the target data unit. It is comprised by these.

【0013】[0013]

【発明の実施の形態】実施の形態1.図1は、この発明
の一実施の形態を示すブロック図である。1は赤外線撮
像部、2は輝度正規化部、3は目標判定部、4は分光輝
度データ部である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. 1 is a block diagram showing an embodiment of the present invention. 1 is an infrared imaging unit, 2 is a luminance normalization unit, 3 is a target determination unit, and 4 is a spectral luminance data unit.

【0014】図1に示す実施の形態において、同一目標
に対する複数の異なる波長帯の赤外線画像信号a、bを出
力する赤外線撮像部1から出力された画像信号は、複数
の輝度正規化部2に入力され輝度の正規化が行われる。
正規化が行われた複数の画像信号は、目標判定部3に入
力される。分光輝度データ部4では各種物体(目標及び
目標以外のクラッタ等)のデータを、前記複数の異なる
波長帯ごとの正規化された輝度信号を直交軸とする複数
次元の輝度座標系の領域として保有している。目標判定
部3では正規化された複数の画像信号と分光輝度データ
部4の出力とを比較演算し目標領域に含まれているかど
うかで有意目標の判定を行う。
In the embodiment shown in FIG. 1, the image signals output from the infrared imaging section 1 for outputting the infrared image signals a and b of a plurality of different wavelength bands for the same target are sent to a plurality of luminance normalizing sections 2. Input and normalization of luminance are performed.
The plurality of normalized image signals are input to the target determination unit 3. The spectral luminance data section 4 holds data of various objects (such as a target and clutter other than the target) as a region of a multidimensional luminance coordinate system having a normalized luminance signal for each of the plurality of different wavelength bands as an orthogonal axis. are doing. The target determining unit 3 compares the plurality of normalized image signals with the output of the spectral luminance data unit 4 and determines a significant target based on whether or not it is included in the target area.

【0015】以下に動作について説明する。複数の異な
る波長帯の画像信号は、前もって記憶してある分光輝度
データ部4の輝度スケールに合わせるために画像信号の
正規化を行う必要がある。ここで、基準値fin(α ,
β)を用いて、輝度正規化部2では”数2”の演算で正
規化を行う。
The operation will be described below. It is necessary to normalize the image signals of a plurality of different wavelength bands in order to match the luminance scale of the spectral luminance data unit 4 stored in advance. Here, the reference value fin (α,
Using β), the luminance normalization unit 2 performs normalization by the operation of “Equation 2”.

【0016】[0016]

【数2】 (Equation 2)

【0017】輝度正規化部2に入力される複数の画像信
号の一例として、中赤外線領域の画像と遠赤外線領域の
画像の2つである場合について説明する。まず、分光輝
度データ部4の内容の一例を図2に示す。縦軸は遠赤外
線領域の輝度、横軸は中赤外線領域の輝度であり、図中
には航空機目標領域、雲クラッタ領域、排気ガス領域が
示されている。この図中の雲のテ゛ータは、昼間の高度約30
00[m]と地上から中赤外線に感度のある撮像器と遠赤外
線に感度がある撮像器でとらえた高積雲と巻雲とのテ゛ータ
をもとに、簡易的に示した図である。また、図中の航空
機のテ゛ータは、巡航している航空機が空力加熱で温度上昇
したと仮定して算出した値である。さらに、図中の排ガ
スのテ゛ータは排ガスの温度及びその成分から算出した値で
ある。
As an example of a plurality of image signals input to the luminance normalizing section 2, a case where there are two images, a middle infrared region image and a far infrared region image, will be described. First, an example of the contents of the spectral luminance data section 4 is shown in FIG. The vertical axis represents the luminance in the far-infrared region, and the horizontal axis represents the luminance in the mid-infrared region. The drawing shows the aircraft target region, cloud clutter region, and exhaust gas region. The cloud data in this figure is about 30 daytime altitude.
FIG. 2 is a simplified diagram based on data of altocumulus and cirrus taken at 00 [m] and an imager sensitive to mid-infrared and an imager sensitive to far-infrared from the ground. The data of the aircraft in the figure are values calculated on the assumption that the temperature of the cruising aircraft has increased due to aerodynamic heating. Further, the exhaust gas data in the figure is a value calculated from the temperature of the exhaust gas and its components.

【0018】次に目標判定部3について述べる。目標判
定部3では、前記輝度正規化部2の出力より図3に示す
ような輝度マップを作成する。この図は、赤外線撮像部
1a及び赤外線撮像部1bの画像で同じポジション(同一の
座標の画素)の輝度を輝度マップ上にプロットしたもの
であり、この操作を全画素について行った結果である。
図3を前記分光輝度データ部2の目標領域とを比較演算
し有意目標を検出する。図4は図3に図2を重ねること
で有意目標を判定した例である。なお図4の中で航空機
目標の楕円に囲まれているプロットが目標と判断された
ものである。
Next, the target determining section 3 will be described. The target determination unit 3 creates a brightness map as shown in FIG. 3 from the output of the brightness normalization unit 2. This figure shows the infrared imaging unit
This is a plot of the luminance at the same position (pixels at the same coordinates) on the luminance map in the images of 1a and the infrared imaging unit 1b, and is the result of performing this operation for all the pixels.
FIG. 3 is compared with the target area of the spectral luminance data unit 2 to detect a significant target. FIG. 4 is an example in which a significant target is determined by superimposing FIG. 2 on FIG. In FIG. 4, the plot surrounded by the ellipse of the aircraft target is determined to be the target.

【0019】上記に示したように波長帯の異なる複数の
画像信号を用いることで有意目標のみを低誤警報で判定
することができる。
As described above, by using a plurality of image signals having different wavelength bands, only a significant target can be determined by a low / false alarm.

【0020】実施の形態2.図5は、この発明の実施の
形態2を示すブロック図である。図において、5は光学
系、6はフィルタ回転体、7はフィルタ回転体制御部、
8は赤外線検出器、9はアンプ部、10はタイミング部
である。
Embodiment 2 FIG. 5 is a block diagram showing Embodiment 2 of the present invention. In the figure, 5 is an optical system, 6 is a filter rotator, 7 is a filter rotator controller,
8, an infrared detector; 9, an amplifier; and 10, a timing unit.

【0021】以下に光学系5、フィルタ回転体6及び赤
外線検出器8の構成の一例について説明する。光学系5
は近赤外線から遠赤外線までを透過するものとし、また
赤外線検出器8は近赤外線から遠赤外線まで感度がある
赤外線検出器であるとする。図6にフィルタ回転体6の
一例で、近赤外線領域の赤外線のみ透過する近赤外線用
バンドパスフィルタ11、同じく中赤外線用バンドパス
フィルタ12、同じく遠赤外線用バンドパスフィルタ1
3から構成されているものを示す。
An example of the configuration of the optical system 5, filter rotator 6, and infrared detector 8 will be described below. Optical system 5
Is assumed to transmit light from near infrared to far infrared, and the infrared detector 8 is an infrared detector having sensitivity from near infrared to far infrared. FIG. 6 shows an example of the filter rotator 6, which includes a near-infrared band-pass filter 11, which transmits only infrared rays in the near-infrared region, a middle-infrared band-pass filter 12, and a far-infrared band-pass filter 1.
3 is shown.

【0022】次に動作について説明する。フィルタ回転
体制御部7はタイミング部10によりフィルタ回転体6
の角速度を制御するとともにフィルタ回転体6の状態
(光学系5と赤外線検出器8との間にどのフィルタが挿
入されているか)を検出するものである。フィルタ回転
体6は、フィルタ回転体制御部7の制御により角速度ω
で回転しているとする。
Next, the operation will be described. The filter rotator control unit 7 controls the filter rotator 6 by the timing unit 10.
To detect the state of the filter rotating body 6 (which filter is inserted between the optical system 5 and the infrared detector 8). The filter rotator 6 controls the angular velocity ω under the control of the filter rotator controller 7.
Suppose that it is rotating at.

【0023】図7にある物体の分光放射輝度特性を示
す。あるタイミングで光学系5と赤外線検出器8との間
に近赤外線用バンドパスフィルタ11が通過中であると
きは、図7の近赤外線領域の赤外線が赤外線検出器8に
入射する。赤外線検出器8は、入射した赤外線エネルギ
ーに応じた信号をアンプ部9に出力する。アンプ部9で
は前記赤外線検出器8の出力信号を増幅し近赤外線の画
像信号を出力する。次のタイミングで光学系5と赤外線
検出器8との間に中赤外線用または遠赤外線用のバンド
パスフィルタが通過中の時は、アンプ部9の出力とし
て、中赤外線の画像信号または遠赤外線の画像信号が出
力される。
FIG. 7 shows the spectral radiance characteristics of an object. When the near-infrared band-pass filter 11 is passing between the optical system 5 and the infrared detector 8 at a certain timing, infrared rays in the near-infrared region shown in FIG. The infrared detector 8 outputs a signal corresponding to the incident infrared energy to the amplifier unit 9. The amplifier 9 amplifies the output signal of the infrared detector 8 and outputs a near infrared image signal. At the next timing, when the bandpass filter for the mid-infrared ray or the far-infrared ray is passing between the optical system 5 and the infrared ray detector 8, the output of the amplifier section 9 is used to output the image signal of the mid-infrared ray or the far-infrared ray. An image signal is output.

【0024】上記のように時分割で同一の赤外線検出器
を使うことにより単一の赤外線検出器で検出波長の異な
る複数の画像信号を得ることができる。
As described above, by using the same infrared detector in a time-division manner, a single infrared detector can obtain a plurality of image signals having different detection wavelengths.

【0025】実施の形態3.図8は、この発明の実施の
形態3を示すブロック図であり前記実施の形態1に示す
赤外線撮像部1に輝度スケールを合わせるための基準値
を設ける手法を示したものである。図において1は赤外
線撮像部、5は光学系、8は赤外線検出器、9はアンプ
部、14は赤外線基準光発生部である。
Third Embodiment FIG. 8 is a block diagram showing a third embodiment of the present invention, and shows a method of providing a reference value for adjusting a luminance scale to the infrared imaging unit 1 shown in the first embodiment. It is a thing. In the figure, 1 is an infrared imaging unit, 5 is an optical system, 8 is an infrared detector, 9 is an amplifier unit, and 14 is an infrared reference light generation unit.

【0026】赤外線検出器8の撮像面の一部に正規化を
行うための基準となる光を結像するように赤外線基準光
発生部14が設けられている。動作に関しては、赤外線
基準光発生部14で発生された光を用いて輝度正規化部
2で正規化される。以後の処理は前記の実施の形態1と
同様である。
An infrared reference light generator 14 is provided so as to form an image of light serving as a reference for normalization on a part of the imaging surface of the infrared detector 8. The operation is normalized by the luminance normalization unit 2 using the light generated by the infrared reference light generation unit 14. Subsequent processing is the same as in the first embodiment.

【0027】このような手法で波長帯の異なる複数の画
像信号を用いて有意目標を低誤警報で判定できる。
In this manner, a significant target can be determined by a low / false alarm using a plurality of image signals having different wavelength bands.

【0028】実施の形態4.図9は、この発明の実施の
形態4を示すブロック図であり前記実施の形態3に示す
様な手法を使わない実施の形態である。図において1は
赤外線撮像部、2は輝度正規化部、3は目標判定部、4
は分光輝度データ部、15は基準値判定部である。
Fourth Embodiment FIG. 9 is a block diagram showing a fourth embodiment of the present invention, which is an embodiment not using the method shown in the third embodiment. In the figure, 1 is an infrared imaging unit, 2 is a luminance normalization unit, 3 is a target determination unit, 4
Denotes a spectral luminance data section, and 15 denotes a reference value determination section.

【0029】実施の形態1に示したように分光輝度デー
タ部4の輝度スケールに合わせるためには、画像信号の
正規化を行う必要がある。一般に天空温度は黒体でかつ
絶対零度であると仮定することができる。航空目標を探
知する場合には一般に画像の全体または一部分に天空が
あると考えられる。そこで、本実施の形態では天空を基
準値として正規化を行う場合について示す。
As described in the first embodiment, in order to match the luminance scale of the spectral luminance data section 4, it is necessary to normalize the image signal. In general, it can be assumed that the sky temperature is a blackbody and absolute zero. When detecting an aerial target, it is generally considered that the sky is present in all or a part of the image. Therefore, in the present embodiment, a case where normalization is performed using the sky as a reference value will be described.

【0030】図9に示す実施の形態においてい複数波長
帯の画像信号は、基準値判定部15に入力され画像の天
空部分を探し前記複数の画像信号の一部分に基準データ
の付加を行い出力する。以後の処理は前記の実施の形態
1と同様である。
In the embodiment shown in FIG. 9, image signals in a plurality of wavelength bands are input to a reference value determination unit 15, which searches for a sky portion of an image, adds reference data to a part of the plurality of image signals, and outputs the result. . Subsequent processing is the same as in the first embodiment.

【0031】以下に基準値判定部15の動作を説明す
る。基準値判定部15に入力された検出波長帯の異なる
複数の画像信号の中で、天空温度は黒体でかつ絶対零度
である仮定より各画像信号の中で共通して輝度が最も低
い部分を天空と判断する。そして、そこのポジションの
輝度値を各画像信号の基準値ポジションfin(α ,
β)に書き込む。このように基準値を付加された複数の
画像信号は複数の輝度正規化部2へ向けて出力される。
The operation of the reference value judgment section 15 will be described below. Among a plurality of image signals having different detection wavelength bands input to the reference value determination unit 15, a portion having the lowest common brightness among the image signals is assumed to be a black body and an absolute zero degree. Judge as the sky. Then, the luminance value of that position is determined by the reference value position fin (α,
Write to β). The plurality of image signals to which the reference value has been added in this manner are output to the plurality of luminance normalization units 2.

【0032】上記のように、天空の輝度を基準輝度とし
て用いることで、輝度スケールを合わせるための基準値
がない画像信号に対しても波長帯の異なる複数の画像信
号を用いて有意目標を低誤警報で判定できる。
As described above, by using the brightness of the sky as the reference brightness, a significant target can be reduced by using a plurality of image signals having different wavelength bands even for an image signal having no reference value for adjusting the brightness scale. Can be determined by false alarm.

【0033】実施の形態5.図10は、この発明の実施
の形態5を示すブロック図であり前記実施の形態3に示
すような画像信号の一部分に輝度スケールを合わせるた
めの基準値はなくかつ、前記実施の形態4に示すような
天空部分で正規化も行わない実施の形態である。1は赤
外線撮像部、3は目標判定部、16はしきい値演算部で
ある。
Embodiment 5 FIG. FIG. 10 is a block diagram showing a fifth embodiment of the present invention. There is no reference value for adjusting the luminance scale to a part of the image signal as shown in the third embodiment, and the fifth embodiment is shown in the fourth embodiment. This is an embodiment in which normalization is not performed in such a sky portion. 1 is an infrared imaging unit, 3 is a target determination unit, and 16 is a threshold value calculation unit.

【0034】図10の実施の形態において、検出波長帯
の異な複数の画像信号は、目標判定部3及びしきい値演
算部16に入力される。しきい値演算部16では複数の
画像信号をもとに目標領域の演算を行う。以後の処理に
ついては前記実施の形態と同様である。
In the embodiment shown in FIG. 10, a plurality of image signals having different detection wavelength bands are input to the target determination section 3 and the threshold value calculation section 16. The threshold calculator 16 calculates a target area based on a plurality of image signals. Subsequent processing is the same as in the above embodiment.

【0035】以下にしきい値演算部16の動作を説明す
る。しきい値演算部16の動作の一例として入力画像信
号が2つであるとする。入力された検出波長帯の異なる
2つの画像信号からそれぞれのしきい値を例えば”数
1”を用いて演算する。これにより2つのしきい値t1
及びt2が演算される。この値より”数3”を用いてし
きい領域を演算する。これにより、実施の形態3、及び
実施の形態4に示すと同様の効果がある。
The operation of the threshold value calculator 16 will be described below. It is assumed that there are two input image signals as an example of the operation of the threshold value calculation unit 16. The respective threshold values are calculated using, for example, “Equation 1” from two input image signals having different detection wavelength bands. This gives two thresholds t1
And t2 are calculated. From this value, a threshold area is calculated using "Equation 3". Thereby, the same effects as in the third and fourth embodiments can be obtained.

【0036】[0036]

【数3】 (Equation 3)

【0037】実施の形態6.図11は、この発明の実施
の形態6を示すブロック図である。17は2値化部、1
8は特徴量演算部、19は目標方向判定部である。
Embodiment 6 FIG. FIG. 11 is a block diagram showing Embodiment 6 of the present invention. 17 is a binarization unit, 1
Reference numeral 8 denotes a feature value calculation unit, and 19 denotes a target direction determination unit.

【0038】図11に示す実施の形態においては、検出
波長帯の異なる複数の画像信号は、画像信号に一対一に
対応して設けられた複数の2値化部17へ有意目標のポ
ジションデータと共に入力される。複数の2値化部17
では、画像信号の有意目標部分について2値化を行う。
複数の2値化部17で2値化された複数の2値化画像信
号は、複数の2値化部17と一対一に対応して設けられ
た複数の特徴量演算部18に向けて出力される。複数の
特徴量演算部18では、有意目標の面積、縦方向の重
心、横方向の重心、全体の重心、縦の長さ、横の長さ、
縦と横の長さの比または2値化前の輝度情報等の特徴量
を演算する。前記複数の特徴量演算部18の特徴量デー
タは目標方向判定部19へ出力される。目標方向判定部
19では、目標の進行方向を演算し出力する。
In the embodiment shown in FIG. 11, a plurality of image signals having different detection wavelength bands are sent to a plurality of binarizing sections 17 provided in one-to-one correspondence with the image signals together with significant target position data. Is entered. Plural binarization units 17
Then, binarization is performed on the significant target portion of the image signal.
The plurality of binarized image signals binarized by the plurality of binarization units 17 are output to a plurality of feature amount calculation units 18 provided in one-to-one correspondence with the plurality of binarization units 17. Is done. In the plurality of feature value calculating units 18, the area of the significant target, the center of gravity in the vertical direction, the center of gravity in the horizontal direction, the total center of gravity, the vertical length, the horizontal length,
A feature amount such as a ratio between the vertical and horizontal lengths or luminance information before binarization is calculated. The feature data of the plurality of feature calculators 18 is output to the target direction determiner 19. The target direction determination unit 19 calculates and outputs a target traveling direction.

【0039】以下に動作について説明する。ここで、2
値化部17に入力される画像は、一例として中赤外線領
域で撮像された画像と、遠赤外線領域で撮像された画像
であるとする。また目標の一例として航空機であるとす
る。図12は航空目標の側面をそれぞれの波長域でとら
えた画像である。また、図13は航空目標の正面をそれ
ぞれの波長域でとらえた画像である。中赤外線領域は遠
赤外線領域よりも高温物体に感度がある。このため図に
示すように、中赤外線の画像は機体から放出される排気
ガス(プルーム)もはっきり写しだされている。これに
対し遠赤外線の画像はプルームが前者と比較して小さく
写しだされている。よって、中赤外線の画像の横方向重
心位置P1は、遠赤外線の画像の重心P2よりもプルー
ム側(後側)にある。図13では、プルームが見えてい
ないために中赤外線の画像と遠赤外線との画像の横方向
重心位置は同じ位置にある。以上より中赤外線の画像の
横方向の重心位置と遠赤外線の画像の横方向の重心位置
とを比較することで画像モニタ上で目標が左右のどちら
に進行しているかわかる。具体的判定の一例を”数4”
に示す。また、縦方向の重心を比較することで画像モニ
タ上で上下のどちらに進行しているかわかる。またヘッ
ドオンの場合は遠赤外線の画像の方が中赤外線の画像と
比較して高輝度となり、テールオンの場合は前者と逆に
中赤外線の画像が高輝度となる。これにより画像をモニ
タに写したとき、奥行き方向がわかる。
The operation will be described below. Where 2
The images input to the value conversion unit 17 are, for example, an image captured in the mid-infrared region and an image captured in the far-infrared region. It is assumed that the target is an aircraft as an example. FIG. 12 is an image in which the side surface of the aeronautical target is captured in each wavelength range. FIG. 13 is an image in which the front of the aviation target is captured in each wavelength range. The mid-infrared region is more sensitive to hot objects than the far-infrared region. Therefore, as shown in the figure, the mid-infrared image clearly shows the exhaust gas (plume) emitted from the aircraft. In contrast, far-infrared images show the plume smaller than the former. Therefore, the horizontal center of gravity position P1 of the mid-infrared image is closer to the plume (rear side) than the center of gravity P2 of the far-infrared image. In FIG. 13, since the plume is not visible, the horizontal center of gravity position of the mid-infrared image and the far-infrared image are at the same position. From the above, by comparing the horizontal center of gravity position of the mid-infrared image with the horizontal center of gravity position of the far-infrared image, it is possible to determine whether the target is moving left or right on the image monitor. An example of a specific determination is “Equation 4”
Shown in In addition, by comparing the center of gravity in the vertical direction, it is possible to determine whether the vehicle is moving up or down on the image monitor. In the case of head-on, the far-infrared image has higher brightness than the middle-infrared image, and in the case of tail-on, the middle-infrared image has higher brightness, contrary to the former. Thereby, when the image is taken on the monitor, the depth direction can be known.

【0040】[0040]

【数4】 (Equation 4)

【0041】上記に示した様に波長帯の異なる複数の画
像信号を用いることで画像モニタ上でどちらの方向に進
行しているかが瞬時に判断できる。これにより、脅威度
の高い目標を選択することができる。
As described above, by using a plurality of image signals having different wavelength bands, it is possible to instantly determine in which direction the image signal is traveling on the image monitor. Thus, a target with a high threat level can be selected.

【0042】実施の形態7.図14はこの発明の実施の
形態7を示すブロック図であり、前記実施の形態6をさ
らに進めて目標識別機能を付加した実施の形態である。
19の目標方向判定部までは実施の形態6と同様であ
り、20は目標識別部、21は目標データ部、22はサ
ーボ機構である。
Embodiment 7 FIG. 14 is a block diagram showing a seventh embodiment of the present invention, in which the sixth embodiment is further advanced and a target identification function is added.
Up to 19 target direction determination units are the same as in the sixth embodiment, reference numeral 20 denotes a target identification unit, reference numeral 21 denotes a target data unit, and reference numeral 22 denotes a servo mechanism.

【0043】この実施の形態では、目標が船舶である場
合を想定することにする。目標データ部21には複数の
種類の船舶の喫水線から船体の高さ、煙突重心の高さ、
全長、全幅等の情報が前もって記憶されている。目標識
別部20では、目標データ部21のデータとサーボ機構
22の自機に対する目標俯角情報、レンジ情報より目標
の識別を行う。実施の形態5と同様に2値化部17に入
力されている画像信号が中赤外線と遠赤外線であるとす
る。船舶の場合、航空機の場合と異なるところは、船舶
の排気ガスは煙突部分より排気されることと、船舶は上
下方向の移動がほぼないと考えられることである。図1
5に中赤外線の画像と遠赤外線の画像を示す。中赤外線
は先と同様排気ガス部分が遠赤外線よりも良く見える。
これを比較することで進行方向を判定できる。
In this embodiment, it is assumed that the target is a ship. The target data section 21 includes the height of the hull, the height of the center of gravity of the chimney,
Information such as the total length and the total width is stored in advance. The target identification unit 20 identifies a target based on data of the target data unit 21 and target depression angle information and range information of the servo mechanism 22 with respect to the own device. It is assumed that the image signals input to the binarization unit 17 are a middle infrared ray and a far infrared ray as in the fifth embodiment. The difference between a ship and an aircraft is that the exhaust gas from the ship is exhausted from the chimney and that the ship is considered to have almost no vertical movement. FIG.
5 shows a mid-infrared image and a far-infrared image. As for the mid-infrared ray, the exhaust gas part looks better than the far-infrared ray.
By comparing this, the traveling direction can be determined.

【0044】以下、目標方向判定部19以降の動作を説
明する。図16に示すように2値化処理を最適化するこ
とで中赤外線で煙突部分のみを選択的に表示させること
が可能である。図17に俯角θ方向に自機に対してアス
ペクトξで進行している船舶の船体部分の重心P1と煙
突部分の重心P2を示した。進行方向と反対側の喫水面
の点を(0、0)とするとP1(X1、Y1)、P2
(X2、Y2)は”数5”で演算できる。画面上の船舶
の縮尺率mは、サーボ機構22のレンジ情報dより”数
6”で演算できる。俯角情報θはサーボ機構22よりわ
かるため5つの未知数と4つの式があるので船体の高
さ、煙突重心の高さ、全長、全幅の比がわかる。この結
果、目標の識別が可能である。
The operation after the target direction judging section 19 will be described below. As shown in FIG. 16, by optimizing the binarization processing, it is possible to selectively display only the chimney portion with the mid-infrared ray. FIG. 17 shows the center of gravity P1 of the hull portion and the center of gravity P2 of the chimney portion of a ship traveling at an aspect of 俯 with respect to the own ship in the depression angle θ direction. Assuming that the point on the draft surface opposite to the traveling direction is (0, 0), P1 (X1, Y1), P2
(X2, Y2) can be calculated by "Equation 5". The scale m of the ship on the screen can be calculated by "Equation 6" from the range information d of the servo mechanism 22. Since the depression angle information θ is known from the servo mechanism 22, there are five unknowns and four equations, so that the ratio of the height of the hull, the height of the chimney center of gravity, the total length, and the total width can be known. As a result, identification of the target is possible.

【0045】[0045]

【数5】 (Equation 5)

【0046】[0046]

【数6】 (Equation 6)

【0047】実施の形態8.図18は、この発明の実施
の形態8を示すブロック図である。23はRAM、24は
立ち上がり時間測定部、25は識別部である。
Embodiment 8 FIG. FIG. 18 is a block diagram showing Embodiment 8 of the present invention. 23 is a RAM, 24 is a rise time measurement unit, and 25 is an identification unit.

【0048】以下では、一例として追尾目標を航空機と
し、その最大輝度に着目しA/B使用とミサイル発射との
区別を行うことにする。まず、図19にA/B使用時とミ
サイル発射時の最大輝度−時間特性を示す。図19に
は、最大輝度の増加率がしきい値以上となってからそれ
が最大値となるまでの時間t1(以下立ち上がり時
間)、前記最大値が維持する時間t2(以下最大輝度維
持時間)、前記最大値になったあと定常状態になるまで
の時間t3(以下最大値から定常値になるまでの時
間)、前記最大値NMと定常輝度値NKの比(以下最大
/定常比)、前記立ち上がりから定常状態となる輝度−
時間特性の半値幅t4を示してある。
In the following, as an example, a tracking target is an aircraft, and attention is paid to its maximum brightness to distinguish between A / B use and missile launch. First, FIG. 19 shows the maximum luminance-time characteristics when the A / B is used and when the missile is fired. FIG. 19 shows a time t1 (hereinafter referred to as a rise time) from the time when the rate of increase of the maximum luminance becomes equal to or more than the threshold value to a time when the maximum value is maintained, and a time t2 (hereinafter referred to as a maximum luminance maintenance time) when the maximum value is maintained. The time from the maximum value to the steady state t3 (hereinafter, the time from the maximum value to the steady value), the ratio of the maximum value NM to the steady brightness value NK (the maximum / stationary ratio), Luminance from steady state to steady state-
The half width t4 of the time characteristic is shown.

【0049】以下に動作について説明する。RAM23
は、追尾目標の最大輝度、平均輝度、面積等を複数フレ
ーム分記憶している。この一例の立ち上がり時間測定部
24では、最大輝度のΔt時間当たりの変化率を監視し
ており、その変化率が光学系5の揺れ等によって発生す
る変化率を超えた場合、その時点からの立ち上がり時間
t1を測定する。識別部25では、前記立ち上がり時間
t1を例えば”数7”によりA/B使用とミサイルの発射
との識別を行いその結果を出力する。
The operation will be described below. RAM23
Stores the maximum luminance, average luminance, area, etc. of the tracking target for a plurality of frames. The rise time measuring unit 24 of this example monitors the rate of change of the maximum luminance per Δt time, and when the rate of change exceeds the rate of change caused by shaking of the optical system 5 or the like, the rise from that point in time is started. The time t1 is measured. The discrimination unit 25 discriminates the rise time t1 between A / B use and missile launch using, for example, "Equation 7" and outputs the result.

【0050】[0050]

【数7】 (Equation 7)

【0051】上記のように立ち上がり時間を計測するこ
とで追尾目標のA/B使用とミサイル発射を監視すること
が可能である。
By measuring the rise time as described above, it is possible to monitor the A / B use of the tracking target and the missile launch.

【0052】実施の形態9.図20は、この発明の実施
の形態9を示すブロック図である。26は最大値維持時
間測定部であり他は実施の形態8と同様である。
Embodiment 9 FIG. FIG. 20 is a block diagram showing Embodiment 9 of the present invention. Reference numeral 26 denotes a maximum value maintaining time measuring unit, and the other components are the same as those of the eighth embodiment.

【0053】この実施の形態では、実施の形態8の立ち
上がり時間測定部24の変わりに、最大維持時間測定部
26を設けたものである。その動作は、図19に示す最
大維持時間t2の測定を行い例えば”数8”を用いてA/
B使用とミサイルの発射との識別を行いその結果を出力
する。これにより、追尾目標のA/B使用とミサイル発射
を監視することが可能である。
In this embodiment, a maximum maintaining time measuring section 26 is provided instead of the rising time measuring section 24 of the eighth embodiment. In the operation, the maximum maintenance time t2 shown in FIG. 19 is measured, and A / A is calculated using, for example, “Equation 8”.
B Use and missile launch are identified and the result is output. As a result, it is possible to monitor the A / B use of the tracking target and the missile launch.

【0054】[0054]

【数8】 (Equation 8)

【0055】実施の形態10.図21は、この発明の実
施の形態10を示すブロック図である。27は最大値か
ら定常値となるまでの時間測定部であり他は実施の形態
8と同様である。
Embodiment 10 FIG. FIG. 21 is a block diagram showing a tenth embodiment of the present invention. Reference numeral 27 denotes a time measuring unit from the maximum value to the steady value, and the other components are the same as in the eighth embodiment.

【0056】この実施の形態では、実施の形態8の立ち
上がり時間測定部24の変わりに、最大値から定常値と
なるまでの時間測定部27を設けたものである。その動
作は、図19に示す最大値から定常値までの時間t3の
測定を行い例えば”数9”を用いてA/B使用とミサイル
の発射との識別を行いその結果を出力する。これによ
り、追尾目標のA/B使用とミサイル発射を監視すること
が可能である。
In this embodiment, instead of the rise time measuring section 24 of the eighth embodiment, a time measuring section 27 from a maximum value to a steady value is provided. In the operation, the time t3 from the maximum value to the steady value shown in FIG. 19 is measured, A / B use and missile launch are discriminated using, for example, "Equation 9", and the result is output. As a result, it is possible to monitor the A / B use of the tracking target and the missile launch.

【0057】[0057]

【数9】 (Equation 9)

【0058】実施の形態11.図22は、この発明の実
施の形態11を示すブロック図である。28は比計測部
であり、他は実施の形態8と同様である。
Embodiment 11 FIG. FIG. 22 is a block diagram showing an eleventh embodiment of the present invention. Reference numeral 28 denotes a ratio measuring unit, and the other components are the same as in the eighth embodiment.

【0059】この実施の形態では、実施の形態8の立ち
上がり時間測定部24の変わりに比計測部28を設けた
ものである。その動作は、図19に示す最大/定常比の
測定を行い、例えば”数10”を用いてA/B使用とミサ
イルの発射との識別を行いその結果を出力する。これに
よ、追尾目標のA/B使用とミサイル発射を監視すること
が可能である。
In this embodiment, a ratio measuring unit 28 is provided instead of the rise time measuring unit 24 of the eighth embodiment. The operation measures the maximum / steady ratio shown in FIG. 19, discriminates between A / B use and missile launch using, for example, "Equation 10", and outputs the result. This makes it possible to monitor the A / B usage of the tracking target and the missile launch.

【0060】[0060]

【数10】 (Equation 10)

【0061】実施の形態12.図23は、この発明の実
施の形態12を示すブロック図である。29は半値幅測
定部であり、他は実施の形態8と同様である。
Embodiment 12 FIG. FIG. 23 is a block diagram showing a twelfth embodiment of the present invention. Reference numeral 29 denotes a half width width measurement unit, and the other components are the same as those in the eighth embodiment.

【0062】この実施の形態では、実施の形態8の立ち
上がり時間測定部24の変わりに半値幅測定部29を設
けたものである。その動作は図19に示す半値幅の測定
を行い例えば”数11”を用いてA/B使用とミサイルの
発射との識別を行いその結果を出力する。これにより、
追尾目標のA/B使用とミサイル発射を監視することが可
能である。
In this embodiment, a half width width measuring unit 29 is provided instead of the rise time measuring unit 24 of the eighth embodiment. In the operation, the half width is measured as shown in FIG. 19, and A / B use and missile launch are discriminated using, for example, "Equation 11", and the result is output. This allows
It is possible to monitor A / B usage and missile launch of tracking targets.

【0063】[0063]

【数11】 [Equation 11]

【0064】実施の形態13.図24は、この発明の実
施の形態13を示すブロック図である。25は識別部、
30は演算部である。
Embodiment 13 FIG. FIG. 24 is a block diagram showing a thirteenth embodiment of the present invention. 25 is an identification unit,
Numeral 30 denotes a calculation unit.

【0065】以下では、一例と航空目標のA/B使用とミ
サイル発射との区別を行うことにする。まず、図25に
A/Bとミサイルとの排煙の分光輝度の一例を示す。この
図に示すようにA/Bとミサイルとの排煙は共に波長帯A及
び波長帯Bにピークを持つが、その面積(輝度)SAとS
Bとの比は異なる。
In the following, a distinction will be made between an example, the use of A / B as an aviation target, and the launch of a missile. First, in FIG.
4 shows an example of the spectral luminance of smoke exhausted from an A / B and a missile. As shown in this figure, both the smoke emission from the A / B and the missile have peaks in the wavelength bands A and B, and the areas (luminance) SA and S
The ratio with B is different.

【0066】以下に動作を説明する。波長帯の異なる複
数の追尾目標の画像信号が演算部30に入力される。こ
こで一例として、追尾目標の画像信号は、波長帯Aと波
長帯Bで撮像されたものあるものとする。演算部30で
はSAとSBの比を算出しその結果を識別部25へ出力す
る。
The operation will be described below. Image signals of a plurality of tracking targets having different wavelength bands are input to the arithmetic unit 30. Here, as an example, it is assumed that the image signal of the tracking target has been captured in the wavelength band A and the wavelength band B. The calculation unit 30 calculates the ratio between SA and SB and outputs the result to the identification unit 25.

【0067】識別部25では”数12”に従いA/B使用
とミサイル発射との識別を行いその結果を出力する。こ
れにより、追尾目標のA/B使用とミサイル発射を監視す
ることが可能である。
The discriminator 25 discriminates between A / B use and missile launch according to "Equation 12" and outputs the result. As a result, it is possible to monitor the A / B use of the tracking target and the missile launch.

【0068】[0068]

【数12】 (Equation 12)

【0069】実施の形態14.図26は、この発明の実
施の形態14を示すブロック図である。31は総合識別
部である。
Embodiment 14 FIG. FIG. 26 is a block diagram showing a fourteenth embodiment of the present invention. Reference numeral 31 denotes a general identification unit.

【0070】以下に動作を説明する。実施の形態8から
13の一例としてのA/B使用とミサイル発射の複数の識
別結果が総合識別部31に入力される。総合識別部31
では”数13”に示すように各識別部の出力にウエイト
をかけて総合的に識別を行い、その結果を出力する。こ
れによりA/B使用とミサイル発射とが総合的に識別でき
る。
The operation will be described below. A plurality of identification results of A / B use and missile launch as an example of the eighth to thirteenth embodiments are input to the overall identification unit 31. Comprehensive identification unit 31
Then, as shown in "Expression 13", the outputs of the respective identification units are weighted to perform overall identification, and the result is output. This makes it possible to comprehensively distinguish between A / B use and missile launch.

【0071】[0071]

【数13】 (Equation 13)

【0072】[0072]

【発明の効果】この発明によれば、検出波長帯の異なる
複数の画像信号を用い、各波長の横方向の重心位置、縦
方向の重心位置、または長さ等を計測することで目標の
進行方向を瞬時に判断できる。
According to the present invention, by using a plurality of image signals having different detection wavelength bands, the position of the center of gravity in the horizontal direction, the position of the center of gravity in the vertical direction, or the length of each wavelength is measured. Direction can be determined instantly.

【0073】この発明によれば、検出波長帯の異なる複
数の画像信号を用い、各波長の横方向の重心位置、縦方
向の重心位置、または長さ等を計測することで目標の進
行方向を瞬時に判断できると共に、目標の識別を行うこ
とができる。
According to the present invention, the advancing direction of the target can be determined by measuring the horizontal center of gravity, the vertical center of gravity, or the length of each wavelength using a plurality of image signals having different detection wavelength bands. It is possible to make an instantaneous decision and identify a target.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の第1の実施の形態による画像目標
検出装置を示すブロック図である。
FIG. 1 is a block diagram showing an image target detection device according to a first embodiment of the present invention.

【図2】 分光輝度データ部の内容の一例を示す図であ
る。
FIG. 2 is a diagram showing an example of the content of a spectral luminance data section.

【図3】 輝度マップ作成例を示す図である。FIG. 3 is a diagram illustrating an example of creating a luminance map.

【図4】 有意目標を判定した例を示す図である。FIG. 4 is a diagram showing an example in which a significant goal is determined.

【図5】 この発明の第2の実施の形態による画像目標
検出装置を示すブロック図である。
FIG. 5 is a block diagram showing an image target detection device according to a second embodiment of the present invention.

【図6】 フィルタ回転体の例を示す図である。FIG. 6 is a diagram illustrating an example of a filter rotating body.

【図7】 波長と分光輝度を示す図である。FIG. 7 is a diagram showing wavelength and spectral luminance.

【図8】 この発明の第3の実施の形態による画像目標
検出装置を示すブロック図である。
FIG. 8 is a block diagram showing an image target detection device according to a third embodiment of the present invention.

【図9】 この発明の第4の実施の形態による画像目標
検出装置を示すブロック図である。
FIG. 9 is a block diagram showing an image target detection device according to a fourth embodiment of the present invention.

【図10】 この発明の第5の実施の形態による画像目
標検出装置を示すブロック図である。
FIG. 10 is a block diagram showing an image target detection device according to a fifth embodiment of the present invention.

【図11】 この発明の第6の実施の形態による画像目
標検出装置を示すブロック図である。
FIG. 11 is a block diagram illustrating an image target detection device according to a sixth embodiment of the present invention.

【図12】 航空機側面の中赤外線と遠赤外線の画像重
心を示す図である。
FIG. 12 is a diagram showing image centroids of mid-infrared rays and far-infrared rays on the side of the aircraft.

【図13】 航空機正面の中赤外線と遠赤外線の画像重
心を示す図である。
FIG. 13 is a diagram showing image centroids of mid-infrared rays and far-infrared rays in front of an aircraft.

【図14】 この発明の第7の実施の形態による画像目
標検出装置を示すブロック図である。
FIG. 14 is a block diagram showing an image target detection device according to a seventh embodiment of the present invention.

【図15】 船舶側面の中赤外線と遠赤外線の画像重心
を示す図である。
FIG. 15 is a diagram showing the center of gravity of images of mid-infrared rays and far-infrared rays on the side of a ship.

【図16】 煙突部分の選択図である。FIG. 16 is a selection diagram of a chimney portion.

【図17】 船舶の重心と煙突の重心を示す図である。FIG. 17 is a diagram showing the center of gravity of a ship and the center of gravity of a chimney.

【図18】 この発明の第8の実施の形態による画像目
標検出装置を示すブロック図である。
FIG. 18 is a block diagram showing an image target detection device according to an eighth embodiment of the present invention.

【図19】 A/B使用時とミサイル発射時の最大輝度−
時間特性を示す図である。
FIG. 19: Maximum brightness when using A / B and when launching a missile
FIG. 4 is a diagram showing time characteristics.

【図20】 この発明の第9の実施の形態による画像目
標検出装置を示すブロック図である。
FIG. 20 is a block diagram showing an image target detection device according to a ninth embodiment of the present invention.

【図21】 この発明の第10の実施の形態による画像
目標検出装置を示すブロック図である。
FIG. 21 is a block diagram showing an image target detection device according to a tenth embodiment of the present invention.

【図22】 この発明の第11の実施の形態による画像
目標検出装置を示すブロック図である。
FIG. 22 is a block diagram showing an image target detection device according to an eleventh embodiment of the present invention.

【図23】 この発明の第12の実施の形態による画像
目標検出装置を示すブロック図である。
FIG. 23 is a block diagram showing an image target detection device according to a twelfth embodiment of the present invention.

【図24】 この発明の第13の実施の形態による画像
目標検出装置を示すブロック図である。
FIG. 24 is a block diagram showing an image target detection device according to a thirteenth embodiment of the present invention.

【図25】 A/Bとミサイルの分光輝度特性を示す図であ
る。
FIG. 25 is a diagram showing spectral luminance characteristics of A / B and missiles.

【図26】 この発明の第14の実施の形態による画像
目標検出装置を示すブロック図である。
FIG. 26 is a block diagram showing an image target detection device according to a fourteenth embodiment of the present invention.

【図27】 従来の画像目標検出装置を示すブロック図
である。
FIG. 27 is a block diagram showing a conventional image target detection device.

【図28】 遠赤外線の画像信号と2値化画像を示す図
である。
FIG. 28 is a diagram showing a far-infrared image signal and a binarized image.

【図29】 中赤外線の画像信号と2値化画像を示す図
である。
FIG. 29 is a diagram showing a mid-infrared image signal and a binarized image.

【図30】 夏季と冬季との大気透過率の一例を示す図
である。
FIG. 30 is a diagram showing an example of atmospheric transmittance in summer and winter.

【図31】 従来の画像目標検出装置を示すブロック図
である。
FIG. 31 is a block diagram showing a conventional image target detection device.

【符号の説明】[Explanation of symbols]

1 赤外線撮像部、 2 輝度正規化部、 3 目標判
定部、 4 分光輝度テ゛ータ部、 5 光学系、 6 フ
ィルタ回転体、 7 フィルタ回転体制御部、8 赤外
線検出器、 9 アンプ部、 10 タイミング部、
11 近赤外線用バンドパスフィルタ、 12 中赤外
線用バンドパスフィルタ、 13 遠赤外線用バンドパ
スフィルタ、 14 赤外線基準値発生部、 15 基
準値判定部、 16 しきい値演算部、 17 2値化
部、 18 特徴量演算部、19 目標方向判定部、
20 目標識別部、 21 目標データ部、 22サー
ボ機構、 23 RAM、 24 立ち上がり時間測定
部、 25 識別部、26 最大値維持時間測定部、
27 最大値から定常値となるまでの時間測定部、 2
8 比計測部、 29 半値幅測定部、 30 演算
部、 31 総合識別部、 32 光検知素子、 33
走査変換手段、 34 目標検出手段、 35 レベ
ル比較手段、 36 判定手
DESCRIPTION OF SYMBOLS 1 Infrared imaging part, 2 Luminance normalization part, 3 Target judgment part, 4 Spectral luminance data part, 5 Optical system, 6 Filter rotator, 7 Filter rotator control part, 8 Infrared detector, 9 Amplifier part, 10 Timing part ,
Reference Signs List 11 near-infrared band-pass filter, 12 mid-infrared band-pass filter, 13 far-infrared band-pass filter, 14 infrared reference value generation unit, 15 reference value determination unit, 16 threshold value calculation unit, 17 binarization unit, 18 feature amount calculation unit, 19 target direction determination unit,
20 target identification section, 21 target data section, 22 servo mechanism, 23 RAM, 24 rise time measurement section, 25 identification section, 26 maximum value maintenance time measurement section,
27 Time measurement unit from the maximum value to the steady value, 2
8 Ratio measurement unit, 29 Half width width measurement unit, 30 calculation unit, 31 general identification unit, 32 photodetector, 33
Scanning conversion means, 34 target detection means, 35 level comparison means, 36 judgment means

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 有意目標ポジション近傍の2値化を行う
複数の異なる波長帯の赤外線画像信号に対応して設けら
れた複数の2値化部と、前記複数の2値化部の出力から
目標の面積、縦方向重心、横方向重心、縦の長さ、横の
長さ、縦の長さと横の長さとの比等の特徴量を演算する
複数の2値化部と対応して設けられた複数の特徴量演算
部と、前記複数の特徴量演算部の出力から目標の進行方
向を判定する目標方向判定部とを具備したことを特徴と
する画像目標検出装置。
1. A plurality of binarization units provided corresponding to infrared image signals in a plurality of different wavelength bands for performing binarization in the vicinity of a significant target position, and a target from outputs of the plurality of binarization units. Are provided in correspondence with a plurality of binarizing units for calculating characteristic amounts such as the area, vertical center of gravity, horizontal center of gravity, vertical length, horizontal length, and ratio of vertical length to horizontal length. An image target detection device, comprising: a plurality of feature value calculation units; and a target direction determination unit that determines a target traveling direction from outputs of the plurality of feature value calculation units.
【請求項2】 目標の波長ごとの面積、縦方向重心、横
方向重心、縦の長さ、横の長さ、縦の長さと横の長さと
の比等のデータを記憶している目標データ部と、目標の
自機に対する角度情報及びレンジ情報等を出力するサー
ボ機構と、目標方向判定部とサーボ機構と目標データ部
との出力から目標識別を行う目標識別部とを具備したこ
とを特徴とする請求項1記載の画像目標検出装置。
2. Target data storing data such as a target area for each wavelength, a vertical center of gravity, a horizontal center of gravity, a vertical length, a horizontal length, a ratio of a vertical length to a horizontal length, and the like. Unit, a servo mechanism that outputs angle information and range information of the target with respect to the own device, and a target identification unit that performs target identification from outputs of the target direction determination unit, the servo mechanism, and the target data unit. The image target detection device according to claim 1, wherein
JP2001080643A 2001-03-21 2001-03-21 Image target detection device Expired - Lifetime JP3444288B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001080643A JP3444288B2 (en) 2001-03-21 2001-03-21 Image target detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001080643A JP3444288B2 (en) 2001-03-21 2001-03-21 Image target detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP20556094A Division JP3216434B2 (en) 1994-08-30 1994-08-30 Image target detection device

Publications (2)

Publication Number Publication Date
JP2001305203A true JP2001305203A (en) 2001-10-31
JP3444288B2 JP3444288B2 (en) 2003-09-08

Family

ID=18936886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001080643A Expired - Lifetime JP3444288B2 (en) 2001-03-21 2001-03-21 Image target detection device

Country Status (1)

Country Link
JP (1) JP3444288B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004162942A (en) * 2002-11-11 2004-06-10 Mitsubishi Electric Corp Infrared ray search tracking device
JP2007327692A (en) * 2006-06-07 2007-12-20 Toshiba Corp Target detecting device and missile
JP2008267872A (en) * 2007-04-17 2008-11-06 Toshiba Corp Image guide device
JP2010025473A (en) * 2008-07-22 2010-02-04 Toshiba Corp Image emphasizing device and method
JP2011080890A (en) * 2009-10-08 2011-04-21 Toshiba Corp Object identification device
JP2011163589A (en) * 2010-02-05 2011-08-25 Mitsubishi Electric Corp Guided flying object device
JP2011179857A (en) * 2010-02-26 2011-09-15 Mitsubishi Electric Corp Infrared target detector

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004162942A (en) * 2002-11-11 2004-06-10 Mitsubishi Electric Corp Infrared ray search tracking device
JP2007327692A (en) * 2006-06-07 2007-12-20 Toshiba Corp Target detecting device and missile
JP2008267872A (en) * 2007-04-17 2008-11-06 Toshiba Corp Image guide device
JP2010025473A (en) * 2008-07-22 2010-02-04 Toshiba Corp Image emphasizing device and method
JP2011080890A (en) * 2009-10-08 2011-04-21 Toshiba Corp Object identification device
JP2011163589A (en) * 2010-02-05 2011-08-25 Mitsubishi Electric Corp Guided flying object device
JP2011179857A (en) * 2010-02-26 2011-09-15 Mitsubishi Electric Corp Infrared target detector

Also Published As

Publication number Publication date
JP3444288B2 (en) 2003-09-08

Similar Documents

Publication Publication Date Title
US10656272B1 (en) Ladar system and method with polarized receivers
US7961906B2 (en) Human detection with imaging sensors
US6877691B2 (en) High altitude stripping for threat discrimination
US8218012B2 (en) Multi-window/multi-target tracking (MW/MT tracking) method and system for point source objects
US5062586A (en) Missile tracking, guidance and control apparatus
RU2686566C2 (en) Method for detecting and classifying scene events
CN107025753B (en) Wide area fire alarm device based on multispectral image analysis
JP2005284410A (en) Vehicle recognition device and method
US20130235211A1 (en) Multifunctional Bispectral Imaging Method and Device
US10902630B2 (en) Passive sense and avoid system
JP3444288B2 (en) Image target detection device
JP3487295B2 (en) Image target detection device
JP3216434B2 (en) Image target detection device
JP4230383B2 (en) Target detection device
US20070092109A1 (en) Method of tracking a moving object by an emissivity of the moving object
Mau et al. Through thick and thin: Imaging through obscurant using spad array
JP5521594B2 (en) Guided flying vehicle device
US7414702B1 (en) Reverse logic optical acquisition system and method
EP3447527A1 (en) Passive sense and avoid system
Guo et al. Infrared differential detection and band selection for space-based aerial targets under complex backgrounds
JPH09197034A (en) Target detection device
JP5305768B2 (en) Image enhancement apparatus and image enhancement method
AU2020289765A1 (en) Missile warner and method for warning of a missile
JP3409455B2 (en) Infrared imaging device
JPH0798218A (en) Menace identification device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080627

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080627

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090627

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100627

Year of fee payment: 7