JP2021148355A - Flying object guidance device, flying object, flying object system and flying object guidance method - Google Patents
Flying object guidance device, flying object, flying object system and flying object guidance method Download PDFInfo
- Publication number
- JP2021148355A JP2021148355A JP2020047983A JP2020047983A JP2021148355A JP 2021148355 A JP2021148355 A JP 2021148355A JP 2020047983 A JP2020047983 A JP 2020047983A JP 2020047983 A JP2020047983 A JP 2020047983A JP 2021148355 A JP2021148355 A JP 2021148355A
- Authority
- JP
- Japan
- Prior art keywords
- target
- flying object
- error angle
- motion
- estimation result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 10
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 238000010586 diagram Methods 0.000 description 4
- 230000006698 induction Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Landscapes
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
この発明の実施形態は、飛しょう体誘導装置、飛しょう体、飛しょう体システム及び飛しょう体誘導方法に関する。 Embodiments of the present invention relate to a flyer guidance device, a flyer, a flyer system, and a flyer guidance method.
飛しょう体誘導装置において、飛しょう体を確実に目標に会合させるためには、最接近点における目標との測角値の誤差(以下、誤差角)を最小化することが課題の一つとなる。通常、目標の動きはイメージセンサを利用したシーカで観測される。シーカには、電波方式と光波方式に大別されるが、どちらの方式においても、目標と十分に接近した場合に、目標との測角値を計測できなくなるブラインドの問題が生じる。 In the flying object guidance device, in order to ensure that the flying object is associated with the target, it is one of the issues to minimize the error of the measured angle value with the target at the closest point (hereinafter referred to as the error angle). .. Normally, the movement of the target is observed by a seeker using an image sensor. Seekers are roughly classified into a radio wave method and a light wave method, and both methods have a blind problem that the angle measurement value with the target cannot be measured when the target is sufficiently close to the target.
このブラインド時における目標との誤差角を最小化して目標との会合精度を向上させる手法として、従来では、ブラインド時に目標との誤差角から目標位置情報をフィルタリングすることが提案されている。しかしながら、このフィルタリングによる手法では、ブラインド時の誘導誤差が大きくなる点については対応が難しいと想定される。 As a method of minimizing the error angle with the target at the time of blinding and improving the meeting accuracy with the target, conventionally, it has been proposed to filter the target position information from the error angle with the target at the time of blinding. However, it is assumed that it is difficult for this filtering method to deal with the fact that the induction error at the time of blinding becomes large.
以上のように、従来の飛しょう体誘導装置にあっては、ブラインド時における目標との誤差角を最小化するための有効な手立てがなく、特にブラインド時の誘導誤差が大きくなる点については対応が難しいと想定されている。 As described above, the conventional flying object guiding device does not have an effective means for minimizing the error angle with the target at the time of blinding, and particularly deals with the point that the guiding error at the time of blinding becomes large. Is supposed to be difficult.
本発明に係る実施形態の課題は、ブラインド時における目標との誤差角を最小化して誘導誤差を低減し、飛しょう体を目標に会合させる精度を向上させることのできる飛しょう体誘導装置、飛しょう体、飛しょう体システム、飛しょう体誘導方法を提供することにある。 An object of the embodiment of the present invention is a flying object guiding device capable of minimizing an error angle with a target at the time of blinding, reducing an induction error, and improving the accuracy of associating the flying object with the target. The purpose is to provide the body, the flight body system, and the method of guiding the flight body.
実施形態に係る飛しょう体誘導装置によれば、被搭載の飛しょう体を目標との会合点に誘導する飛しょう体誘導する場合に、前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出し、前記飛しょう体の慣性情報を検出し、前記慣性情報から前記飛しょう体の機体運動の変化を推定し、前記機体運動の推定結果に基づいて目標運動の変化を推定し、前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標の誤差角を推定し、前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、ブラインド領域に入っていない状態では誤差角に基づいて誘導し、ブラインド領域に入った状態では推定誤差角に基づいて誘導するようにし、これによってブラインド時における目標との誤差角を最小化して誘導誤差を低減し、飛しょう体を目標に会合させる精度を向上させることができる。 According to the flying object guiding device according to the embodiment, when guiding the flying object to guide the mounted flying object to the meeting point with the target, the center of the target image is specified from the image image obtained by capturing the target. Then, the error angle from the target is detected based on the body posture angle of the flying body, the inertial information of the flying body is detected, and the change in the body motion of the flying body is estimated from the inertial information. The change in the target motion is estimated based on the estimation result of the aircraft motion, the error angle of the target is estimated based on the estimation result of the aircraft motion and the estimation result of the target motion, and the flying object is the target. Judge whether or not the error angle is not obtained, and guide based on the error angle when not in the blind area, and guide based on the estimated error angle when entering the blind area. This makes it possible to minimize the error angle with the target at the time of blinding, reduce the induction error, and improve the accuracy of associating the projectile with the target.
以下、図面を参照しながら、実施形態について説明する。
図1は本実施形態が適用される飛しょう体の概略構成を示すブロック図、図2は本実施形態に係る飛しょう体誘導装置の構成を示すブロック図である。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a flying object to which the present embodiment is applied, and FIG. 2 is a block diagram showing a configuration of a flying object guiding device according to the present embodiment.
図1において、飛しょう体1は、シーカ11、誘導装置12、操舵装置13を備える。シーカ11は、飛しょう体1の先頭に配置され、目標を撮像するイメージセンサ111を備え、イメージセンサ111でイメージ化された目標画像は誘導装置12に送られる。誘導装置12は、イメージセンサ111からの目標画像から目標の中心を求め、目標中心方向と機体姿勢角との関係から目標との誤差角を求める。この目標との誤差角は操舵装置13に送られる。操舵装置13は、目標会合点と、機体姿勢角と、目標との誤差角に基づいて操舵機構を駆動制御する。
In FIG. 1, the flying object 1 includes a seeker 11, a guiding
上記誘導装置12は、誤差角検出処理部121、目標運動推定処理部122、慣性データ検出処理部123、機体運動推定処理部124、誤差角推定処理部125、切換処理部126とを備える。
The
誤差角検出処理部121は、イメージセンサ111でイメージ化された目標画像データから目標画像の中心を特定し、操舵装置13で得られる機体姿勢角に基づいて目標との誤差角を算出する。その目標との誤差角は切換処理部126を通じて操舵装置13に送られる。また、飛しょう体1がブラインド領域に入って目標画像の中心が特定できなくなった場合、その時点で特定不可(NG)を示すNG信号を生成する。このNG信号は目標運動推定処理部122に送られると共に、切換処理部126に送られる。
The error angle
一方、慣性データ検出処理部123は、機体姿勢角から機体の慣性データ(角度、角速度、加速度等)を検出する。この機体の慣性データは機体運動推定処理部124に送られる。
On the other hand, the inertial data
機体運動推定処理部124は、機体の慣性データから機体の運動がどのように変化するかを推定する。この機体運動推定結果は目標運動推定処理部122及び誤差角推定処理部125に送られる。
The airframe motion
目標運動推定処理部122は、画像処理部121からNG信号を受けると、その直前に得られた目標との誤差角と機体運動推定処理部122で取得した機体運動推定結果から目標運動の変化を推定する。この目標運動推定結果は誤差角推定処理部125に送られる。
When the target motion
誤差角推定処理部125は、目標運動推定結果と機体運動推定結果から目標の誤差角の変化を推定する。この誤差角推定結果は切換処理部126を通じて操舵装置13に送られる。
The error angle
上記切換処理部126は、NG信号の有無に応じて誤差角と誤差角推定結果を選択的に操舵装置13に出力する。
The
上記画像処理部121は、地上制御装置(図示せず)から指定される飛しょう体を目標として選定する。
The
上記構成において、図3を参照して誘導装置12の処理動作を説明する。ここで、図3は、図2に示す飛しょう体誘導装置の処理の流れを示すフローチャートである。
In the above configuration, the processing operation of the
まず、イメージセンサ111で得られる目標画像は、飛しょう体1が目標に接近するにつれて目標本体に対するプルームの比率が大きくなり、目標画像の中心が目標本体からずれていき、ブラインド領域に入ると、目標中心が目標本体から外れてしまう。 First, in the target image obtained by the image sensor 111, the ratio of the plume to the target body increases as the flying object 1 approaches the target, and the center of the target image deviates from the target body and enters the blind area. The target center deviates from the target body.
そこで、誤差角検出処理部121では、飛しょう体1が目標との相対位置関係から割り出されるブラインド領域に入ったか否かを判断する(ステップS1)。飛しょう体1がブラインド領域に入るまでは、目標画像から得られた誤差角を、切換処理部126を通じて操舵装置13に送り、目標中心に基づき目標会合点に向けて誘導制御を行い(ステップS2)、ステップS1に戻る。飛しょう体1がブラインド領域に入った後は、NG信号を出力し、誤差角推定結果を、切換処理部126を通じて操舵装置13に送り、目標中心の誤差角推定結果に基づき目標会合点に向けて誘導制御を行い、会合まで継続する(ステップS3)。
Therefore, the error angle
以上のように、本実施形態によれば、ブラインド後も直前の目標との誤差角から最適な誤差角推定を実行し、その誤差角推定値で誘導制御を行うようにしているので、ブラインド時における目標との誤差角を最小化して誘導誤差を低減し、飛しょう体1を目標に会合させる精度を向上させることができる。 As described above, according to the present embodiment, even after blinding, the optimum error angle estimation is executed from the error angle with the immediately preceding target, and the guidance control is performed based on the error angle estimated value. The error angle with the target in the above can be minimized to reduce the induction error, and the accuracy of associating the flying object 1 with the target can be improved.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components across different embodiments may be combined as appropriate.
1…飛しょう体、
11…シーカ、111…イメージセンサ、
12…誘導装置、121…誤差角検出処理部、122…目標運動推定処理部、123…慣性データ検出処理部、124…機体運動推定処理部、125…誤差角推定処理部、126…切換処理部、
13…操舵装置。
1 ... Flying body,
11 ... Seeker, 111 ... Image sensor,
12 ... Guidance device, 121 ... Error angle detection processing unit, 122 ... Target motion estimation processing unit, 123 ... Inertia data detection processing unit, 124 ... Airframe motion estimation processing unit, 125 ... Error angle estimation processing unit, 126 ... Switching processing unit ,
13 ... Steering device.
Claims (4)
前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出する誤差角検出部と、
前記飛しょう体の慣性情報を検出する慣性情報検出部と、
前記慣性情報から前記飛しょう体の機体運動の変化を推定する機体運動推定部と、
前記機体運動推定部の推定結果に基づいて目標運動の変化を推定する目標運動推定部と、
前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標との誤差角を推定する誤差角推定部と、
前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、ブラインド領域に入っていない状態では前記誤差角検出部で検出される誤差角に基づいて誘導し、前記ブラインド領域に入った状態では前記誤差角推定部で推定される誤差角に基づいて誘導する切換部と
を具備する飛しょう体誘導装置。 In the flying object guidance device that guides the mounted flying object to the meeting point with the target
An error angle detection unit that identifies the center of the target image from the image image of the target and detects the error angle with the target based on the attitude angle of the flying object.
Inertia information detection unit that detects inertial information of the flying object,
An airframe motion estimation unit that estimates changes in the airframe motion of the flying object from the inertial information,
The target motion estimation unit that estimates the change in the target motion based on the estimation result of the aircraft motion estimation unit, and the target motion estimation unit.
An error angle estimation unit that estimates an error angle with the target based on the estimation result of the aircraft motion and the estimation result of the target motion,
It is determined whether or not the flying object has entered the blind region where the error angle with respect to the target cannot be obtained, and in the state where the flying object is not in the blind region, it is guided based on the error angle detected by the error angle detection unit. , A flying object guiding device including a switching unit that guides based on an error angle estimated by the error angle estimating unit in a state of entering the blind region.
前記誘導装置は、
前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出する誤差角検出部と、
前記飛しょう体の慣性情報を検出する慣性情報検出部と、
前記慣性情報から前記飛しょう体の機体運動の変化を推定する機体運動推定部と、
前記機体運動推定部の推定結果に基づいて目標運動の変化を推定する目標運動推定部と、
前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標との誤差角を推定する誤差角推定部と、
前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、ブラインド領域に入っていない状態では前記誤差角検出部で検出される誤差角に基づいて誘導し、前記ブラインド領域に入った状態では前記誤差角推定部で推定される誤差角に基づいて誘導する切換部と
を具備する飛しょう体。 It is a flying object equipped with a guidance device that guides to the meeting point with the target.
The guidance device is
An error angle detection unit that identifies the center of the target image from the image image of the target and detects the error angle with the target based on the attitude angle of the flying object.
Inertia information detection unit that detects inertial information of the flying object,
An airframe motion estimation unit that estimates changes in the airframe motion of the flying object from the inertial information,
The target motion estimation unit that estimates the change in the target motion based on the estimation result of the aircraft motion estimation unit, and the target motion estimation unit.
An error angle estimation unit that estimates an error angle with the target based on the estimation result of the aircraft motion and the estimation result of the target motion,
It is determined whether or not the flying object has entered the blind region where the error angle with respect to the target cannot be obtained, and in the state where the flying object is not in the blind region, it is guided based on the error angle detected by the error angle detection unit. , A flying object provided with a switching unit that guides based on the error angle estimated by the error angle estimation unit in the state of entering the blind region.
前記誘導装置は、
前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出する誤差角検出部と、
前記飛しょう体の慣性情報を検出する慣性情報検出部と、
前記慣性情報から前記飛しょう体の機体運動の変化を推定する機体運動推定部と、
前記機体運動推定部の推定結果に基づいて目標運動の変化を推定する目標運動推定部と、
前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標との誤差角を推定する誤差角推定部と、
前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、ブラインド領域に入っていない状態では前記誤差角検出部で検出される誤差角に基づいて誘導し、前記ブラインド領域に入った状態では前記誤差角推定部で推定される推定誤差角に基づいて誘導する切換部と
を具備し、
前記誘導装置に前記目標を指定する指定手段を備える飛しょう体システム。 It is a flying object system that controls the flying object equipped with a guidance device that guides it to the meeting point with the target.
The guidance device is
An error angle detection unit that identifies the center of the target image from the image image of the target and detects the error angle with the target based on the attitude angle of the flying object.
Inertia information detection unit that detects inertial information of the flying object,
An airframe motion estimation unit that estimates changes in the airframe motion of the flying object from the inertial information,
The target motion estimation unit that estimates the change in the target motion based on the estimation result of the aircraft motion estimation unit, and the target motion estimation unit.
An error angle estimation unit that estimates an error angle with the target based on the estimation result of the aircraft motion and the estimation result of the target motion,
It is determined whether or not the flying object has entered the blind region where the error angle with respect to the target cannot be obtained, and in the state where the flying object is not in the blind region, it is guided based on the error angle detected by the error angle detection unit. In the state of entering the blind region, a switching unit for guiding based on the estimated error angle estimated by the error angle estimation unit is provided.
A flying body system provided with a designation means for designating the target in the guidance device.
前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出し、
前記飛しょう体の慣性情報を検出し、
前記慣性情報から前記飛しょう体の機体運動の変化を推定し、
前記機体運動の推定結果に基づいて目標運動の変化を推定し、
前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標との誤差角を推定し、
前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、
前記ブラインド領域に入っていない状態では前記目標との誤差角の検出結果に基づいて誘導し、前記ブラインド領域に入った状態では前記目標との誤差角の推定結果に基づいて誘導する
飛しょう体誘導方法。 In the flying object guidance method that guides the mounted flying object to the meeting point with the target,
The center of the target image is specified from the image image obtained by capturing the target, and the error angle with the target is detected based on the attitude angle of the flying object.
Detects the inertial information of the flying body and
The change in the airframe movement of the flying object is estimated from the inertial information, and the change is estimated.
Estimate the change in the target motion based on the estimation result of the aircraft motion,
Based on the estimation result of the aircraft motion and the estimation result of the target motion, the error angle with the target is estimated.
It is determined whether or not the flying object has entered the blind area where the error angle with the target cannot be obtained.
In the state where it is not in the blind area, it is guided based on the detection result of the error angle with the target, and in the state where it is in the blind area, it is guided based on the estimation result of the error angle with the target. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020047983A JP2021148355A (en) | 2020-03-18 | 2020-03-18 | Flying object guidance device, flying object, flying object system and flying object guidance method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020047983A JP2021148355A (en) | 2020-03-18 | 2020-03-18 | Flying object guidance device, flying object, flying object system and flying object guidance method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021148355A true JP2021148355A (en) | 2021-09-27 |
Family
ID=77848259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020047983A Pending JP2021148355A (en) | 2020-03-18 | 2020-03-18 | Flying object guidance device, flying object, flying object system and flying object guidance method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021148355A (en) |
-
2020
- 2020-03-18 JP JP2020047983A patent/JP2021148355A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101157484B1 (en) | Uav automatic recovering method | |
KR101475826B1 (en) | Leader-Follower Formation Device, Method and Mobile robot using Backstepping Method | |
EP3231714B1 (en) | Systems and methods for landing lights | |
JP6929915B2 (en) | Aircraft position control system, aircraft and aircraft position control method | |
KR102156852B1 (en) | Apparatus and method for controlling impact angle considered look angle limits of air vehicle | |
KR101622260B1 (en) | Impact time control guidance method and device | |
KR101052038B1 (en) | Image tracking apparatus and method for tracking target using the apparatus | |
US10474148B2 (en) | Navigating an unmanned aerial vehicle | |
JP2022078702A (en) | Aircraft position control system, aircraft, and aircraft position control method | |
JP2021148355A (en) | Flying object guidance device, flying object, flying object system and flying object guidance method | |
JP2018098715A (en) | On-vehicle camera posture change detection device and method | |
JP2009068779A (en) | Method and device for guiding underwater traveling vehicle | |
JP6791387B2 (en) | Aircraft, air vehicle control device, air vehicle control method and air vehicle control program | |
JP2016182880A (en) | Flight control device of unmanned aircraft, flight control method for unmanned aircraft, and flight control program for unmanned aircraft | |
JP2008224114A (en) | Missile guidance system | |
WO2022101893A1 (en) | Aircraft control system, aircraft, aircraft control method, and program | |
JP4625766B2 (en) | Flying object guidance device and target meeting time prediction method | |
KR102180984B1 (en) | Method and apparatus for generating acceleration control command considering end point of acceleration of flight | |
JP6973302B2 (en) | Target recognition device | |
JP2021032547A (en) | Missile guidance device and missile guidance method | |
JP2006284120A (en) | Flying object guidance system | |
JP2021015638A (en) | Flight vehicle, flight vehicle controller, flight vehicle control method, and flight vehicle control program | |
JP4046626B2 (en) | Flying object guidance device | |
JP5713939B2 (en) | Target detection apparatus and target detection method | |
JP2730668B2 (en) | Control devices for flying objects |