[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021148355A - Flying object guidance device, flying object, flying object system and flying object guidance method - Google Patents

Flying object guidance device, flying object, flying object system and flying object guidance method Download PDF

Info

Publication number
JP2021148355A
JP2021148355A JP2020047983A JP2020047983A JP2021148355A JP 2021148355 A JP2021148355 A JP 2021148355A JP 2020047983 A JP2020047983 A JP 2020047983A JP 2020047983 A JP2020047983 A JP 2020047983A JP 2021148355 A JP2021148355 A JP 2021148355A
Authority
JP
Japan
Prior art keywords
target
flying object
error angle
motion
estimation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020047983A
Other languages
Japanese (ja)
Inventor
直樹 飯田
Naoki Iida
直樹 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020047983A priority Critical patent/JP2021148355A/en
Publication of JP2021148355A publication Critical patent/JP2021148355A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To reduce a guidance error by minimizing an error angle with a target at blind time.SOLUTION: According to a flying object guidance device, in the case of performing flying object guidance for guiding a flying object to be loaded to a rendezvous point with a target, the center of a target image is specified from an image which has imaged the target; an error angle with the target is detected based on a machine body attitude angle of the flying body; inertia information of the flying object is detected; change of the machine body movement of the flying object is estimated from the inertia information; the change of the target movement is estimated based on the estimation result of the machine body movement; the error angle with the target is estimated based on the estimation result of the machine body movement and the estimation result of the target movement; whether or not the flying object is in a blind region in which the error angle with the target cannot be acquired is determined; and, in a state where it is not in the blind region, the flying object is guided based on the detection result of the error angle with the target, and in a state where it is in the blind region, the flying object is guided based on the estimation result of the error angle with the target.SELECTED DRAWING: Figure 2

Description

この発明の実施形態は、飛しょう体誘導装置、飛しょう体、飛しょう体システム及び飛しょう体誘導方法に関する。 Embodiments of the present invention relate to a flyer guidance device, a flyer, a flyer system, and a flyer guidance method.

飛しょう体誘導装置において、飛しょう体を確実に目標に会合させるためには、最接近点における目標との測角値の誤差(以下、誤差角)を最小化することが課題の一つとなる。通常、目標の動きはイメージセンサを利用したシーカで観測される。シーカには、電波方式と光波方式に大別されるが、どちらの方式においても、目標と十分に接近した場合に、目標との測角値を計測できなくなるブラインドの問題が生じる。 In the flying object guidance device, in order to ensure that the flying object is associated with the target, it is one of the issues to minimize the error of the measured angle value with the target at the closest point (hereinafter referred to as the error angle). .. Normally, the movement of the target is observed by a seeker using an image sensor. Seekers are roughly classified into a radio wave method and a light wave method, and both methods have a blind problem that the angle measurement value with the target cannot be measured when the target is sufficiently close to the target.

このブラインド時における目標との誤差角を最小化して目標との会合精度を向上させる手法として、従来では、ブラインド時に目標との誤差角から目標位置情報をフィルタリングすることが提案されている。しかしながら、このフィルタリングによる手法では、ブラインド時の誘導誤差が大きくなる点については対応が難しいと想定される。 As a method of minimizing the error angle with the target at the time of blinding and improving the meeting accuracy with the target, conventionally, it has been proposed to filter the target position information from the error angle with the target at the time of blinding. However, it is assumed that it is difficult for this filtering method to deal with the fact that the induction error at the time of blinding becomes large.

特開平4−505号公報Japanese Unexamined Patent Publication No. 4-505 特開昭58−72897号公報Japanese Unexamined Patent Publication No. 58-72897

以上のように、従来の飛しょう体誘導装置にあっては、ブラインド時における目標との誤差角を最小化するための有効な手立てがなく、特にブラインド時の誘導誤差が大きくなる点については対応が難しいと想定されている。 As described above, the conventional flying object guiding device does not have an effective means for minimizing the error angle with the target at the time of blinding, and particularly deals with the point that the guiding error at the time of blinding becomes large. Is supposed to be difficult.

本発明に係る実施形態の課題は、ブラインド時における目標との誤差角を最小化して誘導誤差を低減し、飛しょう体を目標に会合させる精度を向上させることのできる飛しょう体誘導装置、飛しょう体、飛しょう体システム、飛しょう体誘導方法を提供することにある。 An object of the embodiment of the present invention is a flying object guiding device capable of minimizing an error angle with a target at the time of blinding, reducing an induction error, and improving the accuracy of associating the flying object with the target. The purpose is to provide the body, the flight body system, and the method of guiding the flight body.

実施形態に係る飛しょう体誘導装置によれば、被搭載の飛しょう体を目標との会合点に誘導する飛しょう体誘導する場合に、前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出し、前記飛しょう体の慣性情報を検出し、前記慣性情報から前記飛しょう体の機体運動の変化を推定し、前記機体運動の推定結果に基づいて目標運動の変化を推定し、前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標の誤差角を推定し、前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、ブラインド領域に入っていない状態では誤差角に基づいて誘導し、ブラインド領域に入った状態では推定誤差角に基づいて誘導するようにし、これによってブラインド時における目標との誤差角を最小化して誘導誤差を低減し、飛しょう体を目標に会合させる精度を向上させることができる。 According to the flying object guiding device according to the embodiment, when guiding the flying object to guide the mounted flying object to the meeting point with the target, the center of the target image is specified from the image image obtained by capturing the target. Then, the error angle from the target is detected based on the body posture angle of the flying body, the inertial information of the flying body is detected, and the change in the body motion of the flying body is estimated from the inertial information. The change in the target motion is estimated based on the estimation result of the aircraft motion, the error angle of the target is estimated based on the estimation result of the aircraft motion and the estimation result of the target motion, and the flying object is the target. Judge whether or not the error angle is not obtained, and guide based on the error angle when not in the blind area, and guide based on the estimated error angle when entering the blind area. This makes it possible to minimize the error angle with the target at the time of blinding, reduce the induction error, and improve the accuracy of associating the projectile with the target.

図1は、実施形態が適用される飛しょう体の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a flying object to which the embodiment is applied. 図2は、図1に示す飛しょう体に搭載される飛しょう体誘導装置の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a flying object guiding device mounted on the flying object shown in FIG. 図3は、図2に示す飛しょう体誘導装置の処理の流れを示すフローチャートである。FIG. 3 is a flowchart showing a processing flow of the flying body guiding device shown in FIG.

以下、図面を参照しながら、実施形態について説明する。
図1は本実施形態が適用される飛しょう体の概略構成を示すブロック図、図2は本実施形態に係る飛しょう体誘導装置の構成を示すブロック図である。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a flying object to which the present embodiment is applied, and FIG. 2 is a block diagram showing a configuration of a flying object guiding device according to the present embodiment.

図1において、飛しょう体1は、シーカ11、誘導装置12、操舵装置13を備える。シーカ11は、飛しょう体1の先頭に配置され、目標を撮像するイメージセンサ111を備え、イメージセンサ111でイメージ化された目標画像は誘導装置12に送られる。誘導装置12は、イメージセンサ111からの目標画像から目標の中心を求め、目標中心方向と機体姿勢角との関係から目標との誤差角を求める。この目標との誤差角は操舵装置13に送られる。操舵装置13は、目標会合点と、機体姿勢角と、目標との誤差角に基づいて操舵機構を駆動制御する。 In FIG. 1, the flying object 1 includes a seeker 11, a guiding device 12, and a steering device 13. The seeker 11 is arranged at the head of the flying object 1 and includes an image sensor 111 that images a target, and the target image imaged by the image sensor 111 is sent to the guidance device 12. The guidance device 12 obtains the center of the target from the target image from the image sensor 111, and obtains the error angle from the target from the relationship between the target center direction and the attitude angle of the aircraft. The error angle from this target is sent to the steering device 13. The steering device 13 drives and controls the steering mechanism based on the target meeting point, the attitude angle of the aircraft, and the error angle between the target and the target.

上記誘導装置12は、誤差角検出処理部121、目標運動推定処理部122、慣性データ検出処理部123、機体運動推定処理部124、誤差角推定処理部125、切換処理部126とを備える。 The guidance device 12 includes an error angle detection processing unit 121, a target motion estimation processing unit 122, an inertial data detection processing unit 123, an airframe motion estimation processing unit 124, an error angle estimation processing unit 125, and a switching processing unit 126.

誤差角検出処理部121は、イメージセンサ111でイメージ化された目標画像データから目標画像の中心を特定し、操舵装置13で得られる機体姿勢角に基づいて目標との誤差角を算出する。その目標との誤差角は切換処理部126を通じて操舵装置13に送られる。また、飛しょう体1がブラインド領域に入って目標画像の中心が特定できなくなった場合、その時点で特定不可(NG)を示すNG信号を生成する。このNG信号は目標運動推定処理部122に送られると共に、切換処理部126に送られる。 The error angle detection processing unit 121 identifies the center of the target image from the target image data imaged by the image sensor 111, and calculates the error angle from the target based on the aircraft attitude angle obtained by the steering device 13. The error angle from the target is sent to the steering device 13 through the switching processing unit 126. Further, when the flying object 1 enters the blind region and the center of the target image cannot be specified, an NG signal indicating that the target image cannot be specified (NG) is generated at that time. This NG signal is sent to the target motion estimation processing unit 122 and also to the switching processing unit 126.

一方、慣性データ検出処理部123は、機体姿勢角から機体の慣性データ(角度、角速度、加速度等)を検出する。この機体の慣性データは機体運動推定処理部124に送られる。 On the other hand, the inertial data detection processing unit 123 detects the inertial data (angle, angular velocity, acceleration, etc.) of the aircraft from the attitude angle of the aircraft. The inertial data of the airframe is sent to the airframe motion estimation processing unit 124.

機体運動推定処理部124は、機体の慣性データから機体の運動がどのように変化するかを推定する。この機体運動推定結果は目標運動推定処理部122及び誤差角推定処理部125に送られる。 The airframe motion estimation processing unit 124 estimates how the airframe motion changes from the inertial data of the airframe. The aircraft motion estimation result is sent to the target motion estimation processing unit 122 and the error angle estimation processing unit 125.

目標運動推定処理部122は、画像処理部121からNG信号を受けると、その直前に得られた目標との誤差角と機体運動推定処理部122で取得した機体運動推定結果から目標運動の変化を推定する。この目標運動推定結果は誤差角推定処理部125に送られる。 When the target motion estimation processing unit 122 receives the NG signal from the image processing unit 121, the target motion estimation processing unit 122 determines the change in the target motion from the error angle with the target obtained immediately before and the aircraft motion estimation result acquired by the aircraft motion estimation processing unit 122. presume. The target motion estimation result is sent to the error angle estimation processing unit 125.

誤差角推定処理部125は、目標運動推定結果と機体運動推定結果から目標の誤差角の変化を推定する。この誤差角推定結果は切換処理部126を通じて操舵装置13に送られる。 The error angle estimation processing unit 125 estimates the change in the target error angle from the target motion estimation result and the airframe motion estimation result. The error angle estimation result is sent to the steering device 13 through the switching processing unit 126.

上記切換処理部126は、NG信号の有無に応じて誤差角と誤差角推定結果を選択的に操舵装置13に出力する。 The switching processing unit 126 selectively outputs the error angle and the error angle estimation result to the steering device 13 according to the presence or absence of the NG signal.

上記画像処理部121は、地上制御装置(図示せず)から指定される飛しょう体を目標として選定する。 The image processing unit 121 selects a flying object designated by the ground control device (not shown) as a target.

上記構成において、図3を参照して誘導装置12の処理動作を説明する。ここで、図3は、図2に示す飛しょう体誘導装置の処理の流れを示すフローチャートである。 In the above configuration, the processing operation of the guidance device 12 will be described with reference to FIG. Here, FIG. 3 is a flowchart showing a processing flow of the flying body guiding device shown in FIG.

まず、イメージセンサ111で得られる目標画像は、飛しょう体1が目標に接近するにつれて目標本体に対するプルームの比率が大きくなり、目標画像の中心が目標本体からずれていき、ブラインド領域に入ると、目標中心が目標本体から外れてしまう。 First, in the target image obtained by the image sensor 111, the ratio of the plume to the target body increases as the flying object 1 approaches the target, and the center of the target image deviates from the target body and enters the blind area. The target center deviates from the target body.

そこで、誤差角検出処理部121では、飛しょう体1が目標との相対位置関係から割り出されるブラインド領域に入ったか否かを判断する(ステップS1)。飛しょう体1がブラインド領域に入るまでは、目標画像から得られた誤差角を、切換処理部126を通じて操舵装置13に送り、目標中心に基づき目標会合点に向けて誘導制御を行い(ステップS2)、ステップS1に戻る。飛しょう体1がブラインド領域に入った後は、NG信号を出力し、誤差角推定結果を、切換処理部126を通じて操舵装置13に送り、目標中心の誤差角推定結果に基づき目標会合点に向けて誘導制御を行い、会合まで継続する(ステップS3)。 Therefore, the error angle detection processing unit 121 determines whether or not the flying object 1 has entered the blind region determined from the relative positional relationship with the target (step S1). Until the flying object 1 enters the blind region, the error angle obtained from the target image is sent to the steering device 13 through the switching processing unit 126, and guidance control is performed toward the target meeting point based on the target center (step S2). ), Return to step S1. After the flying object 1 enters the blind region, an NG signal is output, the error angle estimation result is sent to the steering device 13 through the switching processing unit 126, and the error angle estimation result at the target center is directed toward the target meeting point. Guidance control is performed and the meeting is continued until the meeting (step S3).

以上のように、本実施形態によれば、ブラインド後も直前の目標との誤差角から最適な誤差角推定を実行し、その誤差角推定値で誘導制御を行うようにしているので、ブラインド時における目標との誤差角を最小化して誘導誤差を低減し、飛しょう体1を目標に会合させる精度を向上させることができる。 As described above, according to the present embodiment, even after blinding, the optimum error angle estimation is executed from the error angle with the immediately preceding target, and the guidance control is performed based on the error angle estimated value. The error angle with the target in the above can be minimized to reduce the induction error, and the accuracy of associating the flying object 1 with the target can be improved.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components across different embodiments may be combined as appropriate.

1…飛しょう体、
11…シーカ、111…イメージセンサ、
12…誘導装置、121…誤差角検出処理部、122…目標運動推定処理部、123…慣性データ検出処理部、124…機体運動推定処理部、125…誤差角推定処理部、126…切換処理部、
13…操舵装置。
1 ... Flying body,
11 ... Seeker, 111 ... Image sensor,
12 ... Guidance device, 121 ... Error angle detection processing unit, 122 ... Target motion estimation processing unit, 123 ... Inertia data detection processing unit, 124 ... Airframe motion estimation processing unit, 125 ... Error angle estimation processing unit, 126 ... Switching processing unit ,
13 ... Steering device.

Claims (4)

被搭載の飛しょう体を目標との会合点に誘導する飛しょう体誘導装置において、
前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出する誤差角検出部と、
前記飛しょう体の慣性情報を検出する慣性情報検出部と、
前記慣性情報から前記飛しょう体の機体運動の変化を推定する機体運動推定部と、
前記機体運動推定部の推定結果に基づいて目標運動の変化を推定する目標運動推定部と、
前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標との誤差角を推定する誤差角推定部と、
前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、ブラインド領域に入っていない状態では前記誤差角検出部で検出される誤差角に基づいて誘導し、前記ブラインド領域に入った状態では前記誤差角推定部で推定される誤差角に基づいて誘導する切換部と
を具備する飛しょう体誘導装置。
In the flying object guidance device that guides the mounted flying object to the meeting point with the target
An error angle detection unit that identifies the center of the target image from the image image of the target and detects the error angle with the target based on the attitude angle of the flying object.
Inertia information detection unit that detects inertial information of the flying object,
An airframe motion estimation unit that estimates changes in the airframe motion of the flying object from the inertial information,
The target motion estimation unit that estimates the change in the target motion based on the estimation result of the aircraft motion estimation unit, and the target motion estimation unit.
An error angle estimation unit that estimates an error angle with the target based on the estimation result of the aircraft motion and the estimation result of the target motion,
It is determined whether or not the flying object has entered the blind region where the error angle with respect to the target cannot be obtained, and in the state where the flying object is not in the blind region, it is guided based on the error angle detected by the error angle detection unit. , A flying object guiding device including a switching unit that guides based on an error angle estimated by the error angle estimating unit in a state of entering the blind region.
目標との会合点に誘導する誘導装置を搭載する飛しょう体であって、
前記誘導装置は、
前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出する誤差角検出部と、
前記飛しょう体の慣性情報を検出する慣性情報検出部と、
前記慣性情報から前記飛しょう体の機体運動の変化を推定する機体運動推定部と、
前記機体運動推定部の推定結果に基づいて目標運動の変化を推定する目標運動推定部と、
前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標との誤差角を推定する誤差角推定部と、
前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、ブラインド領域に入っていない状態では前記誤差角検出部で検出される誤差角に基づいて誘導し、前記ブラインド領域に入った状態では前記誤差角推定部で推定される誤差角に基づいて誘導する切換部と
を具備する飛しょう体。
It is a flying object equipped with a guidance device that guides to the meeting point with the target.
The guidance device is
An error angle detection unit that identifies the center of the target image from the image image of the target and detects the error angle with the target based on the attitude angle of the flying object.
Inertia information detection unit that detects inertial information of the flying object,
An airframe motion estimation unit that estimates changes in the airframe motion of the flying object from the inertial information,
The target motion estimation unit that estimates the change in the target motion based on the estimation result of the aircraft motion estimation unit, and the target motion estimation unit.
An error angle estimation unit that estimates an error angle with the target based on the estimation result of the aircraft motion and the estimation result of the target motion,
It is determined whether or not the flying object has entered the blind region where the error angle with respect to the target cannot be obtained, and in the state where the flying object is not in the blind region, it is guided based on the error angle detected by the error angle detection unit. , A flying object provided with a switching unit that guides based on the error angle estimated by the error angle estimation unit in the state of entering the blind region.
目標との会合点に誘導する誘導装置を搭載する飛しょう体を制御する飛しょう体システムであって、
前記誘導装置は、
前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出する誤差角検出部と、
前記飛しょう体の慣性情報を検出する慣性情報検出部と、
前記慣性情報から前記飛しょう体の機体運動の変化を推定する機体運動推定部と、
前記機体運動推定部の推定結果に基づいて目標運動の変化を推定する目標運動推定部と、
前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標との誤差角を推定する誤差角推定部と、
前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、ブラインド領域に入っていない状態では前記誤差角検出部で検出される誤差角に基づいて誘導し、前記ブラインド領域に入った状態では前記誤差角推定部で推定される推定誤差角に基づいて誘導する切換部と
を具備し、
前記誘導装置に前記目標を指定する指定手段を備える飛しょう体システム。
It is a flying object system that controls the flying object equipped with a guidance device that guides it to the meeting point with the target.
The guidance device is
An error angle detection unit that identifies the center of the target image from the image image of the target and detects the error angle with the target based on the attitude angle of the flying object.
Inertia information detection unit that detects inertial information of the flying object,
An airframe motion estimation unit that estimates changes in the airframe motion of the flying object from the inertial information,
The target motion estimation unit that estimates the change in the target motion based on the estimation result of the aircraft motion estimation unit, and the target motion estimation unit.
An error angle estimation unit that estimates an error angle with the target based on the estimation result of the aircraft motion and the estimation result of the target motion,
It is determined whether or not the flying object has entered the blind region where the error angle with respect to the target cannot be obtained, and in the state where the flying object is not in the blind region, it is guided based on the error angle detected by the error angle detection unit. In the state of entering the blind region, a switching unit for guiding based on the estimated error angle estimated by the error angle estimation unit is provided.
A flying body system provided with a designation means for designating the target in the guidance device.
被搭載の飛しょう体を目標との会合点に誘導する飛しょう体誘導方法において、
前記目標を撮像したイメージ画像から目標画像の中心を特定し、前記飛しょう体の機体姿勢角に基づいて目標との誤差角を検出し、
前記飛しょう体の慣性情報を検出し、
前記慣性情報から前記飛しょう体の機体運動の変化を推定し、
前記機体運動の推定結果に基づいて目標運動の変化を推定し、
前記機体運動の推定結果と前記目標運動の推定結果に基づいて前記目標との誤差角を推定し、
前記飛しょう体が前記目標との誤差角が得られないブラインド領域に入ったか否かを判断し、
前記ブラインド領域に入っていない状態では前記目標との誤差角の検出結果に基づいて誘導し、前記ブラインド領域に入った状態では前記目標との誤差角の推定結果に基づいて誘導する
飛しょう体誘導方法。
In the flying object guidance method that guides the mounted flying object to the meeting point with the target,
The center of the target image is specified from the image image obtained by capturing the target, and the error angle with the target is detected based on the attitude angle of the flying object.
Detects the inertial information of the flying body and
The change in the airframe movement of the flying object is estimated from the inertial information, and the change is estimated.
Estimate the change in the target motion based on the estimation result of the aircraft motion,
Based on the estimation result of the aircraft motion and the estimation result of the target motion, the error angle with the target is estimated.
It is determined whether or not the flying object has entered the blind area where the error angle with the target cannot be obtained.
In the state where it is not in the blind area, it is guided based on the detection result of the error angle with the target, and in the state where it is in the blind area, it is guided based on the estimation result of the error angle with the target. Method.
JP2020047983A 2020-03-18 2020-03-18 Flying object guidance device, flying object, flying object system and flying object guidance method Pending JP2021148355A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020047983A JP2021148355A (en) 2020-03-18 2020-03-18 Flying object guidance device, flying object, flying object system and flying object guidance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047983A JP2021148355A (en) 2020-03-18 2020-03-18 Flying object guidance device, flying object, flying object system and flying object guidance method

Publications (1)

Publication Number Publication Date
JP2021148355A true JP2021148355A (en) 2021-09-27

Family

ID=77848259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020047983A Pending JP2021148355A (en) 2020-03-18 2020-03-18 Flying object guidance device, flying object, flying object system and flying object guidance method

Country Status (1)

Country Link
JP (1) JP2021148355A (en)

Similar Documents

Publication Publication Date Title
KR101157484B1 (en) Uav automatic recovering method
KR101475826B1 (en) Leader-Follower Formation Device, Method and Mobile robot using Backstepping Method
EP3231714B1 (en) Systems and methods for landing lights
JP6929915B2 (en) Aircraft position control system, aircraft and aircraft position control method
KR102156852B1 (en) Apparatus and method for controlling impact angle considered look angle limits of air vehicle
KR101622260B1 (en) Impact time control guidance method and device
KR101052038B1 (en) Image tracking apparatus and method for tracking target using the apparatus
US10474148B2 (en) Navigating an unmanned aerial vehicle
JP2022078702A (en) Aircraft position control system, aircraft, and aircraft position control method
JP2021148355A (en) Flying object guidance device, flying object, flying object system and flying object guidance method
JP2018098715A (en) On-vehicle camera posture change detection device and method
JP2009068779A (en) Method and device for guiding underwater traveling vehicle
JP6791387B2 (en) Aircraft, air vehicle control device, air vehicle control method and air vehicle control program
JP2016182880A (en) Flight control device of unmanned aircraft, flight control method for unmanned aircraft, and flight control program for unmanned aircraft
JP2008224114A (en) Missile guidance system
WO2022101893A1 (en) Aircraft control system, aircraft, aircraft control method, and program
JP4625766B2 (en) Flying object guidance device and target meeting time prediction method
KR102180984B1 (en) Method and apparatus for generating acceleration control command considering end point of acceleration of flight
JP6973302B2 (en) Target recognition device
JP2021032547A (en) Missile guidance device and missile guidance method
JP2006284120A (en) Flying object guidance system
JP2021015638A (en) Flight vehicle, flight vehicle controller, flight vehicle control method, and flight vehicle control program
JP4046626B2 (en) Flying object guidance device
JP5713939B2 (en) Target detection apparatus and target detection method
JP2730668B2 (en) Control devices for flying objects