[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6383716B2 - Control device and control method for drone - Google Patents

Control device and control method for drone Download PDF

Info

Publication number
JP6383716B2
JP6383716B2 JP2015228852A JP2015228852A JP6383716B2 JP 6383716 B2 JP6383716 B2 JP 6383716B2 JP 2015228852 A JP2015228852 A JP 2015228852A JP 2015228852 A JP2015228852 A JP 2015228852A JP 6383716 B2 JP6383716 B2 JP 6383716B2
Authority
JP
Japan
Prior art keywords
time
drone
state
series
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015228852A
Other languages
Japanese (ja)
Other versions
JP2017097602A (en
Inventor
村田 直史
直史 村田
達矢 橋本
達矢 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2015228852A priority Critical patent/JP6383716B2/en
Publication of JP2017097602A publication Critical patent/JP2017097602A/en
Application granted granted Critical
Publication of JP6383716B2 publication Critical patent/JP6383716B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本開示は、無人機との通信を介して無人機を遠隔制御するための制御装置および制御方法に関する。   The present disclosure relates to a control device and a control method for remotely controlling a drone via communication with the drone.

遠隔制御される無人機は社会の様々なシーンで利用され、例えば、原子炉の廃炉作業の為の様々な無人機が開発され、軽作業や調査のために現場投入されている。ところで、無人機と通信する制御装置を使用して、無人機の手動遠隔制御を行う方法を採用すると、当該制御装置と当該無人機との間の通信遅延を無視することはできない。当該通信遅延により、無人機が自機の状態を実測した実測値を制御装置側に送信しても、制御装置側で遅延して受信され、制御装置側が無人機に対して送信した操作指令は、無人機側で遅延して受信されることとなる。通信遅延が無視できない環境では、無人機は、仕様の上では高速移動が可能であるにもかかわらず、実際の運用においては、インチングに近い制御動作を強いられる。その結果、そのような環境で無人機を遠隔制御して実行される作業は非常に効率が悪く、作業の遅延をもたらし、逆に操作者が自身で無人機の動作を予測して高速動作を試みると、操作者の誤操作を招いてしまう。   Remotely controlled drones are used in various scenes in society. For example, various drones for decommissioning of nuclear reactors have been developed and put on-site for light work and investigation. By the way, if a method of performing manual remote control of an unmanned aircraft using a control device that communicates with the unmanned aircraft, communication delay between the control device and the unmanned aircraft cannot be ignored. Due to the communication delay, even if the drone transmits the actual measured value of the state of its own machine to the control device side, the operation command received by the control device side with a delay is transmitted to the drone. Therefore, it is received with a delay at the drone side. In an environment where communication delay cannot be ignored, the drone is forced to perform a control operation close to inching in actual operation, although it can move at high speed in terms of specifications. As a result, the work performed by remotely controlling the drone in such an environment is very inefficient, resulting in work delays, and conversely, the operator predicts the drone's operation by itself and performs high-speed operation. Attempts to do so will result in operator error.

上述した通信遅延の影響を意識した遠隔制御システムの従来例として、特許文献1に記載の遠隔制御システムが挙げられる。特許文献1記載の発明において、無人機は、推定アルゴリズムなどにより推定した自機の推定位置と自機の実測位置とを比較し、当該推定位置と当該実測位置との間の誤差が大きい時だけ当該実測位置を制御装置に送信する。また、特許文献1記載の発明において、制御装置は、無人機側と同様の推定アルゴリズムで無人機の推定位置を追跡し、当該実測位置を受信すると、当該追跡中の推定位置を当該受信した実測位置により更新する。   As a conventional example of the remote control system in consideration of the influence of the communication delay described above, there is a remote control system described in Patent Document 1. In the invention described in Patent Document 1, the drone compares the estimated position of the own machine estimated by an estimation algorithm or the like with the measured position of the own machine, and only when the error between the estimated position and the measured position is large. The actual measurement position is transmitted to the control device. In the invention described in Patent Document 1, the control device tracks the estimated position of the unmanned aircraft with the same estimation algorithm as that of the unmanned aircraft, and receives the measured position. Update with position.

特許第56324760号公報Japanese Patent No. 5634760

通信遅延に起因する上記問題の解決策として高速な通信システムを導入しようとしても、充分な性能を達成可能な通信環境を構築できるとは限らず、無人機制御のためにそのような通信システムを実現することは困難である。例えば、原子炉建屋内では、広帯域通信が可能な光ファイバ回線を介して無人機と制御装置を接続する通信システムが採用されている。しかし、当該光ファイバ回線は、原子炉建屋内の他の機器類と共用されており、通信帯域を特定の無人機が専有できないので、当該光ファイバ回線を介した無人機の遠隔操作中に他の機器類による通信が発生した場合には、想定外の通信遅延が発生してしまう。   Even if a high-speed communication system is to be introduced as a solution to the above problem caused by communication delay, a communication environment capable of achieving sufficient performance cannot always be constructed, and such a communication system can be used for drone control. It is difficult to realize. For example, in a reactor building, a communication system that connects a drone and a control device via an optical fiber line capable of broadband communication is employed. However, since the optical fiber line is shared with other equipment in the reactor building and a specific drone cannot occupy the communication band, it is not possible to perform other operations during remote operation of the drone via the optical fiber line. When communication by these devices occurs, an unexpected communication delay occurs.

特許文献1記載の遠隔制御システムでは、無人機の推定位置と実測位置との間の誤差が大きい時だけ当該実測位置を無人機から制御装置に送信することにより、無人機と制御装置との間の通信帯域幅の使用量を低減し、それにより通信遅延の低減を図っている。しかしながら、特許文献1は無人機から受信したフィードバック信号(例えば、無人機が自機の状態を実測した実測値)を、制御装置側において通信遅延を考慮した上で無人機制御動作に反映させる仕組みや手段を開示していない。   In the remote control system described in Patent Document 1, the measured position is transmitted from the drone to the control device only when there is a large error between the estimated position of the drone and the measured position. The amount of communication bandwidth used is reduced, thereby reducing communication delay. However, Patent Document 1 discloses a mechanism for reflecting a feedback signal received from an unmanned aerial vehicle (for example, an actual measurement value obtained by actually measuring the state of the unmanned aircraft) in a drone control operation in consideration of a communication delay on the control device side. And does not disclose any means.

上記問題点に鑑み、本発明に係る少なくとも一実施形態は、制御装置の操作者が無人機周辺の画像情報を見ながら無人機の手動遠隔制御を行う場合に、無人機から受信した実測値を、制御装置側において通信遅延を考慮した上で無人機制御動作に反映させる制御装置および制御方法を得ることを目的とする。   In view of the above problems, at least one embodiment according to the present invention provides an actual measurement value received from the drone when the operator of the control device performs manual remote control of the drone while viewing image information around the drone. An object of the present invention is to obtain a control device and a control method that are reflected in the drone control operation in consideration of communication delay on the control device side.

(1)本発明の幾つかの実施形態に係る制御装置は、無人機の現在の推定状態を順次画面表示可能な表示装置と、
前記無人機を遠隔制御するために前記表示装置に画面表示された前記無人機の現在の推定状態に基づいて操作者が入力した操作指令を前記無人機に送信可能であり、且つ、前記無人機が自機の状態を順次実測した実測値を前記無人機から順次受信可能な通信部と、
それぞれ前記実測値を反映した制御モデルに基づいて、前記操作指令から前記無人機の現在の推定状態を求める時系列的演算を実行して求められた前記無人機の現在の推定状態を前記表示装置に提供可能な第1演算部及び第2演算部を含む2つ以上の演算部と、
を備える制御装置であって、
前記第1演算部及び前記第2演算部は、前記実測値を交番的に受け取り可能であって、前記実測値を受け取る都度、前記時系列的演算を繰り返し実行するように構成され、
前記第1演算部は、交番的に受け取った一の実測値を反映した一の制御モデルに基づいて、前記時系列的演算が前記一の実測値の実測時刻から現在時刻に追い付く一の時刻まで実時間の経過よりも高速に、前記時系列的演算を順次実行可能であり、
前記第2演算部は、交番的に受け取った他の実測値を反映した他の制御モデルに基づいて、前記時系列的演算が前記他の実測値の実測時刻から現在時刻に追い付く他の時刻まで実時間の経過よりも高速に、前記時系列的演算を順次実行可能であり、
前記第1演算部は、前記一の時刻から次の前記他の時刻まで、前記無人機の現在の推定状態を前記表示装置に提供するように構成され、
前記第2演算部は、前記他の時刻から次の前記一の時刻まで、前記無人機の現在の推定状態を前記表示装置に提供するように構成されている。
(1) A control device according to some embodiments of the present invention includes a display device capable of sequentially displaying the current estimated state of the drone on a screen,
An operation command input by an operator based on the current estimated state of the drone displayed on the display device for remote control of the drone can be transmitted to the drone, and the drone A communication unit capable of sequentially receiving actual measurement values of the state of the own machine from the drone,
The display device displays the current estimated state of the unmanned aircraft obtained by executing a time-series operation for obtaining the current estimated state of the unmanned aircraft from the operation command based on a control model that reflects the actual measurement values. Two or more calculation units including a first calculation unit and a second calculation unit that can be provided to,
A control device comprising:
The first calculation unit and the second calculation unit are configured to alternately receive the actual measurement value, and each time the actual measurement value is received, the time calculation operation is repeatedly performed.
The first calculation unit is based on one control model reflecting one actually measured value, which is received alternately, until one time when the time series calculation catches up from the actually measured time of the one actually measured value to the current time. The time-series operations can be executed sequentially at a speed higher than the passage of real time,
Based on another control model reflecting other actually measured values received alternately, the second calculating unit is based on the time series calculation from the actually measured time of the other actually measured values to another time that catches up with the current time. The time-series operations can be executed sequentially at a speed higher than the passage of real time,
The first calculation unit is configured to provide the display device with a current estimated state of the drone from the one time to the next other time,
The second calculation unit is configured to provide the display device with a current estimated state of the drone from the other time to the next one time.

上記(1)の構成においては、新たな実測値を無人機から受信すると、新たな実測値を既存の制御モデルに反映して更新することにより新たな制御モデルが得られるので、当該新たな実測値により制御モデルのモデル化誤差を改善することができる。ただし、そのためには、当該新たな実測値の実測時刻から現在時刻までの通信遅延により生じた制御モデルの更新遅延を補償する必要がある。そこで、上記(1)の構成においては、当該新たな制御モデルに基づいて無人機の現在の推定状態を時系列的に求める動作を、当該実測時刻から始めて現在時刻に追い付くまで、実時間の経過よりも高速に実行する。
以上より、上記(1)の構成によれば、通信遅延により無人機から新しい実測値を受信できない間でも操作者に対して無人機制御のためのフィードバックを与えつつ、最新の実測値を無人機から受信すると、通信遅延により生じた制御モデルの更新遅延を補償する形で、当該最新の実測値を操作者へのフィードバックに反映させることができる。従って、上記(1)の構成によれば、制御装置の操作者が無人機周辺の情報を頼りに無人機の手動遠隔制御を行う場合に、無人機から受信した実測値を、通信遅延を考慮した上で制御装置側の無人機制御動作に反映させることができる。
In the configuration of (1) above, when a new actual measurement value is received from the drone, a new control model is obtained by reflecting the new actual measurement value on the existing control model and updating it. The value can improve the modeling error of the control model. However, for that purpose, it is necessary to compensate for the update delay of the control model caused by the communication delay from the actual measurement time of the new actual measurement value to the current time. Therefore, in the configuration of (1) above, the operation of obtaining the current estimated state of the unmanned aircraft in time series based on the new control model starts from the actual measurement time until it catches up with the current time. Run faster.
As described above, according to the configuration of the above (1), the latest measured value is given to the unmanned machine while giving feedback for the unmanned machine control to the operator even when the new measured value cannot be received from the unmanned machine due to communication delay. The latest measured value can be reflected in the feedback to the operator in a form that compensates for the update delay of the control model caused by the communication delay. Therefore, according to the configuration of (1) above, when the operator of the control device performs manual remote control of the drone by relying on information around the drone, the measured value received from the drone is considered in communication delay. In addition, it can be reflected in the unmanned aircraft control operation on the control device side.

また、上記(1)の構成では、無人機の直近の状態を表す最新の実測値を制御装置が遅れて受信しても、当該遅れて受信するまでの間は、以前に受信した実測値が反映された制御モデルに基づいて、無人機の現在の状態を時系列的に状態推定しながら順次画面表示することができる。従って、最新の実測値を制御装置が遅れて受信するまでの間においても、順次画面表示すべき無人機の現在の状態を、以前の実測値が反映された制御モデルに基づいて時系列的に状態推定し続けることができる。従って、最新の実測値を制御装置が遅れて受信するまでの間に無人機の今現在の状態を見ながら制御を行うことができない空白の時間が存在しなくなるので、制御装置の操作者は、通信遅延を意識せずに、無人機の手動遠隔制御を行うことができる。
さらに、上記(1)の構成では、無人機の直近の状態を表す最新の実測値を制御装置が遅れて受信した後には、当該最新の実測値を反映した制御モデルに基づいて、無人機の現在の状態を状態推定して画面表示することができる。従って、制御モデルに基づいて状態推定された無人機の現在の状態を表示装置の画面上で見ながら操作者が無人機の手動遠隔制御を行う場合、時間の経過に伴う制御モデルのモデル化誤差を蓄積させずに、無人機の現在の状態を状態推定することが可能となる。
In the configuration of (1) above, even if the latest measured value representing the most recent state of the drone is received with a delay, the previously received measured value is not received until the delayed reception. Based on the reflected control model, the current state of the drone can be sequentially displayed on the screen while estimating the state in time series. Therefore, the current state of the drone that should be displayed on the screen in sequence until the control device receives the latest actual measured value with a delay based on the control model that reflects the previous actual measured value. The state can be estimated continuously. Therefore, since there is no blank time during which control cannot be performed while viewing the current state of the drone before the latest measured value is received by the control device late, the operator of the control device Manual remote control of the drone can be performed without being aware of communication delay.
Further, in the configuration of (1) above, after the control device receives the latest measured value representing the most recent state of the drone with a delay, based on the control model reflecting the latest measured value, The current state can be estimated and displayed on the screen. Therefore, if the operator performs manual remote control of the drone while viewing the current state of the drone estimated based on the control model on the screen of the display device, the modeling error of the control model over time It is possible to estimate the current state of the drone without accumulating.

(2)本発明の幾つかの実施形態では、上記(1)の構成において、前記制御モデルは、状態推定フィルタを含むように構成され、
前記実測値の実測時刻から現在時刻に追い付く時刻まで、実時間の経過よりも高速に実行される前記時系列的演算は、前記実測値を前記状態推定フィルタの内部状態に反映させる事後予測動作と、前記実測値を反映させた内部状態に基づいて前記状態推定フィルタの予測動作を実時間の経過よりも高速に行う高速状態予測動作を含むように構成され、
前記無人機の現在の推定状態を前記表示装置に提供する処理は、実時間の経過よりも高速に実行される前記時系列的演算が現在時刻に追い付いた後に、前記高速状態予測動作を継続する形で前記状態推定フィルタの予測動作を実時間の経過に合わせて行いながら時系列的な前記推定状態を画面表示する事前予測動作に切り替えるように構成される。
(2) In some embodiments of the present invention, in the configuration of (1), the control model is configured to include a state estimation filter,
From the actual measurement time of the actual measurement value to the time of catching up with the current time, the time series calculation executed at a speed higher than the passage of real time includes a post-prediction operation that reflects the actual measurement value in the internal state of the state estimation filter. The state estimation filter is configured to include a high-speed state prediction operation for performing the prediction operation of the state estimation filter at a speed higher than the passage of real time based on the internal state reflecting the actual measurement value,
The process of providing the display device with the current estimated state of the drone continues the high-speed state prediction operation after the time-series operation executed faster than the passage of real time catches up with the current time The state estimation filter is configured to switch to a pre-prediction operation that displays the time-series estimation state on the screen while performing the prediction operation of the state estimation filter with the passage of real time.

上記(2)の構成では、前記制御モデルは、状態推定フィルタを含むように構成されている。上記(2)の構成では、制御モデルが状態推定フィルタ以外の伝達関数で表現される場合とは異なり、無人機の現在の状態を時系列的に状態推定する処理を、状態推定フィルタによる各ループ処理が時間軸上の各時刻に対応する単純な繰り返しループ処理として時間ドメインで実行することができる。
また、上記(2)の構成では、新たに受信した実測値を前記状態フィルタの内部状態に反映させる事後予測動作を実行するのに続き、当該実測値の実測時刻を起点として、当該実測値を反映させた内部状態に基づいて状態推定フィルタの予測動作を高速状態予測動作として実時間よりも高速に実行し、当該高速状態予測動作の実行が現在時刻に追い付いたら、状態推定フィルタの予測動作を事前予測動作に切り替えてそのまま継続する。
従って、上記(2)の構成では、制御モデルに基づいて無人機の現在の状態を時系列的に状態推定する処理を実現する際に、上述した時間ドメインでの各ループ処理が終了する都度、各ループ処理で算出された状態変数から無人機の現在の状態を直接得ることができる。その結果、無人機の現在の状態を状態推定する処理において、制御モデルの内部変数値を無人機の現在の状態に変換する処理が不要となり、計算を高速化することができる。
また、上記(2)の構成では、最新の実測値が反映された制御モデルに基づいて無人機の現在の状態を状態推定する処理を実現するには、最新の実測値が実測された時刻に対応するループ処理において状態推定フィルタの状態変数値に当該最新の実測値を反映させた上で予測動作をそのまま継続するだけでよい。その結果、当該最新の実測値を制御モデルに反映するために、当該最新の実測値を制御モデルの内部表現に変換した上で制御モデルの内部状態に適用する処理が不要となり、計算を高速化することができる。
In the configuration of (2) above, the control model is configured to include a state estimation filter. In the configuration of (2) above, unlike the case where the control model is expressed by a transfer function other than the state estimation filter, the process of estimating the current state of the unmanned aircraft in time series is performed in each loop by the state estimation filter. The process can be executed in the time domain as a simple iterative loop process corresponding to each time on the time axis.
In the configuration of (2), following the execution of the a posteriori prediction operation in which the newly received actual measurement value is reflected in the internal state of the state filter, the actual measurement value is calculated using the actual measurement time of the actual measurement value as a starting point. Based on the reflected internal state, the prediction operation of the state estimation filter is executed as a high-speed state prediction operation faster than real time, and when the execution of the high-speed state prediction operation catches up with the current time, the prediction operation of the state estimation filter is performed. Switch to advance prediction operation and continue as it is.
Therefore, in the configuration of (2) above, when realizing the process of estimating the current state of the drone in a time series based on the control model, each loop process in the time domain described above is completed, The current state of the drone can be directly obtained from the state variable calculated in each loop process. As a result, in the process of estimating the current state of the drone, the process of converting the internal variable value of the control model into the current state of the drone is unnecessary, and the calculation can be speeded up.
In the configuration of (2) above, in order to realize the process of estimating the current state of the drone based on the control model reflecting the latest measured value, at the time when the latest measured value is actually measured. It is only necessary to continue the prediction operation as it is after reflecting the latest measured value in the state variable value of the state estimation filter in the corresponding loop processing. As a result, in order to reflect the latest measured values in the control model, it is not necessary to convert the latest measured values into the internal representation of the control model and apply them to the internal state of the control model, speeding up the calculation. can do.

(3)本発明の幾つかの実施形態では、上記(1)または(2)の構成において、前記2つ以上の演算部は第3演算部を含み、前記第3演算部は、
前記一の実測値を前記制御モデルに反映して得られる前記一の制御モデルに基づいて、前記操作指令から前記無人機の現在の推定状態を時系列的に求める時系列的演算を、前記一の実測値が実測された時刻から現在時刻を通過して一の未来の時点に至るまで、実時間の経過よりも高速に実行するように構成され、
前記第3演算部による時系列的演算は、前記第1演算部及び前記第2演算部による前記時系列的演算とは並列に実行するように構成され、
前記第3演算部による時系列的演算が前記一の未来の時点に到達した後に前記第3演算部による時系列的演算により求められた前記無人機の現在の推定状態を、前記無人機の未来の推定状態として、前記表示装置に提供可能であることを特徴とする。
(3) In some embodiments of the present invention, in the configuration of (1) or (2), the two or more arithmetic units include a third arithmetic unit, and the third arithmetic unit includes:
Based on the one control model obtained by reflecting the one actual measurement value on the control model, a time-series operation for obtaining a current estimated state of the drone from the operation command in time series is performed. It is configured to execute faster than the passage of real time, from the time when the actual measurement value of the actual measurement passed through the current time to the time of one future.
The time series calculation by the third calculation unit is configured to be executed in parallel with the time series calculation by the first calculation unit and the second calculation unit,
The current estimated state of the drone obtained by the time-series operation by the third operation unit after the time-series operation by the third operation unit reaches the one future time point is determined as the future of the unmanned aircraft. The estimated state can be provided to the display device.

上記(3)の構成によれば、無人機の状態を未来の時点まで時系列的に状態推定し、現在時刻から未来の時点までの無人機の状態を、当該無人機の現在の状態に重畳して画面表示することができる。その結果、上記(3)の構成によれば、操作者が想定している軌道に沿って無人機の遠隔制御を続けた場合に、未来の時点において無人機が障害物に接触したり、擱座したりする可能性を事前に察知することができる。従って、そのような場合には、操作者が事前に軌道を修正することが可能となる。特に、操作者が無人機周辺を撮影する視野から見て死角に隠れている障害物を見落として無人機制御を続けている場合、操作者のミスにより無人機が障害物に接触したり、擱座したりする可能性を事前に察知し、無人機の操作ミスを防止することが可能となる。   According to the configuration of (3) above, the state of the drone is estimated in time series from the current time to the future time, and the state of the drone from the current time to the future time is superimposed on the current state of the drone. Can be displayed on the screen. As a result, according to the configuration of (3) above, when remote control of the drone is continued along the trajectory assumed by the operator, the drone touches an obstacle at a future point in time, The possibility of doing this can be detected in advance. Therefore, in such a case, the operator can correct the trajectory in advance. In particular, when the operator continues to control the drone by overlooking an obstacle hidden in the blind spot when viewed from the field of view of the area around the drone, the drone touches the obstruction due to an operator error, or the scorpio It is possible to detect the possibility of the drone in advance and prevent an operation error of the drone.

(4)本発明の幾つかの実施形態では、上記(3)の構成において、前記2つ以上の演算部は第4演算部を含み、前記第4演算部は、
前記他の実測値を前記制御モデルに反映して得られる前記他の制御モデルに基づいて、前記操作指令から前記無人機の現在の推定状態を時系列的に求める時系列的演算を、前記他の実測値が実測された時刻から現在時刻を通過して他の未来の時点に至るまで、実時間の経過よりも高速に実行するように構成され、
前記第4演算部による時系列的演算は、前記第1演算部、前記第2演算部及び前記第3演算部による前記時系列的演算とは並列に実行するように構成され、
前記第4演算部による時系列的演算が前記他の未来の時点に到達した後に前記第4演算部による時系列的演算により求められた前記無人機の現在の推定状態を、前記無人機の未来の推定状態として、前記表示装置に提供可能であり、
前記第3演算部は、前記一の未来の時点から次の前記他の未来の時点まで、前記無人機の未来の推定状態を前記表示装置に提供するように構成され、
前記第4演算部は、前記他の未来の時点から次の前記一の未来の時点まで、前記無人機の未来の推定状態を前記表示装置に提供するように構成されている。
(4) In some embodiments of the present invention, in the configuration of (3), the two or more calculation units include a fourth calculation unit, and the fourth calculation unit includes:
Based on the other control model obtained by reflecting the other actual measurement value on the control model, a time series operation for obtaining the current estimated state of the drone from the operation command in time series is performed. It is configured to execute faster than the passage of real time, from the time when the actual measurement value of the actual measurement passed through the current time to another future time point,
The time series computation by the fourth computation unit is configured to be executed in parallel with the time series computation by the first computation unit, the second computation unit, and the third computation unit,
The current estimated state of the unmanned aircraft obtained by the time-series computation by the fourth computation unit after the time-series computation by the fourth computation unit reaches the other future time point is determined as the future of the unmanned aircraft. The estimated state can be provided to the display device,
The third calculation unit is configured to provide the display device with an estimated future state of the drone from the one future time point to the next other future time point,
The fourth calculation unit is configured to provide the display device with an estimated future state of the drone from the other future time point to the next one future time point.

上記(4)の構成によれば、第4演算部は、他の実測値を制御モデルに反映して得られる他の制御モデルに基づいて、操作指令から無人機の現在の推定状態を時系列的に求める時系列的演算を、他の実測値が実測された時刻から現在時刻を通過して他の未来の時点に至るまで、実時間の経過よりも高速に実行する。その際、第4演算部が受け取る他の実測値とは、第2演算部が交番的に受け取った実測値と同一の実測値であるから、第3演算部が受け取った一の実測値よりも後の新しい実測値である。つまり、第4演算部は、第3実測値が使用する制御モデルよりもさらに新しい実測値を反映した制御モデルに基づいて、上記時系列的演算を、現在時刻を通過して他の未来の時点に至るまで、実時間の経過よりも高速に実行する。このとき、他の未来の時点とは、第3演算部が、無人機の未来の推定状態を前記表示装置に提供する動作を完了する時刻である。そして、第4演算部による上記時系列的演算が当該他の未来の時点に到達した後に、第4演算部による上記時系列的演算により求められた無人機の現在の推定状態を、無人機の未来の推定状態として、表示装置に提供可能である。   According to the configuration of (4) above, the fourth calculation unit time-series the current estimated state of the drone from the operation command based on another control model obtained by reflecting other actual measurement values in the control model. The time-series calculation to be obtained is executed at a speed higher than the lapse of the real time from the time when the other actual measurement value is actually measured to the other future time point through the current time. At this time, the other actual measurement value received by the fourth calculation unit is the same actual measurement value as the measurement value received alternately by the second calculation unit, so that it is more than the one actual measurement value received by the third calculation unit. It is a new measured value later. In other words, the fourth calculation unit performs the above time-series calculation based on a control model that reflects a newer measurement value than the control model used by the third actual measurement value, and passes the current time to another future time point. To run faster than real time. At this time, the other future time point is a time at which the third calculation unit completes the operation of providing the display device with the estimated future state of the drone. Then, after the time series computation by the fourth computation unit reaches the other future time point, the current estimated state of the drone obtained by the time series computation by the fourth computation unit is The estimated state of the future can be provided to the display device.

従って、上記(4)の構成によれば、第4演算部は、第3演算部が使用する制御モデルよりも新しい実測値を反映した制御モデルに基づいて上記時系列的演算を他の未来の時刻に至るまで実時間よりも高速に実行する。その後に、第4演算部100dは、第3演算部が使用する制御モデルよりもさらに新しい実測値による更新作業が完了した制御モデルに基づいて、上述した無人機の未来の軌道を画面表示する処理を時点以降において実行する。その結果、第3演算部が上記時系列的演算を一の未来の時点に追い付くまで実時間よりも高速に実行し続けた後に、無人機の未来の推定状態に基づいて無人機の未来の軌道を画面表示する処理を他の未来の時点以降も継続すると制御モデルのモデル化誤差が増大してしまうという問題を軽減することができる。   Therefore, according to the configuration of the above (4), the fourth calculation unit performs the time series calculation based on the control model reflecting the actual measurement value newer than the control model used by the third calculation unit. Run faster than real time until time is reached. After that, the fourth calculation unit 100d performs a process of displaying the future trajectory of the unmanned aircraft on the screen based on the control model that has been updated with the actual measurement values that are newer than the control model used by the third calculation unit. Is executed after the time point. As a result, after the third arithmetic unit continues to execute the time-series operation at a higher speed than real time until it catches up with a future time point, the future trajectory of the drone is based on the estimated future state of the drone. If the process of displaying the image on the screen is continued after other future time points, the problem that the modeling error of the control model increases can be reduced.

また、上記(4)の構成によれば、第3演算部が上述した時系列的演算を次の未来の時点に追い付くまで実時間よりも高速に実行し続ける間においても、当該次の未来の時点までの無人機の時系列的な状態を、実時間の経過よりも先行する形で、時系列的に状態推定しながら画面表示することができる。従って、上記(4)の構成によれば、第3演算部が上述した時系列的演算を次の未来の時点に追い付くまで実時間よりも高速に実行し続ける間において、実時間よりも先行して時系列的に状態推定された無人機の未来の状態を観察しながら制御を行うことができない空白の時間が存在しなくなる。その結果、上記(4)の構成によれば、第3演算部が上述した時系列的演算を次の未来の時点に追い付くまで実時間よりも高速に実行し続ける間においても、近い将来において無人機が障害物に接触したり、擱座したりする可能性を事前に察知することができる。   Further, according to the configuration of (4) above, even when the third calculation unit continues to execute the time series calculation described above at a higher speed than the real time until it catches up with the next future time point, The time-series state of the drone up to the time can be displayed on the screen while estimating the state in time-series in a form that precedes the passage of real time. Therefore, according to the configuration of the above (4), the third calculation unit precedes the real time while continuing to execute the time series calculation described above at a higher speed than the real time until it catches up with the next future time point. Thus, there is no blank time during which control cannot be performed while observing the future state of the drone estimated in time series. As a result, according to the configuration of the above (4), the third calculation unit is unmanned in the near future even while it continues to execute the time-series calculation described above faster than the real time until it catches up with the next future time point. It is possible to detect in advance the possibility that the aircraft will come into contact with an obstacle or sit down.

(5)本発明の幾つかの実施形態では、上記(3)または(4)の構成において、前記2つ以上の演算部の少なくとも一つは、
前記第1演算部又は前記第2演算部が時系列的に求めた前記無人機の現在の推定状態を表示する画面に重畳させる形で、前記第3演算部および前記第4演算部が時系列的に求めた前記無人機の未来の推定状態を実時間の経過に先行する形で前記画面に表示するように構成されている。
(5) In some embodiments of the present invention, in the configuration of (3) or (4), at least one of the two or more arithmetic units is
The third calculation unit and the fourth calculation unit are time-sequentially superimposed on a screen that displays the current estimated state of the drone obtained by the first calculation unit or the second calculation unit in time series. The estimated future state of the unmanned aircraft is automatically displayed on the screen in advance of the passage of real time.

上記(5)の構成によれば、操作者は、実時間よりも先行して時系列的に推定された無人機の未来の状態(無人機が辿ると想定される未来の軌道)を画面上で観察することができる。同時に、操作者は、無人機の未来の状態を観察する画面と同じ画面を使用して、無人機から直近に受信した実測値に基づいて時系列的に求めた無人機の現在の推定状態を視認しながら、無人機の遠隔制御を行うことができる。従って、上記(5)の構成によれば、未来の時点において無人機が障害物に接触したり、擱座したりするリスクを監視するのに使用する画面と同じ画面を使用して、無人機の現在の推定状態を表示する画面表示を見ながら遠隔手動制御を行うことが可能となる。   According to the configuration of (5) above, the operator displays on the screen the future state of the drone (future trajectory assumed to be followed by the drone) estimated in time series before the real time. Can be observed. At the same time, the operator uses the same screen as the screen for observing the future state of the drone to determine the current estimated state of the drone that was obtained in time series based on the measured values most recently received from the drone. Remote control of the drone can be performed while visually recognizing. Therefore, according to the configuration of (5) above, using the same screen as the screen used for monitoring the risk that the drone will touch an obstacle or sit at a future time, Remote manual control can be performed while viewing the screen display that displays the current estimated state.

(6)本発明の幾つかの実施形態では、上記(3)または(4)の構成において、前記2つ以上の演算部の少なくとも一つは、
前記無人機の遠隔制御の開始に先立って、シミュレーションに基づく試行錯誤を繰り返すことにより前記無人機に対する一連の操作指令を含む操作プロファイルを生成する動作と、
前記操作プロファイルに基づいて前記無人機を無人制御する動作と、
前記第3演算部により実時間よりも未来の時点まで時系列的に求められた前記無人機の未来の推定状態が要回避状態を示すか否かを検出する動作と、
前記要回避状態を検出した際に、前記無人機の制御を、前記第1演算部および第2演算部が時系列的に求めた前記無人機の現在の推定状態を表示する画面表示に基づいて、操作者が手動で行う制御に切り替える動作と、
を実行するように構成される。
(6) In some embodiments of the present invention, in the configuration of (3) or (4), at least one of the two or more arithmetic units is
Prior to the start of remote control of the drone, an operation for generating an operation profile including a series of operation commands for the drone by repeating trial and error based on simulation;
An unmanned operation of the drone based on the operation profile;
An operation of detecting whether or not a future estimated state of the unmanned aircraft obtained in a time series from the third arithmetic unit to a future time point in real time indicates an avoidance state;
When the avoidance state is detected, the control of the drone is controlled based on a screen display that displays the current estimated state of the drone that is obtained in time series by the first calculation unit and the second calculation unit. , Switching to manual control by the operator,
Configured to perform.

狭隘部を潜り抜けたり複雑に配置された障害物を連続的に回避したりする動作を無人機に行わせるための遠隔制御を操作者が行う場合、操作者の僅かな操作ミスで失敗する可能性が高い。従って、そのような複雑で失敗確率の高い動作を無人機に行わせるのに先立って、現実と同様の状況を設定した仮想環境において操作者が事前に操作トレーニングを積んだ上で、実際の遠隔制御を開始するのがリスク回避上好ましい。
そこで、上記(6)の構成においては、無人機の遠隔制御の開始に先立って、手動による遠隔制御と同一の操作インターフェースを有する上記仮想環境内において、無人機を遠隔操作した場合の操作シナリオをシミュレーションにより模擬実行する。そして、上記(6)の構成においては、当該シミュレーションにより様々な操作シナリオを模擬実行する試行錯誤を繰り返すことにより前記無人機に対する一連の操作指令を含む操作プロファイルを生成し、当該操作プロファイルに従って無人機をセミオート(半自動)制御する。また、上述した操作プロファイルに従ったセミオート(半自動)制御の実行中に、障害物と接触したり無人機が擱座したりする可能性を事前に察知した場合には、操作者の手動による遠隔制御を介入させ、当該セミオート(半自動)制御を修正することができるようにしてある。
従って、上記(6)の構成によれば、シミュレーションにより様々な操作シナリオを模擬実行する試行錯誤を繰り返すことにより操作者が手動遠隔制御と同一の操作インターフェースを使用して事前に操作のトレーニングを積むことができる。そして、当該セミオート(半自動)制御の実行中に予定外の失敗リスクが生じた場合には、当該セミオート制御を手動で修正することもできる。その結果、上記(5)の構成によれば、複雑で失敗確率の高い動作を無人機に行わせる際の失敗リスクを低減することができる。
When an operator performs remote control to make an unmanned aircraft perform operations such as passing through a narrow part or continuously avoiding obstacles arranged in a complicated manner, it can fail with a slight operator error. High nature. Therefore, prior to letting the drone perform such complicated and high probability of failure, the operator must perform operation training in advance in a virtual environment in which a situation similar to the actual situation is set, and It is preferable to start the control in order to avoid risk.
Therefore, in the configuration of (6) above, prior to the start of remote control of the drone, an operation scenario when the drone is remotely operated in the virtual environment having the same operation interface as manual remote control is shown. Perform simulation by simulation. In the configuration of the above (6), an operation profile including a series of operation commands for the unmanned aircraft is generated by repeating trial and error by simulating and executing various operation scenarios by the simulation, and the unmanned aircraft is generated according to the operation profile. Is controlled semi-automatically. In addition, during the execution of semi-automatic control according to the above-described operation profile, if it is detected in advance that there is a possibility of contact with an obstacle or the drone being seated, manual remote control by the operator And the semi-automatic (semi-automatic) control can be corrected.
Therefore, according to the configuration of the above (6), the operator is trained in advance using the same operation interface as the manual remote control by repeating trial and error in which various operation scenarios are simulated and executed by simulation. be able to. If an unscheduled failure risk occurs during execution of the semi-automatic (semi-automatic) control, the semi-automatic control can be corrected manually. As a result, according to the configuration of (5) above, it is possible to reduce the risk of failure when the unmanned aircraft is operated with a complicated and high failure probability.

(7)本発明の幾つかの実施形態では、上記(3)または(4)の構成において、前記2つ以上の演算部の少なくとも一つは、
前記第3演算部により前記実時間よりも未来の時点まで時系列的に求めた前記無人機の未来の推定状態が要回避状態を示すか否かを検出する動作と、
前記要回避状態を前記検出した際に、前記操作指令に優先して前記無人機に回避軌道をとらせる緊急操作指令を前記無人機に送信する動作と、
をさらに実行する、ように構成されている。
(7) In some embodiments of the present invention, in the configuration of (3) or (4), at least one of the two or more arithmetic units is
An operation of detecting whether or not a future estimated state of the unmanned aircraft obtained in a time series from the third arithmetic unit to a time point in the future from the real time indicates an avoidance state;
An operation of transmitting an emergency operation command to the drone to cause the drone to take an avoidance trajectory in preference to the operation command when the avoidance state is detected;
Is configured to perform further.

上記(7)の構成によれば、無人機の状態を未来の時点まで状態推定することにより障害物と接触したり無人機が擱座したりする可能性を事前に察知した場合には、操作者の手動による遠隔制御に優越して、制御装置の演算部が無人機に回避軌道をとらせる回避制御を自動的に実行することができる。その結果、障害物と接触したり無人機が擱座したりする可能性を事前に察知した場合に、当該回避制御を操作者に任せきりにするのではなく、制御装置の演算部の判断により操作者を介さずに自動実行することができる。   According to the configuration of (7) above, when the state of the drone is estimated to the future point in time and the possibility of the drone coming into contact with the obstacle or the drone sitting in advance is detected, The avoidance control in which the calculation unit of the control device causes the unmanned aircraft to take an avoidance trajectory can be executed automatically, superior to the manual remote control. As a result, when the possibility of contact with an obstacle or the drone sitting in advance is detected in advance, the avoidance control is not left to the operator, but is operated based on the judgment of the calculation unit of the control device. Can be executed automatically without intervention by a person.

以上より、本発明に係る少なくとも一実施形態は、制御装置の操作者が無人機周辺の画像情報を見ながら無人機の手動遠隔制御を行う場合に、無人機から受信した実測値を、制御装置側において通信遅延を考慮した上で無人機制御動作に反映させることができる。具体的には、本発明に係る少なくとも一実施形態は、通信遅延により無人機から新しい実測値を受信できない間でも操作者に対して無人機制御のためのフィードバックを与え続けることができる。また、本発明に係る少なくとも一実施形態は、最新の実測値を無人機から受信すると、通信遅延による制御モデルの更新遅延を補償する形で当該最新の実測値を操作者へのフィードバックに反映させることができる。   As described above, at least one embodiment according to the present invention provides the control device with the actual measurement value received from the drone when the operator of the control device performs manual remote control of the drone while viewing the image information around the drone. This can be reflected in the drone control operation in consideration of communication delay on the side. Specifically, at least one embodiment according to the present invention can continue to provide feedback for drone control to the operator even while a new measured value cannot be received from the drone due to communication delay. In addition, at least one embodiment according to the present invention, when receiving the latest measured value from the drone, reflects the latest measured value in feedback to the operator in a form that compensates for the update delay of the control model due to communication delay. be able to.

一実施形態に係る遠隔制御システムの構成図である。It is a block diagram of the remote control system which concerns on one Embodiment. 一実施形態に係る遠隔制御システムを構成する各装置の内部構成図である。It is an internal block diagram of each apparatus which comprises the remote control system which concerns on one Embodiment. 制御装置内において動作する制御系の一部に対応するブロック線図である。It is a block diagram corresponding to a part of control system which operate | moves within a control apparatus. 状態推定処理と画像表示処理の実時間軸上での時系列的なタイミングを図示するタイミング・ダイアグラムである。It is a timing diagram which illustrates the time-sequential timing on the real time axis of a state estimation process and an image display process. 実測値パケットの受信に応じて状態推定処理を実測時刻まで遡らせる様子を示すタイミング・ダイアグラムである。It is a timing diagram which shows a mode that a state estimation process is traced back to measurement time according to reception of a measurement value packet. 時系列的な状態推定をカルマンフィルタにより実現した場合に、実測値パケットの受信に応じて状態推定処理を実測時刻まで遡らせる様子を示す図である。It is a figure which shows a mode that a state estimation process is traced back to measurement time according to reception of an actual value packet, when time-sequential state estimation is implement | achieved by the Kalman filter. 時系列的な状態推定をカルマンフィルタのループ処理として実行する際のフローチャートである。It is a flowchart at the time of performing time-sequential state estimation as a loop process of a Kalman filter. 状態推定処理と画像表示処理の実時間軸上での時系列的なタイミングを図示するタイミング・ダイアグラムである。It is a timing diagram which illustrates the time-sequential timing on the real time axis of a state estimation process and an image display process. 別の実施形態における制御装置の内部構成を示す図である。It is a figure which shows the internal structure of the control apparatus in another embodiment. シミュレーションを実行中の遠隔制御システムの構成図である。It is a block diagram of the remote control system which is performing simulation. 遠隔制御システムが、シミュレーション結果を使用して無人機の遠隔制御を行う様子を示す図である。It is a figure which shows a mode that a remote control system performs remote control of a drone using a simulation result.

以下、添付図面を参照して本発明の幾つかの実施形態について説明する。ただし、実施形態として記載されている又は図面に示されている構成部品の寸法、材質、形状、その相対的配置等は、本発明の範囲をこれに限定する趣旨ではなく、単なる説明例にすぎない。
例えば、「同一」、「等しい」及び「均質」等の物事が等しい状態であることを表す表現は、厳密に等しい状態を表すのみならず、公差、若しくは、同じ機能が得られる程度の差が存在している状態も表すものとする。一方、一の構成要素を「備える」、「具える」、「具備する」、「含む」、又は、「有する」という表現は、他の構成要素の存在を除外する排他的な表現ではない。
以下、まず最初に、幾つかの実施形態に係る無人機の制御装置および制御方法を説明するのに先立って、当該制御装置および制御方法の適用対象である遠隔制御システムの一例について図1を参照して説明する。続いて、当該制御装置の構成と動作および当該制御方法の処理内容について図2乃至図11を参照して説明する。
Hereinafter, some embodiments of the present invention will be described with reference to the accompanying drawings. However, the dimensions, materials, shapes, relative arrangements, etc. of the components described in the embodiments or shown in the drawings are not intended to limit the scope of the present invention, but are merely illustrative examples. Absent.
For example, an expression indicating that things such as “identical”, “equal”, and “homogeneous” are in an equal state not only represents an exactly equal state, but also has a tolerance or a difference that can provide the same function. It also represents the existing state. On the other hand, the expressions “comprising”, “comprising”, “comprising”, “including”, or “having” one constituent element are not exclusive expressions for excluding the existence of the other constituent elements.
Hereinafter, first, before describing the control device and control method of the drone according to some embodiments, refer to FIG. 1 for an example of a remote control system to which the control device and the control method are applied. To explain. Next, the configuration and operation of the control device and the processing contents of the control method will be described with reference to FIGS.

図1は、本発明の幾つかの実施形態に係る制御装置および制御方法の適用対象である遠隔制御システムの一例を示す。図1に示す遠隔制御システム1は、制御装置の操作者が無人機周辺の画像情報を見ながら無人機の手動遠隔制御を行う目的に使用されても良いシステムであり、制御装置10および無人機20を含んで構成されている。制御装置10に接続された操作盤150を操作することにより操作者が操作指令を入力すると、該操作指令は、エンコーダ130により角度指令値θin、角速度指令値ωinまたはトルク指令値qinなどを表す指令値信号に変換され、無人機20側に送信される。エンコーダ130は指令生成部と捉えてもよく、操作盤150の操作指令に加え、実角度,実角速度または実トルク情報を利用して演算を実行し、角度指令値θin、角速度指令値ωinまたはトルク指令値qinなどを表す指令値信号に変換してもよい。操作指令値として無人機20側に送信される上述した角度指令値θin、角速度指令値ωinまたはトルク指令値qinなどは、無人機20に設けられたマニピュレータの関節や走行車輪を駆動する駆動モータの角度、角速度およびトルクなどの制御目標値として使用されても良い。無人機20において、制御装置10から送信された指令値信号は、無人機20内の無人機側制御装置21によって受信され、無人機側制御装置21は、当該指令値信号に基づいてサーボ機構22のサーボ制御動作を駆動する。サーボ機構22は、無人機側制御装置21によりサーボ制御動作を駆動されると、無人機20に設けられた走行車輪やマニピュレータ等のアクチュエータ類をサーボ制御する。 FIG. 1 shows an example of a remote control system to which a control device and a control method according to some embodiments of the present invention are applied. A remote control system 1 shown in FIG. 1 is a system that may be used for the purpose of manual remote control of an unmanned aircraft while an operator of the control device looks at image information around the unmanned aircraft. 20 is comprised. When the operator inputs an operation command by operating the operation panel 150 connected to the control device 10, the operation command is transmitted by the encoder 130 such as an angle command value θ in , an angular velocity command value ω in, or a torque command value q in. Is transmitted to the drone 20 side. The encoder 130 may be regarded as a command generation unit, and in addition to the operation command of the operation panel 150, the calculation is performed using the actual angle, the actual angular velocity, or the actual torque information, and the angle command value θ in and the angular velocity command value ω in. or it may be converted into the command value signal representative of such a torque command value q in. The above-described angle command value θ in , angular velocity command value ω in or torque command value q in transmitted to the unmanned aircraft 20 as the operation command value drives the joints and traveling wheels of the manipulator provided in the unmanned aircraft 20. You may use as control target values, such as an angle of a drive motor, angular velocity, and a torque. In the unmanned aircraft 20, the command value signal transmitted from the control device 10 is received by the unmanned aircraft control device 21 in the unmanned aircraft 20, and the unmanned aircraft control device 21 receives the servo mechanism 22 based on the command value signal. Drive servo control operation. When the servo control operation is driven by the unmanned aerial vehicle control device 21, the servo mechanism 22 servo-controls actuators such as traveling wheels and manipulators provided in the unmanned aircraft 20.

サーボ機構22は、無人機20の現在の状態を実測するためのセンサ類と接続されている。当該センサ類の具体例としては、無人機20に設けられたマニピュレータの関節や走行車輪を駆動する駆動モータの回転速度を計測するタコメータ、無人機20の周囲を撮影するカメラおよび無人機20の現在位置を測定するための位置測定センサなどが含まれてもよい。無人機側制御装置21は、サーボ機構22から上述したセンサ類の測定値を受け取ると、当該測定値から無人機20の駆動モータの現在の実角度θout、実角速度ωoutおよび実トルク値qoutなどを求めてもよい。このようにしてサーボ機構22から受け取った測定値に基づいて無人機側制御装置21が求めた駆動モータの現在の実角度、実角速度および実トルク値などは、無人機20の現在の状態を実測した実測値として無人機20から制御装置10に対してフィードバック信号として送信される。無人機20から制御装置10に送信される上述した実角度θout、実角速度ωoutおよび実トルク値qoutなどは、制御装置10から無人機20に対して操作指令値として送信された角度指令値θin、角速度指令値ωinおよびトルク指令値qinに対する閉ループ制御用のフィードバック信号として使用されても良い。 The servo mechanism 22 is connected to sensors for actually measuring the current state of the drone 20. Specific examples of the sensors include a tachometer that measures the rotational speed of a drive motor that drives a joint and a traveling wheel of a manipulator provided in the unmanned aircraft 20, a camera that captures the surroundings of the unmanned aircraft 20, and the current state of the unmanned aircraft 20. A position measurement sensor or the like for measuring the position may be included. When the unmanned aerial vehicle side control device 21 receives the measured values of the sensors described above from the servo mechanism 22, the actual actual angle θ out , the actual angular velocity ω out and the actual torque value q of the driving motor of the unmanned aircraft 20 are determined from the measured values. You may ask for out etc. Thus, the current actual angle, actual angular velocity, actual torque value, etc. of the drive motor obtained by the unmanned aircraft control device 21 based on the measured values received from the servo mechanism 22 are measured based on the current state of the unmanned vehicle 20. The measured value is transmitted from the drone 20 to the control device 10 as a feedback signal. The above-described actual angle θ out , actual angular velocity ω out, actual torque value q out and the like transmitted from the drone 20 to the control device 10 are the angle commands transmitted from the control device 10 to the drone 20 as operation command values. It may be used as a feedback signal for closed loop control with respect to the value θ in , the angular velocity command value ω in and the torque command value q in .

次に、図2を参照しながら、図1に示す制御装置10と無人機20の内部構成と共に、遠隔制御システム1の詳細な構成について説明する。図2に示すように、制御装置10と無人機20とは、光ファイバ回線30を介して通信可能に接続されており、光ファイバ回線30にはさらに、監視カメラや他の無人機91、92および他の制御装置や監視用装置93も接続されている。制御装置10は、2つ以上の演算部100(100a〜100n)、通信部110、記憶部120、エンコーダ130およびインターフェース140を含んで構成されると共に、操作盤150および表示装置160が接続されている。制御装置10内において、2つ以上の演算部100(100a〜100n)、通信部110、記憶部120、エンコーダ130およびインターフェース140は、図示しないバスによって通信可能に相互接続されている。操作盤150および表示装置160は、インターフェース140を介して、2つ以上の演算部100(100a〜100n)、通信部110、記憶部120およびエンコーダ130と接続されている。   Next, the detailed configuration of the remote control system 1 will be described together with the internal configurations of the control device 10 and the drone 20 shown in FIG. 1 with reference to FIG. As shown in FIG. 2, the control device 10 and the drone 20 are communicably connected via an optical fiber line 30, and the optical fiber line 30 is further connected to a surveillance camera and other drones 91 and 92. And other control devices and monitoring devices 93 are also connected. The control device 10 includes two or more arithmetic units 100 (100a to 100n), a communication unit 110, a storage unit 120, an encoder 130, and an interface 140, and is connected to an operation panel 150 and a display device 160. Yes. In the control device 10, two or more arithmetic units 100 (100a to 100n), a communication unit 110, a storage unit 120, an encoder 130, and an interface 140 are interconnected by a bus (not shown) so as to communicate with each other. The operation panel 150 and the display device 160 are connected to two or more arithmetic units 100 (100a to 100n), a communication unit 110, a storage unit 120, and an encoder 130 via an interface 140.

操作盤150は、無人機20を遠隔操作するための操作入力を操作者が制御装置10に対して入力するために使用する操作盤であり、ジョイスティックや操作ボタン類などを備える。表示装置160は、無人機の現在の推定状態を順次画面表示可能な画像表示装置であってもよい。通信部110は、制御装置10が光ファイバ回線30を介して他の機器と通信するために使用される通信インターフェース回路であってもよい。通信部110は、無人機20を遠隔制御するために表示装置160に画面表示された無人機20の現在の推定状態に基づいて操作者が入力した操作指令を無人機20に送信可能に構成されている。さらに、通信部110は、無人機20が自機の状態を順次実測した実測値を無人機20から順次受信可能に構成されている。エンコーダ130は、操作盤150を操作することにより操作者により入力された操作指令を、実角度、実角速度または実トルク情報を利用して、角度指令値θin、角速度指令値ωinまたはトルク指令値qinなどを表す指令値信号に変換して通信部110および演算部100に出力する。 The operation panel 150 is an operation panel used by an operator to input an operation input for remotely operating the drone 20 to the control device 10, and includes a joystick, operation buttons, and the like. Display device 160 may be an image display device that can sequentially display the current estimated state of the drone. The communication unit 110 may be a communication interface circuit used for the control device 10 to communicate with other devices via the optical fiber line 30. The communication unit 110 is configured to be able to transmit an operation command input by the operator based on the current estimated state of the drone 20 displayed on the screen of the display device 160 to remotely control the drone 20 to the drone 20. ing. Furthermore, the communication unit 110 is configured to be able to receive from the unmanned aircraft 20 the measured values obtained by the drone 20 sequentially measuring the state of the own device. The encoder 130 uses the actual angle, the actual angular velocity, or the actual torque information to convert the operation command input by the operator by operating the operation panel 150 into the angle command value θ in , the angular velocity command value ω in, or the torque command. It is converted into a command value signal representing the value q in and the like and output to the communication unit 110 and the calculation unit 100.

2つ以上の演算部100(100a〜100n)は、第1演算部100a及び第2演算部100bを含む。図3乃至図5を参照しながら後述するように、第1演算部100a及び第2演算部100bは、無人機20の現在の推定状態を求める時系列的演算を実行して求められた無人機20の現在の推定状態を表示装置160に提供可能に(画面表示可能に)構成されている。その際、無人機20の現在の推定状態は、第1演算部100a及び第2演算部100bがそれぞれ無人機20から受信した実測値を反映した制御モデルに基づいて、操作指令から無人機20の現在の状態を推定することによって求められる。なお、第1演算部100aおよび第2演算部100bが時系列的に求めた無人機20の推定状態を表示装置160上で画面表示する処理は、以下のように実行されても良い。まず、無人機20に設けたセンサ/カメラ類221からの撮影画像や計測情報に基づいて無人機20の周囲の環境を画像化する。続いて、無人機20の現在位置、無人機20と他の構造物との間の相対的な位置関係、無人機20の姿勢(ピッチ角、ロール角、ヨー角)および無人機20に設けられたマニピュレータの姿勢などを、第1演算部100aおよび第2演算部100bが時系列的に求めた無人機20の推定状態から算出する。最後に、無人機20の周囲の環境を画像化した背景画像を表示装置160上に画面表示すると共に、上記のように算出された姿勢をとる無人機20の画像を、無人機20の現在位置に対応する背景画像内の位置に表示する。また、例示的な一実施形態では、2つ以上の演算部100(100a〜100n)は、2個以上の別々の演算回路として実現しても良く、各演算回路は、汎用プロセッサ、マイクロコントローラまたはデジタル信号処理プロセッサ等であってもよい。また、代替的な一実施形態では、単一のマルチコアCPUに含まれる各プロセッサ・コアを、2つ以上の演算部100(100a〜100n)の各々として動作させても良い。   The two or more calculation units 100 (100a to 100n) include a first calculation unit 100a and a second calculation unit 100b. As will be described later with reference to FIGS. 3 to 5, the first calculation unit 100 a and the second calculation unit 100 b are unmanned aircraft obtained by executing time-series calculations for obtaining the current estimated state of the drone 20. The 20 current estimated states can be provided to the display device 160 (can be displayed on the screen). At that time, the current estimated state of the drone 20 is based on a control model that reflects the actual measurement values received from the drone 20 by the first calculation unit 100a and the second calculation unit 100b, respectively. It is determined by estimating the current state. The process of displaying the estimated state of the drone 20 obtained in time series by the first calculation unit 100a and the second calculation unit 100b on the display device 160 may be executed as follows. First, the environment around the drone 20 is imaged based on the captured image and measurement information from the sensors / cameras 221 provided in the drone 20. Subsequently, the current position of the drone 20, the relative positional relationship between the drone 20 and other structures, the attitude of the drone 20 (pitch angle, roll angle, yaw angle) and the drone 20 are provided. The attitude of the manipulator is calculated from the estimated state of the drone 20 obtained by the first calculation unit 100a and the second calculation unit 100b in time series. Finally, a background image obtained by imaging the environment around the drone 20 is displayed on the screen of the display device 160, and the image of the drone 20 taking the posture calculated as described above is displayed as the current position of the drone 20. Is displayed at a position in the background image corresponding to. In an exemplary embodiment, two or more arithmetic units 100 (100a to 100n) may be realized as two or more separate arithmetic circuits, and each arithmetic circuit may be a general-purpose processor, a microcontroller, or a A digital signal processor or the like may be used. In an alternative embodiment, each processor core included in a single multi-core CPU may be operated as each of two or more arithmetic units 100 (100a to 100n).

また、無人機20は、無人機側制御装置21とサーボ機構22を含んで構成され、サーボ機構22には、無人機20に装備されたセンサ/カメラ類221とアクチュエータ類222が接続されている。無人機側制御装置21は、サーボ機構22と接続されると共に、無人機側の通信部211および無人機側の制御演算部212を含んで構成される。センサ類221の具体例としては、無人機20に設けられたマニピュレータの関節や走行車輪を駆動する駆動モータの回転速度を計測するタコメータ、無人機20の周囲を撮影するカメラおよび無人機20の現在位置を測定するための位置測定センサなどが含まれていてもよい。アクチュエータ類222の具体例としては、無人機20に設けられたマニピュレータの関節や走行車輪を駆動する駆動モータなどが含まれていても良い。無人機側の通信部211は、光ファイバ回線30を介して制御装置10と通信するための通信インターフェース回路であっても良い。無人機側制御装置21内において、無人機側の制御演算部212は、無人機側の通信部211を介して制御装置10から操作指令値を受信すると、当該操作指令値に基づいてサーボ機構22に対して制御指令を与える。サーボ機構22は、センサ/カメラ類221およびアクチュエータ類222と共に、無人機20に設けられたマニピュレータや走行車輪のサーボ制御を行うための閉ループ制御系の一部を形成し、無人機側制御装置21からの制御指令に基づいて当該サーボ制御を実行してもよい。   The drone 20 includes a drone-side control device 21 and a servo mechanism 22, and the servo mechanism 22 is connected to sensors / cameras 221 and actuators 222 provided in the drone 20. . The unmanned aircraft control device 21 is connected to the servo mechanism 22 and includes a communication unit 211 on the unmanned aircraft side and a control calculation unit 212 on the unmanned aircraft side. Specific examples of the sensors 221 include a tachometer that measures the rotation speed of a drive motor that drives a joint and a traveling wheel of a manipulator provided in the drone 20, a camera that captures the surroundings of the drone 20, and the current state of the drone 20. A position measurement sensor or the like for measuring the position may be included. Specific examples of the actuators 222 may include a joint of a manipulator provided in the drone 20 and a drive motor that drives a traveling wheel. The communication unit 211 on the unmanned aircraft side may be a communication interface circuit for communicating with the control device 10 via the optical fiber line 30. In the unmanned aircraft control device 21, when the unmanned aircraft control calculation unit 212 receives an operation command value from the control device 10 via the unmanned vehicle communication unit 211, the servo mechanism 22 is based on the operation command value. A control command is given to. The servo mechanism 22 together with the sensors / cameras 221 and the actuators 222 forms part of a closed loop control system for performing servo control of manipulators and traveling wheels provided in the unmanned aircraft 20, and the unmanned aircraft side control device 21. The servo control may be executed based on the control command from.

なお、図2において、光ファイバ回線30には、制御装置10および無人機20の他に、監視カメラや他の無人機91、92および他の制御装置や監視用装置93を含む多数の機器が接続され、これら多数の機器により、光ファイバ回線30の通信帯域や通信リソースは共有されている。従って、制御装置10と無人機20との間の通信は、他の機器による光ファイバ回線30上での通信帯域使用によって遅延させられる場合があり、その場合には、制御装置10と無人機20との間において通信遅延が発生し得る。当該通信遅延により、無人機20が自機の状態を実測した実測値Mを制御装置10側に送信しても、制御装置10側で遅延して受信され、制御装置10側が無人機に対して送信した操作指令は、無人機20側で遅延して受信されることとなる。通信遅延が無視できない環境では、無人機20は、仕様の上では高速移動が可能であるにもかかわらず、実際の運用においては、インチングに近い制御動作を強いられる。その結果、そのような環境で無人機を遠隔制御して実行される作業は非常に効率が悪く、作業の遅延をもたらし、逆に操作者が自身で無人機20の動作を予測して高速動作を試みると、操作者の誤操作を招いてしまう。   2, in addition to the control device 10 and the drone 20, the optical fiber line 30 includes a large number of devices including a monitoring camera, other unmanned vehicles 91 and 92, other control devices and a monitoring device 93. The communication band and communication resources of the optical fiber line 30 are shared by these many devices. Accordingly, communication between the control device 10 and the drone 20 may be delayed by using a communication band on the optical fiber line 30 by another device. In this case, the control device 10 and the drone 20 Communication delay may occur between the two. Due to the communication delay, even if the drone 20 transmits the actual measurement value M obtained by actually measuring the state of the drone 20 to the control device 10 side, the drone 20 is received with a delay on the control device 10 side. The transmitted operation command is received with a delay at the drone 20 side. In an environment where the communication delay cannot be ignored, the drone 20 is forced to perform a control operation close to inching in actual operation, although it can move at high speed in terms of specifications. As a result, work performed by remotely controlling the drone in such an environment is very inefficient, resulting in work delays, and conversely, the operator predicts the action of the drone 20 by itself and operates at high speed. Attempting to do so will result in operator error.

図3は、無人機20を遠隔制御するために制御装置10内において動作する制御系の一部に対応するブロック線図である。図3のブロック線図は、第1演算部100a及び第2演算部100bが、無人機20の現在の推定状態を求める時系列的演算を実行して求められた無人機20の現在の推定状態を表示装置160に提供するまでの情報信号の流れを表している。図3において、図2に示す2つ以上の演算部の中の第1演算部100aと第2演算部100bは、機能モジュールとして生成された第1制御モデル401、第2制御モデル402、切替手段411および切替手段412を実行している。これらの機能モジュールは、例えば、第1演算部100aと第2演算部100bが専用のソフトウェアを記憶部120から読み込んで実行することにより生成された機能モジュールであってもよい。例示的な一実施形態においては、第1制御モデル401と第2制御モデル402は、第1演算部100aと第2演算部100bによって別々に実行されてもよい。その場合、図4および図5を参照しながら後述するように、第1演算部100aは、第1制御モデル401に基づいて時系列的な状態推定処理を実行し、第1演算部100bは、第2制御モデル402に基づいて時系列的な状態推定処理を実行する。   FIG. 3 is a block diagram corresponding to a part of a control system that operates in the control apparatus 10 to remotely control the drone 20. The block diagram of FIG. 3 shows the current estimated state of the unmanned aerial vehicle 20 obtained by the first computing unit 100a and the second computing unit 100b performing time-series computations for obtaining the current estimated state of the unmanned aircraft 20. The flow of the information signal until it is provided to the display device 160 is shown. In FIG. 3, the first calculation unit 100a and the second calculation unit 100b among the two or more calculation units shown in FIG. 2 are a first control model 401, a second control model 402, and a switching unit generated as functional modules. 411 and switching means 412 are executed. These functional modules may be, for example, functional modules generated when the first arithmetic unit 100a and the second arithmetic unit 100b read and execute dedicated software from the storage unit 120. In an exemplary embodiment, the first control model 401 and the second control model 402 may be executed separately by the first calculation unit 100a and the second calculation unit 100b. In that case, as will be described later with reference to FIGS. 4 and 5, the first calculation unit 100 a performs time-series state estimation processing based on the first control model 401, and the first calculation unit 100 b Based on the second control model 402, time-series state estimation processing is executed.

図3に示す第1制御モデル401および第2制御モデル402は、無人機20に対する操作指令を入力として与えると、無人機20の推定出力信号を出力する機能モジュールである。第1制御モデル401および第2制御モデル402は、無人機20からフィードバックされる実測値に基づいて観測される無人機20の応答特性(挙動特性)を数式モデルとして記述しており、当該数式モデルに基づいて、無人機20に対する操作指令から無人機20の推定出力信号を出力する。例示的な一実施形態においては、当該数式モデルは、カルマンフィルタを含む状態推定フィルタとして記述されてもよい。切替手段411は、無人機20の現在の状態を実測した実測値として無人機20から通信部110を介して受信した実測値を、第1制御モデル401側に出力するのか、第2制御モデル402側に出力するのかを切り替える機能モジュールである。切替手段412は、表示装置160に画面表示すべき出力信号を第1制御モデル401から出力させるか、第2制御モデル402から出力させるかを切り替える機能モジュールである。   A first control model 401 and a second control model 402 shown in FIG. 3 are functional modules that output an estimated output signal of the drone 20 when an operation command for the drone 20 is given as an input. The first control model 401 and the second control model 402 describe response characteristics (behavioral characteristics) of the unmanned aerial vehicle 20 observed based on actual measurement values fed back from the unmanned aerial vehicle 20 as mathematical formula models. Based on this, an estimated output signal of the drone 20 is output from an operation command to the drone 20. In an exemplary embodiment, the mathematical model may be described as a state estimation filter that includes a Kalman filter. The switching unit 411 outputs the actual measurement value received from the drone 20 via the communication unit 110 as the actual measurement value obtained by actually measuring the current state of the drone 20 to the first control model 401 side. It is a functional module that switches whether to output to the side. The switching unit 412 is a functional module that switches whether an output signal to be displayed on the display device 160 is output from the first control model 401 or the second control model 402.

図3において、操作盤150から入力された操作指令と実角度、実角速度または実トルク情報は、エンコーダ130により、角度指令値θin、角速度指令値ωinまたはトルク指令値qinなどを表す操作指令値信号に変換され、通信部110および演算部100に出力される。エンコーダからの操作指令値信号は、信号経路42および44を経由して第1制御モデル401および第2制御モデル402に入力され、その結果、無人機20の現在の推定状態を表す推定角度θ’、推定角速度ω’または推定トルクq’などの推定状態信号が出力される。続いて、上記推定状態信号は、信号経路43および45を経由して切替スイッチ52に到達し、切替手段412による切替スイッチ52の切り替え方向に応じて第1制御モデル401または第2制御モデル402のいずれか一方から表示装置160に対して出力される。上記の推定状態信号(推定角度θ’、推定角速度ω’または推定トルクq’など)は、無人機20の現在位置、無人機20の現在の姿勢および無人機20が備えるマニピュレータの現在の状態等を表す画像に変換された上で、表示装置160の画面上に表示される。 In FIG. 3, the operation command and the actual angle, actual angular velocity, or actual torque information input from the operation panel 150 are operated by the encoder 130 to represent the angle command value θ in , the angular velocity command value ω in, the torque command value q in, or the like. It is converted into a command value signal and output to the communication unit 110 and the calculation unit 100. The operation command value signal from the encoder is input to the first control model 401 and the second control model 402 via the signal paths 42 and 44, and as a result, the estimated angle θ ′ representing the current estimated state of the drone 20. An estimated state signal such as estimated angular velocity ω ′ or estimated torque q ′ is output. Subsequently, the estimated state signal reaches the selector switch 52 via the signal paths 43 and 45, and the first control model 401 or the second control model 402 of the first control model 402 depends on the switching direction of the selector switch 52 by the switching means 412. Either one is output to the display device 160. The estimated state signal (such as the estimated angle θ ′, the estimated angular velocity ω ′, or the estimated torque q ′) indicates the current position of the drone 20, the current posture of the drone 20, the current state of the manipulator included in the drone 20, and the like. Is displayed on the screen of the display device 160.

また、無人機20の現在の状態を実測した値として通信部110が無人機20から受信した実測値の信号は、切替手段411による切替スイッチ51の切り替え方向に応じて第1制御モデル401または第2制御モデル402のいずれか一方に出力される。第1制御モデル401または第2制御モデル402は、無人機20からの実測値を受け取ると、無人機20の応答特性(挙動特性)を表す数式モデルに当該実測値を適用する処理を行う。その結果、無人機20からの実測値が第1制御モデル401または第2制御モデル402に反映されることとなる。   The measured value signal received from the drone 20 by the communication unit 110 as the measured value of the current state of the drone 20 depends on the first control model 401 or the first control model 401 according to the switching direction of the changeover switch 51 by the switching unit 411. It is output to either one of the two control models 402. When the first control model 401 or the second control model 402 receives an actual measurement value from the drone 20, the first control model 401 or the second control model 402 performs a process of applying the actual measurement value to a mathematical model representing the response characteristic (behavior characteristic) of the drone 20. As a result, the actual measurement value from the drone 20 is reflected in the first control model 401 or the second control model 402.

以上より、図3に示す情報信号の流れから第1演算部100aおよび第2演算部100bにより実行される信号処理動作の概要を説明すると以下のとおりとなる。すなわち、第1演算部100aおよび第2演算部100bは、それぞれ無人機20から受信した実測値を通信部110から受け取ると、当該実測値を第1制御モデル401または第2制御モデル402に反映させる。これと並行して、第1演算部100aおよび第2演算部100bは、エンコーダ130が出力する操作指令を受け取ると、当該実測値を反映した第1制御モデル401および第2制御モデル402に基づいて、操作指令を入力として無人機20の現在の推定状態を出力する。続いて、第1演算部100aおよび第2演算部100bは、第1制御モデル401または第2制御モデル402が出力した推定状態に基づいて無人機20の現在の状態を推定した結果を表す画像を、表示装置160により画面表示する。   From the above, the outline of the signal processing operation executed by the first arithmetic unit 100a and the second arithmetic unit 100b from the information signal flow shown in FIG. 3 will be described as follows. That is, when the first calculation unit 100a and the second calculation unit 100b each receive the actual measurement value received from the drone 20 from the communication unit 110, the first calculation unit 100a and the second calculation unit 100b reflect the actual measurement value in the first control model 401 or the second control model 402. . In parallel with this, when receiving the operation command output from the encoder 130, the first calculation unit 100a and the second calculation unit 100b are based on the first control model 401 and the second control model 402 reflecting the actual measurement values. The current estimated state of the drone 20 is output with the operation command as an input. Subsequently, the first calculation unit 100a and the second calculation unit 100b display an image representing a result of estimating the current state of the drone 20 based on the estimated state output by the first control model 401 or the second control model 402. The screen is displayed by the display device 160.

次に、図3のブロック線図で示される制御系において、第1演算部100a及び第2演算部100bが、無人機20の現在の推定状態を求める時系列的演算を実行して求めた無人機20の現在の推定状態を表示装置160に出力する一連の動作フローについて、図4を参照しながら説明する。図4は、無人機20の現在の推定状態を時系列的に求める処理と当該時系列的に求めた無人機20の現在の推定状態を画面表示する処理の実時間軸上での時系列的な実行タイミングを示している。図4では、第1演算部100a及び第2演算部100bが、互い違いに交替して(交番的に)無人機20からの実測値を受け取り、当該実測値を受け取る都度、無人機20の現在の推定状態を時系列的に求めるための上述した時系列的演算を繰り返し実行する様子が示されている。具体的には、図4に示す時刻T、TおよびTにおいて、第1演算部100aは、無人機20からの実測値を受け取り、図3に示す第1制御モデル401に対して当該受け取った実測値を反映させる動作を行う。なお、時刻T、TおよびTにおいては、図3の切替スイッチ51は、第1制御モデル401に接続された信号経路46の側に切り替えられている。他方、図4に示す時刻T、TおよびTにおいて、第2演算部100bは、無人機20からの実測値を受け取り、図3に示す第2制御モデル402に対して当該受け取った実測値を反映させる動作を行う。なお、時刻T、TおよびTにおいては、図3の切替スイッチ51は、第2制御モデル402に接続された信号経路47の側に切り替えられている。 Next, in the control system shown in the block diagram of FIG. 3, the first calculation unit 100a and the second calculation unit 100b perform unattended calculation by performing time-series calculation for determining the current estimated state of the drone 20. A series of operation flows for outputting the current estimated state of the machine 20 to the display device 160 will be described with reference to FIG. FIG. 4 shows a time series on the real time axis of a process for obtaining the current estimated state of the drone 20 in time series and a process for displaying the current estimated state of the drone 20 obtained in time series on the screen. The execution timing is shown. In FIG. 4, each time the first calculation unit 100 a and the second calculation unit 100 b alternately (alternatively) receive the actual measurement value from the drone 20 and receive the actual measurement value, A state in which the above-described time series calculation for obtaining the estimated state in time series is repeatedly executed is shown. Specifically, at times T 1 , T 3, and T 5 shown in FIG. 4, the first calculation unit 100a receives actual measurement values from the drone 20 and applies the measured values to the first control model 401 shown in FIG. An operation to reflect the received actual measurement value is performed. Note that at the times T 1 , T 3, and T 5 , the changeover switch 51 in FIG. 3 is switched to the signal path 46 connected to the first control model 401. On the other hand, at times T 2 , T 4 and T 6 shown in FIG. 4, the second arithmetic unit 100b receives the actual measurement value from the drone 20, and receives the actual measurement received from the second control model 402 shown in FIG. Perform an action that reflects the value. At times T 2 , T 4, and T 6 , the changeover switch 51 in FIG. 3 is switched to the signal path 47 connected to the second control model 402.

また、図4では、第1演算部100aが、交番的に受け取った一の実測値を反映した新たな第1制御モデル401’に基づいて、無人機20の現在の推定状態を求めるための上述した時系列的演算を順次実行する様子が示されている。その際、第1演算部100aは、上述した時系列的演算を、当該一の実測値の実測時刻から現在時刻に追い付く一の時刻まで、実時間の経過よりも高速に実行する。また、図4では、第2演算部100bが、交番的に受け取った他の実測値を反映した新たな第2制御モデル402’に基づいて、無人機20の現在の推定状態を求めるための上述した時系列的演算を順次実行する様子が示されている。その際、第2演算部100bは、上述した時系列的演算を、当該他の実測値の実測時刻から現在時刻に追い付く他の時刻まで、実時間の経過よりも高速に実行する。   Further, in FIG. 4, the first calculation unit 100 a described above for obtaining the current estimated state of the drone 20 based on the new first control model 401 ′ reflecting the one actually measured value alternately received. A state in which the time-series operations are sequentially executed is shown. At this time, the first calculation unit 100a executes the above-described time-series calculation from the actual measurement time of the one actual measurement value to one time that catches up with the current time, faster than the passage of real time. Further, in FIG. 4, the second calculation unit 100 b described above for obtaining the current estimated state of the drone 20 based on the new second control model 402 ′ reflecting other measured values received alternately. A state in which the time-series operations are sequentially executed is shown. At that time, the second calculation unit 100b executes the above-described time-series calculation from the actual measurement time of the other actual measurement value to another time that catches up with the current time at a higher speed than the passage of real time.

具体的には、第1演算部100aは、図4に示す時刻T、TおよびTにおいてそれぞれ受け取った実測値M、MおよびMを反映した第1制御モデル401’に基づいて、無人機20の現在の推定状態を求めるための時系列的演算を順次実行する。その際、第1演算部100aは、まず最初に、時刻Tにおいて受け取った実測値Mを第1制御モデル401に反映させて新しい第1制御モデル401’とする。続いて、第1演算部100aは、上述した時系列的演算を、時刻Tにおいて受け取った実測値Mが無人機20において実測された時刻である実測時刻T まで遡らせる。続いて、第1演算部100aは、上述した時系列的演算を、実測時刻T から時刻tまで(図4のp1で表す期間に対応)、実時間の経過よりも高速に実行する。ここで、時刻tは、第1演算部100aにより当該高速に実行される時系列的演算が現在時刻Tcに追い付く時刻に相当する。また、実測値Mを受信した受信時刻Tと実測時刻T との間の時間差は、無人機20と制御装置10との間の通信遅延に対応する。 Specifically, the first arithmetic unit 100a is based on a first control model 401 ′ that reflects the actual measurement values M 1 , M 3, and M 5 received at times T 1 , T 3, and T 5 shown in FIG. Thus, time series operations for obtaining the current estimated state of the drone 20 are sequentially executed. At that time, the first calculation unit 100a is first of all, the measured value M 1 received at time T 1 by reflecting the first control model 401 and the new first control model 401 '. Subsequently, the first calculation unit 100a goes back to the actual measurement time T m 1, which is the time when the actual measurement value M 1 received at the time T 1 is actually measured by the drone 20. Subsequently, the first calculation unit 100a executes the above-described time-series calculation from the actual measurement time T m 1 to the time t 1 (corresponding to the period represented by p1 in FIG. 4) at a higher speed than the passage of real time. . Here, the time t 1 is series operations when executed on the high-speed by the first calculation unit 100a corresponds to the time to catch up to the current time Tc. Further, the time difference between the reception time T 1 when the actual measurement value M 1 is received and the actual measurement time T m 1 corresponds to a communication delay between the drone 20 and the control device 10.

同様に、第1演算部100aは、時刻TおよびTにおいてそれぞれ受け取った実測値MおよびMについても、実測時刻T およびT まで遡って実時間の経過よりも高速に上記時系列的演算をそれぞれ実行し、当該高速に実行される時系列的演算を現在時刻Tcに追い付く時刻tおよびtまで(図4のp3およびp5で表す期間に対応)それぞれ続ける。ここで、実測値Mを受信した受信時刻Tと実測時刻T との間の時間差および実測値Mを受信した受信時刻Tと実測時刻T との間の時間差は、無人機20と制御装置10との間の通信遅延にそれぞれ対応する。 Similarly, the first calculation unit 100a is, for the measured values M 3 and M 5 respectively received at time T 3 and T 5, faster than the course of the measured time T m 3 and T m real time back to 5 The above time-series operations are respectively performed, and the time-series operations executed at high speed are continued until the times t 3 and t 5 (corresponding to the periods represented by p 3 and p 5 in FIG. 4) that catch up with the current time Tc. Here, the time difference between the reception time T 3 when the actual measurement value M 3 is received and the actual measurement time T m 3 and the time difference between the reception time T 5 when the actual measurement value M 5 is received and the actual measurement time T m 5 are: This corresponds to a communication delay between the drone 20 and the control device 10, respectively.

他方、第2演算部100bは、図4に示す時刻T、TおよびTにおいてそれぞれ受け取った実測値を反映した第2制御モデル402’に基づいて、無人機20の現在の推定状態を求めるための時系列的演算を順次実行する。その際、第2演算部100bは、まず最初に、時刻Tにおいて受け取った実測値Mを第2制御モデル402に反映させて新しい第2制御モデル402’とする。続いて、第2演算部100bは、上述した時系列的演算を、時刻Tにおいて受け取った実測値Mが無人機20において実測された時刻である実測時刻T まで遡らせる。続いて、第2演算部100bは、上述した時系列的演算を、実測時刻T から時刻tまで(図4のp2で表す期間に対応)、実時間の経過よりも高速に実行する。ここで、時刻tは、第2演算部100bにより当該高速に実行される時系列的演算が現在時刻Tcに追い付く時刻に相当する。また、実測値Mを受信した受信時刻Tと実測時刻T との間の時間差は、無人機20と制御装置10との間の通信遅延に対応する。 On the other hand, the second calculation unit 100b determines the current estimated state of the drone 20 based on the second control model 402 ′ reflecting the actual measurement values received at the times T 2 , T 4 and T 6 shown in FIG. Time series operations for obtaining are sequentially performed. At that time, the second arithmetic unit 100b includes, first, a measured value M 2 received in time T 2, by reflecting the second control model 402 and the new second control model 402 '. Subsequently, the second calculation unit 100b goes back to the actual measurement time T m 2, which is the time when the actual measurement value M 2 received at the time T 2 is actually measured by the drone 20. Subsequently, the second calculation unit 100b is a series operations when the aforementioned, from the measured time T m 2 to time t 2 (corresponding to the period represented by p2 in FIG. 4), to run faster than the elapsed real time . Here, the time t 2 is series operations when executed on the high-speed by the second calculation unit 100b corresponds to the time to catch up to the current time Tc. Further, the time difference between the reception time T 2 at which the actual measurement value M 2 is received and the actual measurement time T m 2 corresponds to a communication delay between the drone 20 and the control device 10.

同様に、第2演算部100bは、時刻TおよびTにおいてそれぞれ受け取った実測値についても、実測時刻T およびT まで遡って実時間の経過よりも高速に上記時系列的演算をそれぞれ実行し、当該高速に実行される時系列的演算が現在時刻Tcに追い付く時刻tおよびtまで(図4のp4およびp6で表す期間に対応)それぞれ続ける。ここで、実測値Mを受信した受信時刻Tと実測時刻T との間の時間差および実測値Mを受信した受信時刻Tと実測時刻T との間の時間差は、無人機20と制御装置10との間の通信遅延にそれぞれ対応する。なお、以下の説明においては、インデックス値k(1≦k≦K)の各々は、時間軸上に順番に並ぶ各時刻と一対一に対応しているものとする。 Similarly, the second calculation unit 100b is, for the measured values respectively received at time T 4 and T 6, the measured time T m 4 and T m the time-series operation faster than the elapsed real-time back to 6 each run, until the time t 4 and t 6 series operations when executed on the high-speed catches up with the current time Tc (corresponding to the period represented by p4 and p6 in Fig. 4) is continued, respectively. Here, the time difference between the receipt time T 6 which has received the time difference and the measured value M 6 and the measured time T m 6 between the receiving time T 4, which has received the measured value M 4 and the measured time T m 4, This corresponds to a communication delay between the drone 20 and the control device 10, respectively. In the following description, it is assumed that each index value k (1 ≦ k ≦ K) has a one-to-one correspondence with each time sequentially arranged on the time axis.

図3および図4を参照して上述した状態推定処理においては、新たな実測値M(1≦k≦K)を無人機20から受信すると、第1演算部100aと第2演算部100bは、以下の処理動作を行う。すなわち、新たな実測値M(1≦k≦K)を既存の第1制御モデル401または第2制御モデル402に反映させることにより新たな第1制御モデル401’または第2制御モデル402’を得る。その結果、第1演算部100aまたは第2演算部100bは、当該新たな実測値M(1≦k≦K)により制御モデルのモデル化誤差を改善することができる。ただし、そのためには、当該新たな実測値M(1≦k≦K)の実測時刻T から現在時刻Tcまでの通信遅延により生じた第1制御モデル401または第2制御モデル402の更新遅延を補償する必要がある。そこで、図3および図4を参照して上述した状態推定処理においては、新たな第1制御モデル401’または第2制御モデル402’に基づいて無人機20の現在の推定状態を時系列的に求める時系列的演算を、当該実測時刻T から始めて現在時刻Tcに追い付くまで、実時間の経過よりも高速に実行する。 In the state estimation process described above with reference to FIGS. 3 and 4, when a new actual measurement value M k (1 ≦ k ≦ K) is received from the drone 20, the first calculation unit 100 a and the second calculation unit 100 b The following processing operations are performed. That is, a new first control model 401 ′ or second control model 402 ′ is reflected by reflecting the new actual measurement value M k (1 ≦ k ≦ K) in the existing first control model 401 or second control model 402. obtain. As a result, the first calculation unit 100a or the second calculation unit 100b can improve the modeling error of the control model by the new actual measurement value M k (1 ≦ k ≦ K). However, for that purpose, the update of the first control model 401 or the second control model 402 caused by the communication delay from the actual measurement time T m k of the new actual measurement value M k (1 ≦ k ≦ K) to the current time Tc. It is necessary to compensate for the delay. Therefore, in the state estimation process described above with reference to FIGS. 3 and 4, the current estimated state of the drone 20 is time-sequentially based on the new first control model 401 ′ or the second control model 402 ′. The obtained time series calculation is executed at a speed higher than the lapse of the real time until the current time Tc is caught up from the actual measurement time T m k .

従って、新たに受信した実測値を制御モデルに反映するのに続いて、無人機20の現在の推定状態を時系列的に求める時系列的演算を、現在時刻Tcに追い付くまで、実時間の経過よりも高速に実行し終わった直後における制御モデルは当該新たな実測値による更新作業が完了した制御モデルであると言える。例えば、実測値Mによる更新作業が完了した第1制御モデル401”は、以下のようにして得られる。まず、実測値Mを第1制御モデル401に反映して新たな第1制御モデル401’を得る。その後、新たな第1制御モデル401’に基づく上述した時系列的演算を、現在時刻Tcに追い付くまで、実時間の経過よりも高速に実行する。すると、当該時系列的演算を実時間の経過よりも高速に実行し終わった直後における第1制御モデル401”は、実測値Mによる更新作業が完了した第1制御モデル401”であると言える。 Accordingly, after reflecting the newly received actual measurement value in the control model, the time series operation for obtaining the current estimated state of the unmanned aircraft 20 in time series catches up with the current time Tc until the current time elapses. It can be said that the control model immediately after execution at a higher speed is a control model that has been updated by the new actual measurement value. For example, the first control model 401 ″ in which the update operation using the actual measurement value M k is completed is obtained as follows. First, the new first control model is reflected by reflecting the actual measurement value M k in the first control model 401. After that, the above-described time-series operation based on the new first control model 401 ′ is executed at a speed higher than the elapse of real time until it catches up with the current time Tc. It can be said that the first control model 401 ″ immediately after the execution of is performed at a speed higher than the elapse of the real time is the first control model 401 ″ in which the update operation using the actual measurement value Mk is completed.

次に、図4を参照しながら、第1演算部100aおよび第2演算部100bが、時系列的に求めた無人機20の推定状態を画面表示するための処理についてまず具体例から説明する。図4を参照して述べたとおり、実測値Mが無人機20において実測された実測時刻T を起点として第1演算部100aは、実測値Mにより第1制御モデル401を更新するための上記時系列的演算を高速に実行し、当該高速実行が現在時刻Tcに追い付く時刻tまで上述した時系列的演算を続ける。また、実測値Mが無人機20において実測された実測時刻T を起点として第2演算部100bは、実測値Mにより第2制御モデル402を更新するための上記時系列的演算を実時間よりも高速に実行し、当該高速実行が現在時刻Tcに追い付く時刻tまで上述した時系列的演算を続ける。その場合、時刻tから時刻tまでの間の期間中においては、第2演算部100bは、実測値Mが受信されるのを時刻Tまで待ち続け、実測値Mが受信されると、実測時刻T を起点として時刻tまで実時間よりも高速に上記時系列的演算を実行する。従って、時刻Tから時刻t2までの間の期間中においては、第2演算部100bは、実時間の経過と歩調を合わせて第2制御モデル402に基づいて時系列的に求めた無人機20の現在の推定状態を画面表示することができない。その理由は以下のとおりである。実時間よりも高速に算出される上記時系列的演算により得られた無人機20の推定状態の時系列を実時間に歩調を合わせて画面表示するには、当該推定状態の時系列から一部の推定状態だけを間引きする形で画面表示する必要がある。しかし、そのように当該推定状態の時系列から一部の推定状態だけを間引きする形で画面表示すると、画面上での無人機20の動きが滑らかさの無い不連続な動きとなってしまう。また、無人機20の推定状態を時系列的に求める時系列的演算を実時間よりも高速に実行する処理と同時並行して、当該時系列的に求めた無人機20の推定状態を順次画面表示してゆく処理は、演算部100に過大な負荷をかける可能性があるからである。そこで、時刻tから時刻tまでの間の期間中においては、第1演算部100aが、時刻Tにおいて受信した実測値Mによる更新作業が完了した第1制御モデル401”に基づいて時系列的に求めた無人機20の現在の推定状態を画面表示する動作を実行する。このとき、図3の切替スイッチ52は、第1制御モデル401に接続された信号経路43の側に切り替えられている。 Next, with reference to FIG. 4, a process for displaying the estimated state of the drone 20 obtained in time series on the screen by the first calculation unit 100 a and the second calculation unit 100 b will be described from a specific example. As described with reference to FIG. 4, the first calculation unit 100 a updates the first control model 401 with the actual measurement value M 1 , starting from the actual measurement time T m 1 when the actual measurement value M 1 was actually measured in the drone 20. Therefore, the above time series operation is continued until time t 1 when the high speed execution catches up with the current time Tc. Also, starting from the actual measurement time T m 2 at which the actual measurement value M 2 was actually measured by the drone 20, the second calculation unit 100b performs the above-described time series calculation for updating the second control model 402 with the actual measurement value M 2 . run faster than in real time, the fast execution continues to series operation when the above until time t 2 to catch up to the current time Tc. In this case, during period from the time t 1 to time t 2, the second arithmetic unit 100b continues waiting for measured value M 2 is received until time T 2, measured value M 2 is received Then, the time series calculation is executed at a speed higher than the actual time from the actual measurement time T m 2 to the time t 2 . Therefore, during the period from time T 2 to time t 2, the second arithmetic unit 100 b determines the unmanned aerial vehicle 20 obtained in time series based on the second control model 402 in accordance with the passage of real time and the pace. The current estimated state of cannot be displayed on the screen. The reason is as follows. In order to display the time series of the estimated state of the unmanned aerial vehicle 20 calculated by the above time series calculation calculated at a higher speed than the real time on the screen in real time, a part of the time series of the estimated state It is necessary to display the screen in the form of thinning out only the estimated state. However, when the screen is displayed in such a manner that only a part of the estimated states is thinned out from the time series of the estimated states, the movement of the drone 20 on the screen becomes a discontinuous movement without smoothness. Further, in parallel with the process of executing the time series calculation for obtaining the estimated state of the drone 20 in time series at a speed higher than the real time, the estimated state of the drone 20 obtained in time series is sequentially displayed on the screen. This is because the displaying process may put an excessive load on the arithmetic unit 100. Therefore, during the period from time t 1 to time t 2 , the first calculation unit 100a is based on the first control model 401 ″ in which the update operation using the actual measurement value M 1 received at time T 1 is completed. An operation for displaying the current estimated state of the drone 20 obtained in time series on the screen is executed, and the selector switch 52 in FIG. 3 switches to the signal path 43 side connected to the first control model 401. It has been.

また、実測値Mが無人機20において実測された実測時刻T を起点として第2演算部100bは、実測値Mにより第2制御モデル402を更新するための上記時系列的演算を高速に実行し、当該高速実行が現在時刻Tcに追い付く時刻tまで上述した時系列的演算を続ける。また、実測値Mが無人機20において実測された実測時刻T を起点として第1演算部100aは、実測値Mにより第1制御モデル401を更新するための上記時系列的演算を実時間よりも高速に実行し、当該高速実行が現在時刻Tcに追い付く時刻tまで上述した時系列的演算を続ける。その場合、時刻tから時刻tまでの間の期間中においては、第1演算部100aは、実測値Mが受信されるのを時刻Tまで待ち続け、実測値Mが受信されると、実測時刻T を起点として時刻tまで実時間よりも高速に上記時系列的演算を実行する。従って、時刻Tから時刻tまでの間の期間中においては、第1演算部100aは、実時間の経過と歩調を合わせて第1制御モデル401に基づいて時系列的に求めた無人機20の現在の推定状態を画面表示することができない。そこで、時刻tから時刻tまでの間の期間中においては、第2演算部100bが、時刻Tにおいて受信した実測値Mによる更新作業が完了した第2制御モデル402”に基づいて時系列的に求めた無人機20の現在の推定状態を画面表示する動作を実行する。このとき、図3の切替スイッチ52は、第2制御モデル402に接続された信号経路45の側に切り替えられている。 Also, starting from the actual measurement time T m 2 at which the actual measurement value M 2 was actually measured by the drone 20, the second calculation unit 100b performs the above-described time series calculation for updating the second control model 402 with the actual measurement value M 2 . run faster, the fast execution continues to series operation when the above until time t 2 to catch up to the current time Tc. The first calculating unit 100a the measured time T m 3 where measured values M 3 is measured in the drone 20 as origin, the time series operation for updating the first control model 401 by Found M 3 run faster than in real time, the fast execution continues to series operation when the above until time t 3 when catch up to the current time Tc. In this case, during period from the time t 2 to time t 3, the first calculation unit 100a continues waits for the measured value M 3 is received until time T 3, the measured value M 3 is received Then, the time series calculation is executed at a speed higher than the actual time from the actual measurement time T m 3 to the time t 3 . Accordingly, during the period from time T 3 to time t 3 , the first calculation unit 100a is a drone that is obtained in time series based on the first control model 401 in accordance with the passage of real time and the pace. 20 current estimated states cannot be displayed on the screen. Therefore, during the period from time t 2 to time t 3 , the second calculation unit 100b is based on the second control model 402 ″ in which the update operation using the actual measurement value M 2 received at time T 2 has been completed. An operation for displaying the current estimated state of the drone 20 obtained in time series on the screen is performed, and at this time, the changeover switch 52 in FIG. 3 switches to the signal path 45 side connected to the second control model 402. It has been.

図4を参照しながら画面表示処理に関して述べた以上の説明を一般化すると以下のようになる。ここで、説明の便宜上、実測値M(1≦k≦K)が無人機20において実測された実測時刻T (1≦k≦K)を起点として第1演算部100aにより上述した時系列的演算を高速に実行して現在時刻Tcに追い付く時刻t(1≦k≦K)を指して一の時刻と呼ぶことにする。また、実測値Mk+1が無人機20において実測された実測時刻T k+1を起点として第1演算部100aにより上述した時系列的演算を高速に実行して現在時刻Tcに追い付く時刻tk+1を指して他の時刻と呼ぶことにする。その場合、第1演算部100aは、一の時刻(時刻t)から次の他の時刻(時刻tk+1)まで、前記無人機の現在の推定状態を画面表示のために表示装置160に提供するように構成される。また、上記一の時刻(時刻t)の次に到来する一の時刻を時刻tk+2とすると、第2演算部100bは、他の時刻(時刻tk+1)から次の一の時刻(時刻tk+2)まで、無人機20の現在の推定状態を画面表示のために表示装置160に提供するように構成されている。 The above description related to the screen display processing with reference to FIG. 4 is generalized as follows. Here, for convenience of explanation, when the measured value M k (1 ≦ k ≦ K) is described above by the first calculation unit 100a from the actual measurement time T m k (1 ≦ k ≦ K) measured in the drone 20 as described above. The time t k (1 ≦ k ≦ K) at which the sequential calculation is executed at high speed to catch up with the current time Tc is referred to as one time. In addition, the actual measurement value M k + 1 indicates the time t k + 1 at which the above-described time series calculation is performed at high speed by the first calculation unit 100a from the actual measurement time T m k + 1 actually measured in the drone 20, and catches up with the current time Tc. I will call it another time. In that case, the first calculation unit 100a provides the current estimated state of the drone to the display device 160 for screen display from one time (time t k ) to the next other time (time t k + 1 ). Configured to do. Also, assuming that one time that comes next to the one time (time t k ) is time t k + 2 , the second calculation unit 100b has the next time (time t k + 1 ) from another time (time t k + 1 ). up to k + 2 ), the current estimated state of the drone 20 is provided to the display device 160 for screen display.

その結果、図4の下部に示すように、時刻tから時刻tまでの間のq1およびp2で表される期間中においては、第1演算部100aが、実測値Mによる更新作業が完了した第1制御モデル401”に基づいて無人機20の推定状態を時系列的に求め、当該時系列的に求めた推定状態が表示装置160において画面表示される。また、時刻tから時刻tまでの間のq2およびp3で表される期間中においては、第2演算部100bが、実測値Mによる更新作業が完了した第2制御モデル402”に基づいて無人機20の推定状態を時系列的に求め、当該時系列的に求めた推定状態が表示装置160において画面表示され、時刻tから時刻tまでの間のq3およびp4で表される期間中においては、第1演算部100aが,実測値Mによる更新作業が完了した第1制御モデル401”に基づいて無人機20の推定状態を時系列的に求め、当該時系列的に求めた推定状態が表示装置160において画面表示される。以下同様にして、第1演算部100aと第2演算部100bとは、それぞれ時系列的に求めた無人機20の現在の推定状態を、互い違いに交替して(交番的に)表示装置160に提供し、画面表示させる。 As a result, as shown in the lower part of FIG. 4, during the period represented by q1 and p2 between the time t 1 to time t 2, the first calculation unit 100a may update work by Found M 1 determined time series of the estimated state of the drone 20 based on the first control model 401 "has been completed, the time-series manner obtained estimated state is displayed on the screen in the display device 160. in addition, from time t 2 during the period represented by q2 and p3 between up to t 3, the second calculation unit 100b is, the estimated state of the drone 20 based on the second control model 402 "which updating actually measured value M 2 is completed determined chronological order, the time-series manner determined estimated state is displayed on the screen in the display device 160, during the period represented by q3 and p4 between the time t 3 to time t 4, the first Calculation unit 100a , Chronologically determined the estimated state of the drone 20 based on the first control model 401 "which updating by the measured value M 3 is completed, the time-series manner determined estimated state is displayed on the screen in the display device 160 Similarly, the first calculation unit 100a and the second calculation unit 100b alternately alternate (alternatively) the current estimated state of the drone 20 obtained in time series. 160 is displayed on the screen.

ところで、第1演算部100aまたは第2演算部100bのいずれか一方が無人機20からの実測値を受信すると、無人機20の推定状態を時系列的に求める処理は、当該実測値が無人機20側で実測された実測時刻に遡って実行される。そのため、無人機20の推定状態を求める対象となる時刻は、現在時刻から見ると、実時間の経過に対して逆行した(遡及した)時点に対応する場合がある。従って、以下の説明においては、無人機20の推定状態を求める対象となる時刻は、実時間における実時刻とは異なることから、実時間における実時刻と区別するために、仮想化された時間(仮想時間)における仮想時刻として抽象概念化することとする。図5は、無人機20からの実測値M(1≦k≦K)の受信に応じて無人機20の現在の推定状態を時系列的に求める状態推定処理を実測時刻T (1≦k≦K)まで遡らせる様子を示す図である。図5においては、第1演算部100aが第1制御モデル401に基づいて無人機20の現在の推定状態を時系列的に求める際の仮想時刻の推移が仮想時間J1として示されている。また、図5においては、第2演算部100bが第2制御モデル402に基づいて無人機20の現在の推定状態を時系列的に求める際の仮想時刻の推移が仮想時間J2として示されている。なお、図5に示す時刻T、T、T、…および時刻t、t、t、…は、図4に示す時刻T、T、T、…および時刻t、t、t、…と同一の時刻を表す。 By the way, when either one of the first calculation unit 100a or the second calculation unit 100b receives the actual measurement value from the drone 20, the process of obtaining the estimated state of the drone 20 in time series is performed by using the actual calculation value. This is executed retroactively to the actual measurement time actually measured on the 20 side. Therefore, the time for which the estimated state of the drone 20 is obtained may correspond to a time point retroactive (retroactive) with respect to the passage of real time when viewed from the current time. Therefore, in the following description, since the time for which the estimated state of the drone 20 is obtained is different from the real time in the real time, a virtualized time ( It is assumed to be abstracted as virtual time in (virtual time). 5, actually measured the state estimation process chronologically obtaining the current estimated state of the drone 20 according to the received measured value M k from the drone 20 (1 ≦ k ≦ K) time T m k (1 It is a figure which shows a mode that it can go back to (<= k <= K). In FIG. 5, the transition of the virtual time when the first arithmetic unit 100a obtains the current estimated state of the drone 20 in time series based on the first control model 401 is shown as the virtual time J1. In FIG. 5, the transition of the virtual time when the second calculation unit 100b obtains the current estimated state of the drone 20 in time series based on the second control model 402 is shown as the virtual time J2. . The time T 1, T 2, T 3 shown in FIG. 5, ... and time t 1, t 2, t 3, ..., the time T 1, T 2, T 3 shown in FIG. 4, ... and time t 1 , T 2 , t 3 ,...

図5において、第1演算部100aの動作を仮想時間J1に沿って順次説明すると以下のとおりである。第1演算部100aは、図5に示す時刻Tにおいて受け取った実測値Mを反映した第1制御モデル401に基づいて、無人機20の現在の推定状態を求めるための時系列的演算を実行する。その際、第1演算部100aは、まず最初に、時刻Tにおいて受け取った実測値Mを第1制御モデル401に反映させて新しい第1制御モデル401’とする。続いて、第1演算部100aは、上述した時系列的演算を、時刻Tにおいて受け取った実測値Mが無人機20において実測された時刻である実測時刻T まで遡及させる。このとき、実測時刻T は、実測値Mを受信した受信時刻Tから図5のτ11で示す時間幅だけ実時間を逆行する形で遡及した時刻である。続いて、第1演算部100aは、上述した時系列的演算を、実時間の経過よりも高速に実行し、当該高速実行を実測時刻T から時刻tまでの間だけ(図5においてτ12で表される期間の間だけ)実行し続ける。ここで、時刻tは、仮想時間J1において実時間の経過よりも高速に実行される時系列的演算が現在時刻Tcに追い付く時刻である。同様に、第1演算部100aは、時刻Tにおいて受け取った実測値Mについても、実測時刻T まで遡って(図5に示すτ31)実時間の経過よりも高速に上記時系列的演算を実行し、当該高速実行を現在時刻Tcに追い付く時刻tまでそれぞれ続ける(図5のτ32)。 In FIG. 5, the operation of the first calculation unit 100a will be described in order along the virtual time J1 as follows. The first calculation unit 100a, based on the first control model 401 reflecting the actually measured value M 1 received at time T 1 shown in FIG. 5, the time series operation for obtaining the current estimated state of the drone 20 Run. At that time, the first calculation unit 100a is first of all, the measured value M 1 received at time T 1 by reflecting the first control model 401 and the new first control model 401 '. Subsequently, the first calculating unit 100a includes a series operation when the above-measured value M 1 received at time T 1 is to retroactively until the measured time T m 1 is the time that is actually measured in the drone 20. At this time, the actual measurement time T m 1 is a time retroactive to the actual time by the time width indicated by τ 11 in FIG. 5 from the reception time T 1 at which the actual measurement value M 1 was received. Subsequently, the first calculation unit 100a executes the above-described time-series calculation at a speed higher than the lapse of real time, and performs the high-speed execution only from the actual measurement time T m 1 to the time t 1 (in FIG. 5). τ only during the period represented by 12) continue to run. Here, the time t 1 is series operations when executed faster than the elapsed real time in virtual time J1 is a time to catch up to the current time Tc. Similarly, the first calculation unit 100a is, for the measured values M 3 received at time T 3, the measured time T m back to 3 the time-sequential faster than the elapsed real time (tau 31 shown in FIG. 5) The high-speed execution is continued until time t 3 when the current time Tc catches up (τ 32 in FIG. 5).

また、図5において、第2演算部100bの動作を仮想時間J2に沿って順次説明すると以下のとおりである。第2演算部100bは、図5に示す時刻Tにおいて受け取った実測値Mを反映した第2制御モデル402に基づいて、無人機20の現在の推定状態を求めるための時系列的演算を実行する。その際、第2演算部100bは、まず最初に、時刻Tにおいて受け取った実測値Mを第2制御モデル402に反映させて新しい第2制御モデル402’とする。続いて、第2演算部100bは、上述した時系列的演算を、時刻Tにおいて受け取った実測値Mが無人機20において実測された時刻である実測時刻T まで遡及させる。このとき、実測時刻T は、実測値Mを受信した受信時刻Tから図5のτ21で示す時間幅だけ実時間を逆行する形で遡及した時刻である。続いて、第2演算部100bは、上述した時系列的演算を、実時間の経過よりも高速に実行し、当該高速実行を実測時刻T から時刻tまでの間だけ(図5においてτ22で表される期間の間だけ)実行し続ける。ここで、時刻tは、仮想時間J2において実時間の経過よりも高速に実行される時系列的演算が現在時刻Tcに追い付く時刻である。同様に、第2演算部100bは、時刻Tにおいて受け取った実測値Mについても、実測時刻T まで遡って(図5に示すτ41)実時間の経過よりも高速に上記時系列的演算を実行し、当該高速実行を現在時刻Tcに追い付く時刻tまでそれぞれ続ける(図5のτ42)。 In FIG. 5, the operation of the second arithmetic unit 100b will be described in order along the virtual time J2 as follows. The second calculation unit 100b, based on the second control model 402 reflecting the actually measured value M 2 received in time T 2, as shown in FIG. 5, the time series operation for obtaining the current estimated state of the drone 20 Run. At that time, the second arithmetic unit 100b includes, first, a measured value M 2 received in time T 2, by reflecting the second control model 402 and the new second control model 402 '. Subsequently, the second calculation unit 100b is a series operations when the above-measured value M 2 received in time T 2, is thereby retroactively until the measured time T m 2 is the time that is actually measured in the drone 20. At this time, the actual measurement time T m 2 is a time retroactively from the reception time T 2 at which the actual measurement value M 2 was received in a manner that reverses the actual time by the time width indicated by τ 21 in FIG. Subsequently, the second calculation unit 100b is a series operations when mentioned above, run faster than the elapsed real time, in only (FIG. 5 between the high-speed run from the measured time T m 2 to time t 2 τ only during the period represented by 22) continue to run. Here, the time t 2 is series operations when executed faster than the elapsed real time in virtual time J2 is a time to catch up to the current time Tc. Similarly, the second calculation unit 100b also goes back to the actual measurement time T m 441 shown in FIG. 5) with respect to the actual measurement value M 4 received at time T 4 faster than the actual time. The high-speed execution is continued until time t 4 when the current time Tc catches up (τ 42 in FIG. 5).

図3乃至図5を使用して上述した実施形態においては、新たな実測値Mを無人機20から受信すると、新たな実測値Mを既存の第1制御モデル401または第2制御モデル402に反映することにより新たな第1制御モデル401’または第2制御モデル402’が得られる。従って、この実施形態においては、当該新たな実測値Mにより制御モデルのモデル化誤差を改善することができる。ただし、そのためには、当該新たな実測値Mの実測時刻T から現在時刻Tcまでの通信遅延により生じた制御モデルの更新遅延を補償する必要がある。そこで、この実施形態においては、当該新たな第1制御モデル401’または第2制御モデル402’に基づいて無人機20の現在の推定状態を時系列的に求める動作を、当該実測時刻T から始めて現在時刻Tcに追い付くまで、実時間の経過よりも高速に実行する。 3 to the embodiment described above using Figure 5 receives a new measured value M k from the drone 20, new measured values M k existing first control model 401 or the second control model 402 As a result, a new first control model 401 ′ or second control model 402 ′ is obtained. Therefore, in this embodiment, the modeling error of the control model can be improved by the new actual measurement value Mk . However, to do this, it is necessary to compensate for the new actual value update delay control model generated by communication delay from the measured time T m k of M k to the current time Tc. Therefore, in this embodiment, an operation for obtaining the current estimated state of the drone 20 in time series based on the new first control model 401 ′ or the second control model 402 ′ is performed as the actual measurement time T m k. From the beginning until the current time Tc is caught up, execution is performed at a speed higher than the passage of real time.

以上より、この実施形態によれば、通信遅延により無人機20から新しい実測値Mを受信できない間でも操作者に対して無人機制御のためのフィードバックを与えつつ、最新の実測値Mを無人機20から受信すると、通信遅延により生じた第1制御モデル401および第2制御モデル402の更新遅延を補償する形で、当該最新の実測値Mを操作者へのフィードバックに反映させることができる。従って、この実施形態によれば、制御装置10の操作者が無人機周辺の画像情報を見ながら無人機20の手動遠隔制御を行う場合に、無人機20から受信した実測値Mを、通信遅延を考慮した上で制御装置10側の無人機制御動作に反映させることができる。 As described above, according to this embodiment, the latest measured value M k is obtained while giving feedback for the drone control to the operator even when the new measured value M k cannot be received from the drone 20 due to communication delay. When received from the drone 20, the latest measured value Mk may be reflected in the feedback to the operator in a form that compensates for the update delay of the first control model 401 and the second control model 402 caused by the communication delay. it can. Therefore, according to this embodiment, when the operator of the control device 10 performs manual remote control of the drone 20 while viewing the image information around the drone, the measured value M k received from the drone 20 is communicated. In consideration of the delay, it can be reflected in the unmanned aircraft control operation on the control device 10 side.

また、この実施形態では、無人機20の直近の状態を表す最新の実測値Mを制御装置10が遅れて受信しても、当該遅れて受信するまでの間は、以前に受信した実測値Mk−1が反映された直近の第1制御モデル401または第2制御モデル402に基づいて、無人機20の現在の状態を時系列的に状態推定しながら順次画面表示することができる。従って、最新の実測値Mを制御装置10が遅れて受信するまでの間においても、順次画面表示すべき無人機20の現在の状態を、以前の実測値Mk−1が反映された直近の第1制御モデル401または第2制御モデル402に基づいて時系列的に状態推定し続けることができる。従って、最新の実測値Mを制御装置10が遅れて受信するまでの間に無人機20の今現在の状態を見ながら制御を行うことができない空白の時間が存在しなくなるので、制御装置10の操作者は、通信遅延を意識せずに、無人機20の手動遠隔制御を行うことができる。 Further, in this embodiment, even if the control device 10 receives the latest measured value M k representing the most recent state of the drone 20 with a delay, the measured value received before until the delay is received. Based on the most recent first control model 401 or second control model 402 reflecting M k−1, the current state of the drone 20 can be sequentially displayed on the screen while estimating the state in time series. Accordingly, the current state of the drone 20 to be sequentially displayed on the screen until the control device 10 receives the latest actual measurement value M k with a delay until the previous actual measurement value M k−1 is reflected. Based on the first control model 401 or the second control model 402, state estimation can be continued in time series. Accordingly, there is no blank time during which control cannot be performed while viewing the current state of the drone 20 until the latest measured value Mk is received by the control device 10 with a delay. The operator can perform manual remote control of the drone 20 without being aware of the communication delay.

さらに、この実施形態では、無人機20の直近の状態を表す最新の実測値Mを制御装置10が遅れて受信した後には、当該最新の実測値Mを反映した第1制御モデル401’または第2制御モデル402’に基づいて、無人機20の現在の状態を状態推定して画面表示することができる。従って、制御モデルに基づいて状態推定された無人機20の現在の状態を表示装置160の画面上で見ながら、操作者が無人機20の手動遠隔制御を行う場合、時間の経過に伴う第1制御モデル401および第2制御モデル402のモデル化誤差を蓄積させずに、無人機20の現在の状態を状態推定することが可能となる。 Furthermore, in this embodiment, after the latest measured value Mk representing the most recent state of the drone 20 is received with a delay, the first control model 401 ′ reflecting the latest measured value Mk is received. Alternatively, based on the second control model 402 ′, the current state of the drone 20 can be estimated and displayed on the screen. Accordingly, when the operator performs manual remote control of the drone 20 while viewing the current state of the drone 20 estimated based on the control model on the screen of the display device 160, the first over time. It is possible to estimate the current state of the drone 20 without accumulating modeling errors of the control model 401 and the second control model 402.

例示的な一実施形態では、図3乃至図5を参照して上述した第1制御モデル401および第2制御モデル402は、状態推定フィルタを含むように構成されてもよい。この実施形態では、第1制御モデル401および第2制御モデル402が無人機20の現在の推定状態を時系列的に求めるための時系列的演算を、以下のように実行することができる。すなわち、状態推定フィルタは、各ループ処理が時間軸上の各時刻に対応する単純な繰り返しループ処理として、上記時系列的演算を時間ドメインで実行することができる。なお、時間軸上に順番に並ぶ各時刻は、各インデックス値k(1≦k≦K)と一対一に対応しているので、状態推定フィルタが繰り返し実行する各ループ処理も各インデックス値k(1≦k≦K)と一対一に対応している。従って、この実施形態では、第1制御モデル401および第2制御モデル402に基づいて無人機20の現在の状態を時系列的に状態推定する処理を実現する際に、上述した時間ドメインでの各ループ処理が終了する都度、各ループ処理で算出された状態変数から無人機20の現在の状態を直接得ることができる。その結果、無人機20の現在の状態を状態推定する処理において、第1制御モデル401および第2制御モデル402の内部変数値を無人機20の現在の状態に変換する処理が不要となり、計算を高速化することができる。   In an exemplary embodiment, the first control model 401 and the second control model 402 described above with reference to FIGS. 3-5 may be configured to include a state estimation filter. In this embodiment, the time series calculation for the first control model 401 and the second control model 402 to obtain the current estimated state of the drone 20 in a time series can be executed as follows. That is, the state estimation filter can execute the time-series operation in the time domain as a simple iterative loop process in which each loop process corresponds to each time on the time axis. Note that each time sequentially arranged on the time axis has a one-to-one correspondence with each index value k (1 ≦ k ≦ K). Therefore, each loop process repeatedly executed by the state estimation filter also has each index value k ( 1 ≦ k ≦ K). Therefore, in this embodiment, when realizing the process of estimating the current state of the drone 20 in time series based on the first control model 401 and the second control model 402, each time domain described above Each time the loop process ends, the current state of the drone 20 can be directly obtained from the state variable calculated in each loop process. As a result, in the process of estimating the current state of the drone 20, the process of converting the internal variable values of the first control model 401 and the second control model 402 into the current state of the drone 20 becomes unnecessary, and the calculation is performed. The speed can be increased.

以下、無人機20の現在の推定状態を時系列的に求めるための時系列的演算として図3乃至図5を参照して上述した処理を実現するために、第1演算部100aと第2演算部100bが実行する動作の流れについて、まず具体例から説明する。この実施形態では、新たに受信した実測値Mの実測時刻T を起点として、新たに受信した実測値Mに基づいて状態推定フィルタの状態予測動作を実時間よりも高速に実行する。この状態予測動作は、仮想時間軸上において状態推定の起点である実測時刻T まで時間を遡って実時間よりも高速に時系列的な状態推定を実行する動作であるから、以下においては、遡及的状態予測動作と呼ぶことにする。遡及的状態予測動作は、遡及した実測時刻T において制御モデルに対して実測値Mを反映させるための事後予測動作と、実測値Mkが反映された新しい制御モデルに基づいて実測時刻T から現在時刻Tcに追い付くまで時系列的な状態推定を実時間よりも高速に実行する高速状態予測動作とから構成される。新たに受信した実測値Mに基づいて状態推定フィルタが行う上記事後予測動作は、新たに受信した実測値Mを第1制御モデル401または第2制御モデル402に反映させて新たな第1制御モデル401’または第2制御モデル402’を得る動作に対応する。状態推定フィルタが行う上記高速状態予測動作は、当該新たな第1制御モデル401’または当該新たな第2制御モデル402’に基づいて無人機20の現在の推定状態を時系列的に求める時系列的演算を実時間よりも高速に実行する処理に対応する。実時間よりも高速に実行される当該高速状態予測動作が現在時刻Tcに追い付いたら、状態推定フィルタの状態予測動作を事前予測動作に切り替えてそのまま継続する。事前予測動作は、時系列的な状態推定結果を画面表示しながら実時間の経過に歩調を合わせて実行される点を除いて、上記高速状態予測動作とほぼ同様の状態推定処理を実行する。上記状態推定フィルタにより実行される上記事前予測動作は、状態推定フィルタとして実装された第1制御モデル401または第2制御モデル402が新たに受信した実測値により更新された後に(更新済みの第1制御モデル401”または更新済みの第2制御モデル402”が得られた後に)開始する。つまり、上記状態推定フィルタは、現在時刻Tcに追いつくまでは高速状態予測動作を実時間よりも高速で演算実行し、追いついたら、状態予測動作を事前予測動作に切り替え、無人機20の現在の推定状態を時系列的に求める時系列的演算を、実時間の経過と歩調を合わせて実行する。その結果、上記事前予測動作により出力される無人機20の推定状態は、表示装置160上で画面表示される。 Hereinafter, in order to realize the processing described above with reference to FIGS. 3 to 5 as time series operations for obtaining the current estimated state of the drone 20 in time series, the first operation unit 100a and the second operation are performed. First, the flow of operations performed by the unit 100b will be described from a specific example. In this embodiment, starting from the measured time T m k measured value M k newly received, to run faster than real-time status prediction operation of the state estimation filter based on the measured values M k newly received . This state prediction operation is an operation for performing time-series state estimation at a higher speed than the real time by going back to the actual measurement time T m k that is the starting point of the state estimation on the virtual time axis. This is called a retrospective state prediction operation. Retrospective state prediction operation, retrospectively was measured time T m and posterior predictive operation to reflect the actual value M k to the control model in k, measured on the basis of a new control model measured value Mk is reflected time T It consists of a high-speed state prediction operation that executes time-series state estimation at a speed higher than real time from catching up to the current time Tc from m k . Newly received measured values M k on posterior predictive operation performed by the state estimation filter based on the new to reflect the actual value M k newly received to the first control model 401 or the second control model 402 first This corresponds to the operation of obtaining the first control model 401 ′ or the second control model 402 ′. The high-speed state prediction operation performed by the state estimation filter is a time series in which the current estimated state of the drone 20 is obtained in time series based on the new first control model 401 ′ or the new second control model 402 ′. It corresponds to the processing that executes the arithmetic operation faster than the real time. When the fast state prediction operation executed at a speed higher than the real time catches up with the current time Tc, the state prediction operation of the state estimation filter is switched to the prior prediction operation and continued as it is. The prior prediction operation executes state estimation processing that is substantially the same as the high-speed state prediction operation, except that the prior prediction operation is executed in synchronism with the passage of real time while displaying time-series state estimation results on the screen. The pre-prediction operation executed by the state estimation filter is performed after the first control model 401 or the second control model 402 implemented as the state estimation filter is updated with newly received actual values (updated first Start) after the control model 401 "or the updated second control model 402" is obtained. That is, the state estimation filter calculates and executes the high-speed state prediction operation at a speed higher than the real time until it catches up with the current time Tc. A time series calculation for obtaining the state in time series is executed in accordance with the passage of real time and the pace. As a result, the estimated state of the drone 20 output by the prior prediction operation is displayed on the screen on the display device 160.

図6は、状態推定フィルタをカルマンフィルタとして構成し、無人機20の時系列的な状態推定をカルマンフィルタにより実行した場合に、実測値パケットの受信に応じて状態推定処理を実測時刻まで遡らせる様子を示す。なお、時間軸上に順番に並ぶ各時刻は、各インデックス値k(1≦k≦K)と一対一に対応しているので、以下の説明においては、簡単のために、時間軸上においてインデックスkに対応する時刻を指して時刻kと呼ぶことにする。無人機20の制御応答特性をモデル化した第1制御モデル401および第2制御モデル402を独立した制御系システムと看做し、時刻k(1≦k≦K)における無人機20の推定状態を

Figure 0006383716

で表し、時刻k(1≦k≦K)における入力をu(k)、時刻k(1≦k≦K)における観測雑音をw(k)、システム雑音をv(k)、システム雑音の分散をσ と表した場合、当該制御系システムの状態方程式、観測方程式および共分散は以下のように表される。
Figure 0006383716
なお、上記式(3)によって求められる共分散は、カルマンフィルタが現在時刻kにおける無人機20の状態x(k)と状態観測値Y(k)=[y,…,y]との関係から未来の時刻k+1の状態推定値を求める予測動作モードで動作する際に使用する共分散である。 FIG. 6 shows a state in which the state estimation process is traced back to the actual measurement time in response to reception of the actual measurement packet when the state estimation filter is configured as a Kalman filter and the time series state estimation of the drone 20 is executed by the Kalman filter. Show. Note that each time sequentially arranged on the time axis has a one-to-one correspondence with each index value k (1 ≦ k ≦ K). Therefore, in the following description, for simplicity, an index on the time axis is used. The time corresponding to k is referred to as time k. The first control model 401 and the second control model 402 that model the control response characteristics of the drone 20 are regarded as independent control system systems, and the estimated state of the drone 20 at time k (1 ≦ k ≦ K) is determined.
Figure 0006383716

The input at time k (1 ≦ k ≦ K) is u (k), the observation noise at time k (1 ≦ k ≦ K) is w (k), the system noise is v (k), and the system noise variance Is expressed as σ v 2 , the state equation, observation equation and covariance of the control system are expressed as follows.
Figure 0006383716
The covariance obtained by the above equation (3) is the relationship between the state x (k) of the drone 20 at the current time k by the Kalman filter and the state observation value Y (k) = [y 0 ,..., Y k ]. The covariance used when operating in the predictive operation mode for obtaining the estimated state value at the future time k + 1 from.

図6において、時間軸に対応する縦軸の左側は、実時間の経過に伴って無人機20の状態を実測した実測値が無人機20側で時系列的に推移してゆく様子を表す。また、図6において、時間軸に対応する縦軸の右側は、仮想時間の経過に伴って第1演算部100aと第2演算部100bが状態推定フィルタに基づいて無人機20の推定状態を時系列的に求めていく様子を表す。   In FIG. 6, the left side of the vertical axis corresponding to the time axis represents a state in which an actual measurement value obtained by actually measuring the state of the drone 20 changes in time series on the drone 20 side as the real time elapses. In FIG. 6, the right side of the vertical axis corresponding to the time axis shows the estimated state of the drone 20 based on the state estimation filter when the first arithmetic unit 100a and the second arithmetic unit 100b progress as the virtual time elapses. Represents how it is obtained serially.

図6に示す縦軸の左側では、実時間軸上における時刻k−4、時刻k−3、時刻k−2、時刻k−1および時刻kにおける無人機20の実状態

Figure 0006383716
が、実時間の経過に伴う無人機20側の実測値の時系列的推移として示されている。図6に示す縦軸の右側では、状態推定フィルタが実行する事前予測動作により、仮想時間軸上の時刻k−4、時刻k−3、時刻k−2、時刻k−1および時刻kにおいて無人機20の時系列的な推定状態を以下のように求めている。
Figure 0006383716

上記状態推定フィルタが実行する上記事前予測動作は、時刻k−4、時刻k−3、時刻k−2、時刻k−1および時刻kにそれぞれ対応する時系列的なループ処理として実行され、直前の時刻h−1における無人機20の推定状態
Figure 0006383716

を上記式(1)の状態方程式に適用することにより、時刻kにおける無人機20の推定状態
Figure 0006383716

を求めるものである。つまり、上記状態推定フィルタが実行する上記事前予測動作は、以前に受信した実測値Mk−1による更新作業が完了した第1制御モデル401”または第2制御モデル402”に基づいて無人機20の推定状態を時系列的に求める時系列的演算に相当する処理である。 On the left side of the vertical axis shown in FIG. 6, the real state of the drone 20 at time k-4, time k-3, time k-2, time k-1 and time k on the real time axis.
Figure 0006383716
Is shown as a time-series transition of actual measurement values on the unmanned aerial vehicle 20 side with the passage of real time. On the right side of the vertical axis shown in FIG. 6, unattended at time k-4, time k-3, time k-2, time k-1 and time k on the virtual time axis by the prior prediction operation executed by the state estimation filter The time-series estimated state of the machine 20 is obtained as follows.
Figure 0006383716

The prior prediction operation executed by the state estimation filter is executed as a time-series loop process corresponding to each of time k-4, time k-3, time k-2, time k-1, and time k. Estimated state of drone 20 at time h-1
Figure 0006383716

Is applied to the state equation of the above equation (1), so that the estimated state of the drone 20 at the time k
Figure 0006383716

Is what you want. In other words, the prior prediction operation performed by the state estimation filter is based on the first control model 401 ″ or the second control model 402 ″ that has been updated with the previously received actual measurement value M k−1. This is a process corresponding to a time-series operation for obtaining the estimated state in a time-series manner.

時刻kにおいて、制御装置10が無人機20から新たな実測値Mを受信すると、状態推定フィルタは、まず、事後予測動作を行う。この事後予測動作は、時刻kにおいて受信した新たな実測値Mを第1制御モデル401または第2制御モデル402に反映させて新たな第1制御モデル401’または第2制御モデル402’を得る動作に対応する。続いて、上記状態推定フィルタは、上述した高速状態予測動作を時系列的なループ処理として実行する状態に移行する。この高速状態予測動作は、時刻kにおいて受信した新たな実測値Mを第1制御モデル401または第2制御モデル402に反映させて得られる新たな第1制御モデル401’または第2制御モデル402’に基づいて、無人機20の推定状態を時系列的に求める時系列的演算を実時間の経過よりも高速に実行する処理に対応する。 When the control device 10 receives a new measured value Mk from the drone 20 at time k, the state estimation filter first performs a post-prediction operation. In this post-prediction operation, a new actual measurement value M k received at time k is reflected in the first control model 401 or the second control model 402 to obtain a new first control model 401 ′ or second control model 402 ′. Corresponds to the action. Subsequently, the state estimation filter shifts to a state in which the high-speed state prediction operation described above is executed as a time-series loop process. In this high-speed state prediction operation, a new first control model 401 ′ or second control model 402 obtained by reflecting the new actual measurement value M k received at time k on the first control model 401 or the second control model 402. This corresponds to a process of executing a time-series operation for obtaining the estimated state of the drone 20 in a time-series manner at a higher speed than the passage of real time based on '.

具体的には、状態推定フィルタは以下の処理動作を実行する。時刻kにおいて新たな実測値Mを受信した状態推定フィルタが上述した遡及的予測動作に移行すると、無人機20側で実測値Mが実測された実測時点であるk−3まで状態予測動作を遡及させる。これは、図5を参照して上述した説明において、新たな実測値Mを受信したことを契機に仮想時間J1およびJ2の流れが実測値Mの実測時点T まで実時間に逆行して遡及する振る舞いに対応する。従って、時刻kと時刻k−3との間の時間差は、制御装置10と無人機20との間における通信遅延に対応する。仮想時刻を上記のように遡及させると、状態推定フィルタは、まず、以下のように事後予測動作を実行する。すなわち、状態推定フィルタは、実測値Mが実測された実測時点であるk−3まで状態予測動作を遡及させると、状態推定フィルタ内の内部状態変数の新たな値を新たに受信した実測値Mに基づいて算出する。具体的には、状態推定フィルタは、上述した事前予測動作により時刻k−3における無人機20の推定状態として求めた

Figure 0006383716

の新たな値を、実測値Mに基づいて更新する処理を行う。これは、時刻kにおいて受信した新たな実測値Mを第1制御モデル401または第2制御モデル402に反映させて、新たな第1制御モデル401’または第2制御モデル402’を得る動作に対応する。その場合、状態推定フィルタは、時刻kにおいて受信した新たな実測値Mが表す状態観測値
Figure 0006383716

に基づいて時刻k−3における無人機20の新たな推定状態を、
Figure 0006383716
として求める。 Specifically, the state estimation filter performs the following processing operations. When the state estimation filter that has received the new actual measurement value Mk at time k shifts to the above-described retrospective prediction operation, the state prediction operation is performed up to k-3, which is the actual measurement time point when the actual measurement value Mk was actually measured on the drone 20 side. Retroactively. In the above description with reference to FIG. 5, the flow of the virtual times J1 and J2 goes back to the actual time until the actual measurement time T m k of the actual measurement value M k when the new actual measurement value M k is received. And respond to retroactive behavior. Therefore, the time difference between the time k and the time k-3 corresponds to a communication delay between the control device 10 and the drone 20. When the virtual time is retroactive as described above, the state estimation filter first performs a posterior prediction operation as follows. That is, the state estimation filter, when the state prediction operation is retroactive to k-3, which is the actual measurement time point at which the actual measurement value M k was actually measured, newly received the new value of the internal state variable in the state estimation filter. Calculate based on Mk . Specifically, the state estimation filter was obtained as the estimated state of the drone 20 at time k-3 by the above-described prior prediction operation.
Figure 0006383716

Is updated based on the actual measurement value Mk . This is an operation of reflecting the new measured value M k received at time k in the first control model 401 or the second control model 402 to obtain a new first control model 401 ′ or second control model 402 ′. Correspond. In that case, the state estimation filter is the state observation value represented by the new actual measurement value M k received at time k.
Figure 0006383716

Based on the new estimated state of the drone 20 at time k-3,
Figure 0006383716
Asking.

無人機20側で実測時刻k−mにおいて実測値Mが実測され、カルマンフィルタが、時刻kにおいて、新たな実測値として実測値Mを受け取った際に、実測値Mが表す状態観測値

Figure 0006383716
に基づいて時刻k−mにおける無人機20の新たな推定状態
Figure 0006383716
をカルマンフィルタが求める処理は以下のように定式化することができる。
Figure 0006383716
上記式(4)において、g(k−m)は、カルマンゲインであり、事前予測動作において上記式(3)に基づいて求められた共分散を使用して、以下の式により算出されてもよい。
Figure 0006383716
上記式(5)において、σ は、観測雑音wの分散を表す。なお、上記式(5)に基づいて無人機20の状態観測値から無人機20の新しい推定状態を求める計算は、カルマンフィルタが無人機20の現在時刻kにおける状態x(k)と状態観測値Y(k)=[y,…,y]との関係から現在時刻kの状態推定値を求めるフィルタリング動作モードに対応する。カルマンフィルタがフィルタリング動作モードで動作している場合に算出する共分散は、上記式(3)で求められる共分散とは異なり、以下の式で求められる事後共分散である。
Figure 0006383716
The actual measured value M k is actually measured at the actual measurement time k−m on the drone 20 side, and the state observation value represented by the actual measurement value M k when the Kalman filter receives the actual measurement value M k as the new actual measurement value at the time k.
Figure 0006383716
Based on the new estimated state of the drone 20 at time km
Figure 0006383716
The process in which the Kalman filter calculates can be formulated as follows.
Figure 0006383716
In the above equation (4), g (km) is the Kalman gain, and may be calculated by the following equation using the covariance obtained based on the above equation (3) in the prior prediction operation. Good.
Figure 0006383716
In the above equation (5), σ w 2 represents the variance of the observation noise w k . The calculation for obtaining a new estimated state of the drone 20 from the state observation value of the drone 20 based on the above equation (5) is performed by the Kalman filter using the state x (k) and the state observation value Y at the current time k of the drone 20. (K) = [y 0 ,..., Y k ], which corresponds to the filtering operation mode for obtaining the state estimated value at the current time k. The covariance calculated when the Kalman filter is operating in the filtering operation mode is the posterior covariance obtained by the following equation, unlike the covariance obtained by the above equation (3).
Figure 0006383716

続いて、時刻kにおいて受信した新たな実測値Mを内部状態変数に反映させた状態推定フィルタは、高速状態予測動作を、時刻k−3において実時間の経過よりも高速に実行する。既に述べたように、高速状態予測動作において状態推定フィルタが実行する演算は、実時間よりも高速に実行される点を除いて上述した事前予測動作をほぼ同一である。まず、時刻k−3、時刻k−2、時刻k−1および時刻kにおける無人機20の時系列的な推定状態として、

Figure 0006383716

を順次算出する。上記状態推定フィルタが実行する上記高速状態予測動作は、時刻k−3、時刻k−2、時刻k−1および時刻kにそれぞれ対応する時系列的なループ処理として実行され、例えば、時刻h−1における無人機20の推定状態
Figure 0006383716
を上記式(1)の状態方程式に適用することにより、時刻kにおける無人機20の推定状態
Figure 0006383716

を求めるものである。 Subsequently, the state estimation filter that reflects the new actual measurement value M k received at time k in the internal state variable executes the high-speed state prediction operation at time k-3 faster than the passage of real time. As already described, the calculation performed by the state estimation filter in the high-speed state prediction operation is almost the same as the above-described pre-prediction operation except that the calculation is executed faster than the real time. First, as the time-series estimated state of the drone 20 at time k-3, time k-2, time k-1 and time k,
Figure 0006383716

Are calculated sequentially. The high-speed state prediction operation executed by the state estimation filter is executed as a time-series loop process corresponding to each of time k-3, time k-2, time k-1 and time k. Estimated state of drone 20 in 1
Figure 0006383716
Is applied to the state equation of the above equation (1), so that the estimated state of the drone 20 at the time k
Figure 0006383716

Is what you want.

時刻kにおいて受信した新たな実測値Mを内部状態変数に反映させた状態推定フィルタが高速状態予測動作を時刻kまで実時間よりも高速に実行し、時刻kまでの当該高速状態予測動作が終わると、当該高速に実行された高速状態予測動作は、現在時刻Tcに追い付くこととなる。続いて、状態推定フィルタは、時刻k+1以降における事前予測動作を時系列的なループ処理として実行する状態に復帰し、時刻k+1、k+2、k+3、…における無人機20の推定状態を以下のように時系列的に算出する。

Figure 0006383716

つまり、実時間よりも高速に実行される当該高速状態予測動作が現在時刻Tcに追い付いたら、状態推定フィルタは、状態予測動作を事前予測動作に切り替えてそのまま継続する。これは、第1演算部100aと第2演算部100bにより実行される以下の処理に対応する。すなわち、実時間の経過よりも高速に実行される上記時系列的演算が現在時刻Tcに追い付いた後に、実時間の経過に歩調を合わせて上記時系列的演算により無人機20の推定状態を時系列的に求め、画面表示のために表示装置160に出力する処理に対応する。 The state estimation filter that reflects the newly measured value M k received at time k in the internal state variable executes the high-speed state prediction operation faster than real time until time k, and the high-speed state prediction operation until time k is performed. When finished, the high-speed state prediction operation executed at high speed catches up with the current time Tc. Subsequently, the state estimation filter returns to a state in which the prior prediction operation after time k + 1 is executed as a time-series loop process, and the estimated state of the drone 20 at time k + 1, k + 2, k + 3,. Calculate in time series.
Figure 0006383716

That is, when the high-speed state prediction operation executed at a speed higher than the real time catches up with the current time Tc, the state estimation filter switches the state prediction operation to the prior prediction operation and continues as it is. This corresponds to the following processing executed by the first calculation unit 100a and the second calculation unit 100b. That is, after the time-series operation executed at a higher speed than the passage of real time catches up with the current time Tc, the estimated state of the drone 20 is set by the time-series operation in time with the passage of real time. This corresponds to processing that is obtained in series and output to the display device 160 for screen display.

以上の説明を一般化すると、第1演算部100aと第2演算部100bは、当該状態推定フィルタを以下のように構成する。実測値Mの実測時刻T から現在時刻に追い付く時刻まで、新たに受信した実測値Mに基づく上記時系列的演算を実時間の経過よりも高速に実行するために、第1演算部100aおよび第2演算部100bは、実測値Mに基づいて上記状態推定フィルタの予測動作を行う遡及的状態予測動作を含むように上記状態推定フィルタを構成する。この遡及的状態予測動作は、実測値Mを状態推定フィルタの内部状態に反映させる事後予測動作と、実測値Mを反映させた内部状態に基づいて状態推定フィルタの予測動作を実時間の経過よりも高速に行う高速状態予測動作と、を含む。つまり、上記状態推定フィルタは、実測値Mを制御モデルに反映する処理として事後予測動作を実行した後に、上記時系列的演算を実時間よりも高速に実行する高速状態予測動作に移る。そして、状態推定フィルタは、実時間の経過よりも高速に実行される上記時系列的演算(高速状態予測動作)が現在時刻Tcに追い付いた後に、上記高速状態予測動作を(実時間の経過に合わせて実行速度を落とした上で)そのまま継続する形で上記状態推定フィルタの状態予測動作を事前予測動作に切り替えるように構成され、上記事前予測動作により出力される無人機20の推定状態は、画面表示のために表示装置160に提供される。 To generalize the above description, the first calculation unit 100a and the second calculation unit 100b configure the state estimation filter as follows. From the measured time T m k measured value M k until the time to catch up to the current time, to perform the time-series calculation based on measured values M k newly received faster than the elapsed real time, the first operation The unit 100a and the second calculation unit 100b configure the state estimation filter so as to include a retrospective state prediction operation for performing the prediction operation of the state estimation filter based on the actual measurement value Mk . This retrospective state prediction operation, a posterior predictive operation to reflect the actual value M k the internal state of the state estimation filter, the prediction operation of the state estimation filter based on the internal state reflecting the measured values M k in real time And a high-speed state prediction operation performed at a speed higher than the elapsed time. That is, the state estimation filter moves to a high-speed state prediction operation in which the time series calculation is executed faster than the real time after executing the post-prediction operation as a process of reflecting the actual measurement value Mk in the control model. Then, after the time-series operation (high-speed state prediction operation), which is executed at a higher speed than the passage of real time, catches up with the current time Tc, the state estimation filter In addition, the state estimation operation of the state estimation filter is configured to be switched to the prior prediction operation in a form that continues as it is (after the execution speed is reduced), and the estimated state of the drone 20 output by the prior prediction operation is: Provided to display device 160 for screen display.

図6に示す状態推定フィルタを使用する上記構成では、新たに受信した実測値Mの実測時刻T を起点として、新たに受信した実測値Mに基づいて状態推定フィルタの予測動作を高速状態予測動作として実時間よりも高速に実行し、当該高速状態予測動作の実行が現在時刻Tcに追い付いたら、状態推定フィルタの予測動作を事前予測動作に切り替えてそのまま継続する。従って、図6に示す状態推定フィルタを使用する上記構成では、第1制御モデル401および第2制御モデル402に基づいて無人機20の現在の状態を時系列的に状態推定する処理を実現する際に、上述した時間ドメインでの各ループ処理が終了する都度、各ループ処理で算出された状態変数から無人機20の現在の状態を直接得ることができる。その結果、無人機20の現在の状態を状態推定する処理において、第1制御モデル401および第2制御モデル402の内部変数値を無人機の現在の状態に変換する処理が不要となり、計算を高速化することができる。 In the above-described configuration using the state estimation filter shown in FIG. 6, starting from the measured time T m k measured value M k newly received, a prediction operation of the state estimation filter based on the measured values M k newly received When the high-speed state prediction operation is executed at a speed higher than the real time and the execution of the high-speed state prediction operation catches up with the current time Tc, the prediction operation of the state estimation filter is switched to the prior prediction operation and continued as it is. Therefore, in the above configuration using the state estimation filter shown in FIG. 6, when realizing the process of estimating the current state of the drone 20 in time series based on the first control model 401 and the second control model 402. In addition, every time each loop process in the time domain described above is completed, the current state of the drone 20 can be directly obtained from the state variable calculated in each loop process. As a result, in the process of estimating the current state of the drone 20, it is not necessary to convert the internal variable values of the first control model 401 and the second control model 402 into the current state of the drone, and the calculation is performed at high speed. Can be

また、図6に示す状態推定フィルタを使用する上記構成では、最新の実測値Mが反映された第1制御モデル401’および第2制御モデル402’に基づいて無人機の現在の状態を状態推定する処理を実現するには、最新の実測値Mが実測された時刻T に対応するループ処理において状態推定フィルタの状態変数値に当該最新の実測値Mが表す実状態の値を反映した上で状態予測動作をそのまま継続するだけでよい。その結果、当該最新の実測値Mを第1制御モデル401および第2制御モデル402に反映するために、当該最新の実測値Mを制御モデルの内部表現に変換した上で第1制御モデル401および第2制御モデル402の内部状態に適用する処理が不要となり、計算を高速化することができる。 In the above configuration using the state estimation filter shown in FIG. 6, the current state of the drone is changed based on the first control model 401 ′ and the second control model 402 ′ reflecting the latest measured value M k. to realize the processing of estimating the actual state represented by the latest measured values M k the latest measured values M k in the state variable value of the state estimation filter in the loop process corresponds to the time T m k which is actually measured values It is only necessary to continue the state prediction operation as it is after reflecting the above. As a result, the latest measured values M k to reflect the first control model 401 and a second control model 402, the first control model on which converts the latest measured values M k in the internal representation of the control model The processing applied to the internal state of 401 and the second control model 402 becomes unnecessary, and the calculation can be speeded up.

図7は、図6を参照しながら上述した状態推定フィルタの動作の流れをフローチャートで表したものである。図7に示すフローチャートにおいて、処理はまずステップS01から開始し、時刻をT=Tと初期設定し、各時刻に対応するインデックス値kについてk=1と初期設定する。なお、以下の説明において、各インデックス値kは、図5を参照しながら上述した仮想時間における時間軸上に並んだ仮想時刻の各々に対応する。続いて、図7のフローチャートの処理はステップS02に進む。ステップS02は、無人機20から新たな実測値Mが受信されるのを待ち続け、新たな実測値Mが受信されると、新たな実測値Mが反映された第1制御モデル401’または第2制御モデル402’に基づいて無人機20の推定状態を時系列的に求める時系列的演算を実時間の経過よりも高速に実行する段階に相当する。例えば、ステップS02は、図4において第2制御モデル402を実行する第2演算部100bが、時刻tから時刻tまでの間に行う動作および時刻tからtまでの間に行う動作に対応する。また例えば、ステップS02は、図4において第1制御モデル401を実行する第1演算部100aが、時刻tから時刻tまでの間に行う動作および時刻tからtまでの間に行う動作に対応する。 FIG. 7 is a flowchart showing the operation flow of the state estimation filter described above with reference to FIG. In the flowchart shown in FIG. 7, the process starts initially at step S01, the time and the T = T 0 and the initial setting, for k = 1 and the initial setting for the index value k corresponding to the respective times. In the following description, each index value k corresponds to each of the virtual times arranged on the time axis in the virtual time described above with reference to FIG. Subsequently, the processing of the flowchart of FIG. 7 proceeds to step S02. Step S02 continues to wait for a new actual measurement value Mk to be received from the drone 20, and when the new actual measurement value Mk is received, the first control model 401 reflecting the new actual measurement value Mk. This corresponds to a stage in which time series calculation for obtaining the estimated state of the drone 20 in time series based on 'or the second control model 402' is executed faster than the passage of real time. For example, the step S02, the operation carried out during the second operation unit 100b for performing a second control model 402 in FIG. 4, the operation and the time t 3 is performed from time t 1 to time t 2 to t 4 Corresponding to Also for example, step S02 is performed between the first computing unit 100a that performs a first control model 401 in FIG. 4, the operation and the time t 4 performed during the period from the time t 2 to time t 3 to t 5 Corresponds to the action.

ステップS02は、サブステップS71乃至S76により構成され、ステップS02の実行が開始されると、図7のフローチャートの処理は、サブステップS71からサブステップS76を実行する。図7のフローチャートの処理がサブステップS71に進むと、状態推定フィルタは、無人機20から新たな実測値Mが受信されるのを待ち続けている間の処理を実行する。具体的には、サブステップS71においては、状態推定フィルタは、直前の時刻k−1における無人機20の推定状態

Figure 0006383716
から現在時刻kにおける無人機20の推定状態
Figure 0006383716
を上記式(1)に従って算出する事前予測動作を行う。 Step S02 includes sub-steps S71 to S76. When the execution of step S02 is started, the processing of the flowchart in FIG. 7 executes sub-step S71 to sub-step S76. When the process of the flowchart of FIG. 7 proceeds to sub-step S71, the state estimation filter executes a process while waiting for a new measured value Mk to be received from the drone 20. Specifically, in sub-step S71, the state estimation filter determines the estimated state of the drone 20 at the immediately preceding time k-1.
Figure 0006383716
To the estimated state of the drone 20 at the current time k
Figure 0006383716
Is performed in advance according to the above equation (1).

続いて、処理はサブステップS72に進み、時計の針が現在時刻kから次の時刻k+1に進むまで待つ。続いて、処理はサブステップS73に進み、状態推定フィルタは、無人機20から新たな実測値Mが受信されたか否かを判定し、受信されていなければ、インデックスkの値をインクリメントしてk=k+1とした上で、処理はサブステップS71に戻り、受信されていれば、処理はサブステップS74に進む。サブステップS74においては、状態推定フィルタは、時刻kにおいて無人機20から新たに受信した実測値Mにより表される無人機20の状態観測値に基づいて状態推定フィルタの内部状態変数の新しい値を算出する。具体的には、新たに受信した実測値Mが、無人機20側において実測時刻k−mにおいて実測された実測値であるとすると、新たに受信した実測値Mにより表される無人機20の状態観測値は、

Figure 0006383716
となるので、この状態観測値から上記式(4)に基づいて時刻k−mにおける無人機20の新たな推定状態
Figure 0006383716
を求める。続いて、状態推定フィルタは、仮想時刻を実測値Mの実測時刻k−mまで遡らせるために、k=k−mとする。 Subsequently, the process proceeds to sub-step S72 and waits until the clock hand advances from the current time k to the next time k + 1. Subsequently, the process proceeds to sub-step S73, and the state estimation filter determines whether or not a new actual measurement value M k is received from the drone 20, and if not, increments the value of the index k. After setting k = k + 1, the process returns to sub-step S71, and if received, the process proceeds to sub-step S74. In sub-step S74, the state estimation filter determines the new value of the internal state variable of the state estimation filter based on the state observation value of the drone 20 newly represented from the actual measurement value Mk received from the drone 20 at time k. Is calculated. Specifically, if the newly received actual measurement value M k is an actual measurement value actually measured at the actual measurement time k−m on the drone 20 side, the drone represented by the newly received actual measurement value M k. The 20 state observations are
Figure 0006383716
Therefore, from this state observation value, a new estimated state of the drone 20 at time k-m based on the above equation (4)
Figure 0006383716
Ask for. Subsequently, the state estimation filter sets k = km so that the virtual time can be traced back to the actual measurement time km of the actual measurement value Mk .

続いて、処理はサブステップS75に進み、状態推定フィルタは、時刻kが実時間における現在時刻Tcに追い付いたか否かを判定し、追い付いていなければ、処理はサブステップS76に進み、追い付いていれば、処理はステップS02の実行を終了してステップS03に進む。サブステップS76においては、サブステップS71と同様の処理を行うことによって、時刻k−mにおける無人機20の推定状態

Figure 0006383716
から次の時刻k−m+1における無人機20の推定状態
Figure 0006383716
を求める。続いて、サブステップS76においては、インデックスkの値をインクリメントしてk=k+1とした上で、サブステップS75に戻る。 Subsequently, the process proceeds to sub-step S75, and the state estimation filter determines whether or not the time k has caught up to the current time Tc in real time. For example, the process ends the execution of step S02 and proceeds to step S03. In sub-step S76, the estimated state of drone 20 at time km is performed by performing the same processing as in sub-step S71.
Figure 0006383716
To the next time k−m + 1 from the estimated state of the drone 20
Figure 0006383716
Ask for. Subsequently, in sub-step S76, the value of index k is incremented to k = k + 1, and the process returns to sub-step S75.

なお、サブステップS71からサブステップS73を繰り返し実行するループ処理とは異なり、サブステップS75およびサブステップS76を繰り返し実行するループ処理においては、時計の針が時刻kから時刻k+1に移るまで待つ処理が介在していない。そのため、演算部100のハードウエア性能上の実行速度が十分に速ければ、サブステップS75およびサブステップS76を繰り返し実行するループ処理は、実時間の経過よりも高速に実行されることとなる。   Unlike the loop process in which sub-step S71 to sub-step S73 are repeatedly executed, in the loop process in which sub-step S75 and sub-step S76 are repeatedly executed, a process of waiting until the clock hand moves from time k to time k + 1 is performed. There is no intervention. Therefore, if the execution speed in terms of hardware performance of the arithmetic unit 100 is sufficiently high, the loop processing that repeatedly executes the sub-step S75 and the sub-step S76 will be executed faster than the passage of real time.

ステップS03は、無人機20から直近に受信した実測値Mによる更新作業が完了した第1制御モデル401”または第2制御モデル402”に基づいて無人機20の推定状態を時系列的に求める時系列的演算と当該時系列的に求められた無人機20の推定状態を画面表示する処理に対応する。例えば、ステップS03は、図4において第1制御モデル401を実行する第1演算部100aが、時刻tから時刻tまでの間に行う動作および時刻tからtまでの間に行う動作に対応する。また例えば、ステップS03は、図4において第2制御モデル402を実行する第2演算部100bが、時刻tから時刻tまでの間に行う動作および時刻tからtまでの間に行う動作に対応する。ステップS03は、サブステップS77乃至S79により構成され、ステップS03の実行が開始されると、図7のフローチャートの処理は、サブステップS77からサブステップS79を実行する。図7のフローチャートの処理がサブステップS77に進むと、状態推定フィルタは、サブステップS71と同様の処理を行うことによって、現在時刻kにおける無人機20の推定状態

Figure 0006383716

から次の時刻k+1における無人機20の推定状態
Figure 0006383716
を求める。続いて、サブステップS77においては、インデックスkの値をインクリメントしてk=k+1とした上で、サブステップS78に進み、サブステップS78においては、時計の針が現在時刻kから次の時刻k+1に進むまで待つ。 In step S03, the estimated state of the drone 20 is obtained in time series based on the first control model 401 ″ or the second control model 402 ″ that has been updated with the actual measurement value M k received most recently from the drone 20. This corresponds to a process of displaying the time series calculation and the estimated state of the drone 20 obtained in time series on the screen. For example, the step S03, the operation carried out during the first operation unit 100a that performs a first control model 401 in FIG. 4, the operation and the time t 3 is performed from time t 1 to time t 2 to t 4 Corresponding to Also for example, step S03 is performed between the second operation unit 100b for performing a second control model 402 in FIG. 4, the operation and the time t 4 performed during the period from the time t 2 to time t 3 to t 5 Corresponds to the action. Step S03 includes sub-steps S77 to S79. When the execution of step S03 is started, the processing of the flowchart of FIG. 7 executes sub-step S77 to sub-step S79. When the process of the flowchart of FIG. 7 proceeds to sub-step S77, the state estimation filter performs the same process as in sub-step S71, so that the estimated state of the drone 20 at the current time k is calculated.
Figure 0006383716

The estimated state of the drone 20 at the next time k + 1 from
Figure 0006383716
Ask for. Subsequently, in sub-step S77, the value of index k is incremented to k = k + 1, and the process proceeds to sub-step S78. In sub-step S78, the clock hand moves from the current time k to the next time k + 1. Wait until it goes.

続いて、処理はサブステップS79に進み、無人機20から新たな実測値が受信されたか、または他の演算部100における別の状態推定フィルタにより実行されるサブステップS75およびサブステップS76の繰り返し実行ループ処理が現在時刻Tcに追い付いたならば、処理はステップS04に進む。新たな実測値が受信されておらず、他の演算部100が実行中の別の状態推定フィルタによる上記繰り返しループ処理が現在時刻Tcに追い付いてもいないならば、処理は、サブステップS77に戻る。ステップS04においては、状態推定フィルタの処理を終了すべきかを判断し、終了すべきでないならば、処理は、ステップS02を構成するサブステップS71に戻り、上述した一連の処理を再度実行し、そうでなければ、状態推定フィルタの処理を終了する。   Subsequently, the process proceeds to sub-step S79, and a new actual measurement value is received from the drone 20, or the sub-step S75 and the sub-step S76 are repeatedly executed by another state estimation filter in the other arithmetic unit 100. If the loop process catches up with the current time Tc, the process proceeds to step S04. If a new actual measurement value has not been received and the above repeated loop processing by another state estimation filter being executed by another arithmetic unit 100 has not caught up to the current time Tc, the processing returns to sub-step S77. . In step S04, it is determined whether or not the process of the state estimation filter should be terminated. If not, the process returns to sub-step S71 constituting step S02, and the above-described series of processes is performed again. Otherwise, the state estimation filter processing is terminated.

次に、無人機20を遠隔制御するための制御装置および制御方法の別の実施形態について説明する。この実施形態では、2つ以上の演算部100(100a〜100n)の中の少なくとも一つの第3演算部100cが、第1演算部100a及び前記第2演算部100bとは別に、無人機20の推定状態を時系列的に求める演算部として追加されている。また、第3演算部100cは、第1演算部100a及び前記第2演算部100bとは別に、第3制御モデル403を機能モジュールとして実行している。この実施形態では、第3演算部100cが、時刻T において実測された実測値Mを受信すると、第1演算部100a及び前記第2演算部100bが無人機20の推定状態を時系列的に求める時系列的演算とは並列に、以下の処理を実行する。すなわち、実測値Mを第3制御モデル403に反映して得られる新たな第3制御モデル403’に基づいて、無人機20の推定状態を時系列的に求める時系列的演算を、時刻T から実時間よりも未来の時点に至るまで実行する。第3演算部100cによる上記時系列的演算は、実時間の経過よりも高速に、未来の時点に至るまで実行される。第3演算部100cが当該未来の時点に至るまで上記時系列的演算を高速に実行したら、第3演算部100cは、現在時刻Tcから当該未来の時点までの無人機20の推定状態を、表示装置160上で画面表示する。当該未来の時点までの無人機20の推定状態を画面表示する動作は、第1演算部100a及び前記第2演算部100bが時系列的に求めた無人機20の現在の推定状態を表示した画像の上に重畳して、無人機20の薄い影を表示する形で行われる。 Next, another embodiment of a control device and a control method for remotely controlling the drone 20 will be described. In this embodiment, at least one third calculation unit 100c among the two or more calculation units 100 (100a to 100n) is independent of the first calculation unit 100a and the second calculation unit 100b. It is added as a calculation unit that obtains the estimated state in time series. Further, the third arithmetic unit 100c executes the third control model 403 as a functional module separately from the first arithmetic unit 100a and the second arithmetic unit 100b. In this embodiment, when the third calculation unit 100c receives the actual measurement value M k measured at time T m k , the first calculation unit 100a and the second calculation unit 100b display the estimated states of the drone 20 in time series. The following processing is executed in parallel with the time-series operation that is obtained automatically. That is, based on the new third control model 403 ′ obtained by reflecting the actual measurement value M k in the third control model 403, a time series operation for obtaining the estimated state of the drone 20 in time series is performed at time T Execute from m k to a point in the future rather than real time. The time series calculation by the third calculation unit 100c is executed at a higher speed than the passage of real time until a future time point is reached. When the third calculation unit 100c executes the time series calculation at a high speed until the future time point, the third calculation unit 100c displays the estimated state of the drone 20 from the current time Tc to the future time point. A screen is displayed on the device 160. The operation for displaying the estimated state of the drone 20 up to the future point in time is an image displaying the current estimated state of the drone 20 obtained in time series by the first calculation unit 100a and the second calculation unit 100b. The thin shadow of the drone 20 is displayed in a superimposed manner.

図8は、第3演算部100cが、上述した時系列的演算を、時刻T から実時間よりも未来の時点に至るまで実時間よりも高速に実行する様子を説明するためのタイミング図である。図9は、この実施形態において無人機20を遠隔制御するのに使用される制御装置10の内部構成を示す図である。図9に示す制御装置10は、記憶部120の中に作業環境モデル121、シミュレーション・プログラム122および未来軌道予測データ123が格納されている点を除いて、図2に示す制御装置10とほぼ同様の構成を有する。作業環境モデル121、シミュレーション・プログラム122および未来軌道予測データ123については、以下において具体的に後述する。また、図9に示す制御装置10が備える第1演算部100a、第2演算部100b、第3演算部100c、第4演算部100d、第5演算部100eおよび第6演算部100fの各々は、図2に示す2つ以上の演算部100(100a〜100n)の各々と同様の演算部である。なお、図9には示していないが、第3演算部100cおよび第4演算部100dは、無人機20の制御応答特性をモデル化した機能モジュールとして第3制御モデル403および第4制御モデル404をそれぞれ実行している。 FIG. 8 is a timing chart for explaining how the third calculation unit 100c executes the above-described time-series calculation at a higher speed than the real time from the time T m k to a future time point rather than the real time. It is. FIG. 9 is a diagram showing an internal configuration of the control device 10 used for remotely controlling the drone 20 in this embodiment. The control device 10 shown in FIG. 9 is substantially the same as the control device 10 shown in FIG. 2 except that the work environment model 121, the simulation program 122, and the future trajectory prediction data 123 are stored in the storage unit 120. It has the composition of. The work environment model 121, the simulation program 122, and the future trajectory prediction data 123 will be specifically described below. Further, each of the first calculation unit 100a, the second calculation unit 100b, the third calculation unit 100c, the fourth calculation unit 100d, the fifth calculation unit 100e, and the sixth calculation unit 100f included in the control device 10 illustrated in FIG. The calculation unit is the same as each of the two or more calculation units 100 (100a to 100n) illustrated in FIG. Although not shown in FIG. 9, the third calculation unit 100 c and the fourth calculation unit 100 d use the third control model 403 and the fourth control model 404 as functional modules that model the control response characteristics of the drone 20. Each running.

第1演算部100aと第2演算部100bは、図3乃至図5を参照しながら上述したように、第1制御モデル401および第2制御モデル402に基づいて、無人機20の現在の状態を時系列的に求める演算部である。第3演算部100cと第4演算部100dは、図8を参照しながら以下において後述するように、第3制御モデル403および第4制御モデル404に基づいて、無人機20の現在から未来の時点までの状態を時系列的に予測する演算部である。また、第5演算部100eは、以下において後述するように、無人機20の現在から未来の時点までの状態を時系列的に予測した結果に基づいて、無人機20が障害物に接触したり擱座したりする可能性を事前に察知するための要回避判定処理を実行する。また、第6演算部100fは、図10および図11を参照しながら以下において後述するように、制御装置10が無人機20との通信を中断してオフライン状態にある間に、仮想的な作業環境を想定して無人機20の遠隔制御を模擬的に実行するためのシミュレーションを実行する。   As described above with reference to FIGS. 3 to 5, the first calculation unit 100 a and the second calculation unit 100 b indicate the current state of the drone 20 based on the first control model 401 and the second control model 402. It is a calculation part calculated | required in time series. As will be described later with reference to FIG. 8, the third calculation unit 100 c and the fourth calculation unit 100 d are based on the third control model 403 and the fourth control model 404, and the future time point of the drone 20. It is a calculating part which predicts until the state in time series. Further, as will be described later, the fifth arithmetic unit 100e is configured so that the drone 20 contacts an obstacle based on a result of time-series prediction of the state of the drone 20 from the present to the future time point. The avoidance determination process is executed to detect in advance the possibility of sitting. In addition, as will be described later with reference to FIGS. 10 and 11, the sixth arithmetic unit 100 f performs virtual work while the control device 10 interrupts communication with the drone 20 and is in an offline state. A simulation for simulating the remote control of the drone 20 is executed assuming the environment.

以下、図8および図9を参照しながら第3演算部100cが、上述した時系列的演算を、実測値Mの実測時刻T から実時間よりも未来の時点(未来の仮想時刻)に至るまで実時間よりも高速に実行する処理の流れを説明する。図8において、第1演算部100aは、図4に示す時刻T、TおよびTにおいてそれぞれ受け取った実測値を反映した第1制御モデル401’に基づいて、無人機20の現在の推定状態を求めるために図4において上述したシナリオと同様の時系列的演算を順次実行する。具体的には、第1演算部100aは、図4に示すシナリオと同様に、時刻Tにおいて受け取った実測値Mを第1制御モデル401に反映させて新しい第1制御モデル401’とする。続いて、第1演算部100aは、上述した時系列的演算を、時刻Tにおいて受け取った実測値Mが無人機20において実測された時刻である実測時刻T まで遡らせる。続いて、第1演算部100aは、上述した時系列的演算を、実測時刻T から時刻tまで(図4のp1で表す期間に対応)、実時間の経過よりも高速に実行する。ここで、時刻tは、第1演算部100aにより当該高速に実行される時系列的演算が現在時刻Tcに追い付く時刻に相当する。同様に、第1演算部100aは、時刻TおよびTにおいてそれぞれ受け取った実測値MおよびMについても、同様の処理を行う。また、第2演算部100bは、図4に示す時刻T、TおよびTにおいてそれぞれ受け取った実測値を反映した第2制御モデル402’に基づいて、無人機20の現在の推定状態を求めるために図4において上述したシナリオと同様の時系列的演算を順次実行する。 Hereinafter, with reference to FIG. 8 and FIG. 9, the third calculation unit 100 c performs the time-series calculation described above from the actual measurement time T m k of the actual measurement value M k to a time point in the future (future virtual time). The flow of processing that is executed at a speed higher than real time will be described. In FIG. 8, the first calculation unit 100 a performs the current estimation of the drone 20 based on the first control model 401 ′ that reflects the actual measurement values received at times T 1 , T 3, and T 5 shown in FIG. 4. In order to obtain the state, time series operations similar to the scenario described above in FIG. 4 are sequentially executed. More specifically, the first calculation unit 100a, similarly to the scenario shown in FIG. 4, the measured value M 1 received at time T 1 by reflecting the first control model 401 and the new first control model 401 ' . Subsequently, the first calculation unit 100a goes back to the actual measurement time T m 1, which is the time when the actual measurement value M 1 received at the time T 1 is actually measured by the drone 20. Subsequently, the first calculation unit 100a executes the above-described time-series calculation from the actual measurement time T m 1 to the time t 1 (corresponding to the period represented by p1 in FIG. 4) at a higher speed than the passage of real time. . Here, the time t 1 is series operations when executed on the high-speed by the first calculation unit 100a corresponds to the time to catch up to the current time Tc. Similarly, first calculating unit 100a is, for the measured values M 3 and M 5 respectively received at time T 3 and T 5, it performs the same process. Further, the second calculation unit 100b determines the current estimated state of the drone 20 based on the second control model 402 ′ reflecting the actual measurement values received at times T 2 , T 4 and T 6 shown in FIG. In order to obtain it, the same time series operation as the scenario described above with reference to FIG. 4 is sequentially executed.

他方、第3演算部100cは、時刻Tにおいて受け取った実測値Mを制御モデルに反映して上述した時系列的演算を、実測時刻T から実時間の経過よりも高速に実行する点で第1演算部100aの上述した動作と同様であるが、以下の点が異なる。つまり、第1演算部100aおよび第2演算部100bと並行して、第3演算部100cは、時刻Tにおいて受け取った実測値Mを第3制御モデル403に反映させて新しい第3制御モデル403’とする。続いて、第3演算部100cは、上述した時系列的演算を、時刻Tにおいて受け取った実測値Mが無人機20において実測された時刻である実測時刻T まで遡らせる。続いて、第3演算部100cは、実時間よりも高速に実行される上述した時系列的演算を実測時刻T から開始するが、当該高速に実行される時系列的演算が現在時刻Tcに追い付く時刻tを過ぎても当該高速に実行される時系列的演算をそのまま継続する。その結果、第3演算部100cは、実時間よりも高速に実行される上述した時系列的演算を、現在時刻を過ぎた未来の仮想時刻tまで、実時間の経過よりも高速に実行する(図8のτで表す期間に対応)。従って、第3演算部100cは、第1演算部100aが上記時系列的演算を実時間よりも高速に実行する動作を終了する時刻tよりも時間幅τだけ将来の時点まで当該高速に実行される時系列的演算を続ける。第3演算部100cが、実時間よりも高速に実行される上述した時系列的演算を、未来の仮想時刻tまで実行し終わると、第3演算部100cは、以下の動作を未来の仮想時刻tまで実行する。すなわち、第3演算部100cは、実測値Mによる更新作業が完了した第3制御モデル403”に基づいて、無人機20の推定状態を時系列的に求める時系列的演算を、実時間の経過に歩調を合わせた実行速度で実行し続ける。これと同時並行して、第3演算部100cは、当該時系列的に求めた無人機20の推定状態を表示装置160上に画面表示する。なお、以下において後述するように、この画面表示は、無人機20の推定状態に基づく無人機20の未来の軌道を、実時間の経過に先行する形で画面表示する処理に対応する。 On the other hand, the third calculation unit 100c includes a series operation when the above-described reflecting the measured value M 1 received at time T 1 to the control model, run from the measured time T m 1 faster than the elapsed real time This is the same as the above-described operation of the first calculation unit 100a, but the following points are different. In other words, in parallel with the first operation unit 100a and a second calculating unit 100b, the third calculation unit 100c includes a measured value M 1 received at time T 1 by reflecting the third control model 403 new third control model 403 ′. Subsequently, the third computation section 100c has a series operations when the above-measured value M 1 received at time T 1 is to go back to the actual time T m 1 is the time that is actually measured in the drone 20. Subsequently, the third computation section 100c is starts series operation when the aforementioned than real time is executed at high speed from the measured time T m 1, time series operation the current time Tc is performed on the high-speed even after the time t 1 to catch up to and then continue with the time series operations performed in the high speed. As a result, the third calculation unit 100c executes a series operation when the above is performed faster than real time, to the virtual time t 3 of the future past the current time, faster than the elapsed real time (Corresponding to the period represented by τ R in FIG. 8). Therefore, the third calculation unit 100c is on the high speed until p only point in the future time width τ than the time t 1 of the first arithmetic unit 100a finishes the operation to be executed faster than real time the time-series operation Continue the time-series operations to be performed. Third arithmetic unit 100c is, the series operation when the above is performed faster than real-time, the finish to run until future virtual time t 3, the third calculation unit 100c, the virtual future the following operations to run until the time t 4. That is, the third calculation unit 100c, based on the third control model 403 "which updating by the measured value M 1 is completed, the series operation when determining the estimated state of the drone 20 in time series, the real-time In parallel with this, the third calculation unit 100c displays the estimated state of the drone 20 obtained in time series on the display device 160 on the screen. As will be described later, this screen display corresponds to a process of displaying the future trajectory of the unmanned aerial vehicle 20 based on the estimated state of the unmanned aerial vehicle 20 in a form that precedes the passage of real time.

以上より、図8に示す実施形態によれば、無人機20の状態を未来の時点まで時系列的に状態推定し、現在時刻Tcから未来の時点までの無人機20の状態を、無人機20の現在の状態に重畳して画面表示することができる。その結果、この実施形態によれば、操作者が想定している軌道に沿って無人機20の遠隔制御を続けた場合に、未来の時点(未来の仮想時刻)において無人機20が障害物に接触したり、擱座したりする可能性を事前に察知することができる。従って、そのような場合には、操作者が事前に軌道を修正することが可能となる。特に、操作者が無人機20周辺を撮影する視野から見て死角に隠れている障害物を見落として無人機制御を続けている場合、操作者のミスにより無人機20が障害物に接触したり、擱座したりする可能性を事前に察知し、無人機20の操作ミスを防止することが可能となる。   As described above, according to the embodiment shown in FIG. 8, the state of the drone 20 is estimated in time series until a future time point, and the state of the drone 20 from the current time Tc to the future time point is determined. Can be displayed on the screen superimposed on the current state. As a result, according to this embodiment, when remote control of the drone 20 is continued along the trajectory assumed by the operator, the drone 20 becomes an obstacle at a future time (future virtual time). It is possible to detect in advance the possibility of touching or sitting down. Therefore, in such a case, the operator can correct the trajectory in advance. In particular, when the operator continues to control the drone by overlooking an obstacle hidden in the blind spot when viewed from the field of view around the drone 20, the drone 20 may come into contact with the obstacle due to an operator error. It is possible to detect in advance the possibility of sitting down and to prevent an operation error of the drone 20.

なお、未来の時点において無人機20が障害物に接触したり、擱座したりする可能性を検出する処理は、図9において要回避判定機能部として動作する第5演算部100eによって実行される。図9に示す第5演算部100eは、まず、無人機20の状態を第3演算部100cにより未来の時点まで時系列的に状態推定した結果に基づいて、無人機20が辿ると予想される未来の軌道を予測する。続いて、第5演算部100eは、当該予測された未来の軌道を表すデータを記憶部120内に格納された未来軌道予測データ123に書き込む。続いて、第5演算部100eは、記憶部120内に格納された作業環境記述モデル121が表す作業環境と未来軌道予測データ123が表す無人機20の未来軌道との間の空間的関係に基づいて当該予測された軌道が無人機20と他の構造物との接触や無人機20の擱座を示すか否かを判定する。ここで、作業環境記述モデル121内においては、無人機20の作業環境内に存在する他の構造物や地面の凹凸、無人機20の周囲を囲む壁の形状などが幾何学的データとして幾何学的モデリング言語などにより記述されている。以上のようにして、第5演算部100eにより無人機20が障害物に接触したり、擱座したりする可能性が事前に検出されると、要回避判定機能部として動作する第5演算部100eは、無人機20に回避軌道をとらせる必要がある旨の警告を操作者に対して発することができる。   In addition, the process which detects the possibility that the drone 20 contacts an obstacle or sits down at a future time point is executed by the fifth arithmetic unit 100e that operates as an avoidance determination function unit in FIG. The first calculation unit 100e shown in FIG. 9 is expected to be followed by the drone 20 based on the result of the state estimation of the state of the drone 20 up to a future time point by the third calculation unit 100c. Predict the future trajectory. Subsequently, the fifth arithmetic unit 100 e writes data representing the predicted future trajectory into the future trajectory prediction data 123 stored in the storage unit 120. Subsequently, the fifth arithmetic unit 100e is based on the spatial relationship between the work environment represented by the work environment description model 121 stored in the storage unit 120 and the future trajectory of the drone 20 represented by the future trajectory prediction data 123. Then, it is determined whether or not the predicted trajectory indicates a contact between the drone 20 and another structure or a saddle of the drone 20. Here, in the work environment description model 121, other structures existing in the work environment of the drone 20, unevenness of the ground, the shape of the wall surrounding the drone 20, and the like are geometric data. It is described by a dynamic modeling language. As described above, when the fifth arithmetic unit 100e detects in advance the possibility that the drone 20 will contact an obstacle or sit down, the fifth arithmetic unit 100e that operates as an avoidance determination function unit. Can issue a warning to the operator that the drone 20 needs to take an avoidance trajectory.

次に、図8および図9を参照しながら、無人機20を遠隔制御するための制御装置および制御方法のさらに別の実施形態について、まず具体例から説明する。図8に示すシナリオにおいて上述したように、第3演算部100cは、実時間よりも高速に実行される上述した時系列的演算を実測時刻T から開始するが、当該高速に実行される時系列的演算が現在時刻Tcに追い付く時刻tを過ぎても当該高速に実行される時系列的演算をそのまま継続する。その結果、第3演算部100cは、実時間よりも高速に実行される上述した時系列的演算を、現在時刻を過ぎた未来の仮想時刻tまで、すなわち、図8のτで示す期間にわたって実時間の経過よりも高速に実行する。これと並行して、時刻tから時刻tまでの間においては、図4を参照して上述したように、実時間の経過と歩調を合わせて無人機20の推定状態を画面表示する処理を第1演算部100aと第2演算部100bとが互い違いに交替しながら実行する。このとき、無人機20の未来の推定状態に基づく無人機20の未来の軌道を、実時間の経過に先行する形で画面表示する処理は、第3演算部100cによって未来の仮想時刻tから未来の仮想時刻tまでの間について実行される。 Next, still another embodiment of a control device and a control method for remotely controlling the drone 20 will be described from a specific example with reference to FIGS. 8 and 9. As described above in the scenario illustrated in FIG. 8, the third calculation unit 100 c starts the above-described time-series calculation that is executed at a speed higher than the real time from the actual measurement time T m 1, but is executed at the high speed. time series operation is continued as a series operations when executed on the high-speed even after the time t 1 to catch up to the current time Tc. As a result, the third calculation unit 100c includes a series operation when the above is performed faster than real time, to the virtual time t 3 of the future past the current time, i.e., the period indicated by tau R in FIG. 8 Run faster than the passage of real time. In parallel with this, during the period from time t 1 to time t 3 , as described above with reference to FIG. Are executed while the first calculation unit 100a and the second calculation unit 100b alternate with each other. At this time, the trajectory of the future of the drone 20 based on the estimated future state of the drone 20, the process of screen display in the form preceding the passage of real time, virtual time t 3 of the future by the third calculation unit 100c It is performed on until the virtual time t 4 of the future.

しかしながら、時刻Tにおいて実測値Mを受信して以来新たな実測値を受信していない第3演算部100cが、無人機20の未来の軌道を、実時間の経過に先行する形で画面表示する処理を、未来の仮想時刻t以降も継続すると、当然ながら第3制御モデル403のモデル化誤差が増大してしまう。何故なら、未来の仮想時刻t以降については、第3演算部100cは、実測値M以降に無人機20から受信した新たな実測値Mによって第3制御モデル403をさらに更新しないまま、無人機20の未来の軌道を画面表示する処理を継続してしまうからである。その結果、上述した実施形態では、未来の仮想時刻tから仮想時刻tまでの間については、第3演算部100cは、無人機20の未来の推定状態に基づく上記のような未来軌道の先行画面表示を行うことができない。 However, the third arithmetic unit 100c is not received new measured values since receiving a measured value M 1 at time T 1 is a screen in the form of a preceding track of the future of the drone 20, the elapsed real-time If the display process is continued after the future virtual time t 4 , the modeling error of the third control model 403 naturally increases. Because for the virtual time t 4 after the future, the third calculation unit 100c is without further update the third control model 403 by a new measured value M 2 received from the unmanned aircraft 20 to the measured value M 1 and later, This is because the process of displaying the future trajectory of the drone 20 on the screen is continued. As a result, in the above-described embodiment, for the period from the future virtual time t 4 to the virtual time t 5 , the third calculation unit 100 c uses the future orbit as described above based on the estimated future state of the drone 20. The preceding screen cannot be displayed.

そこで、この実施形態においては、無人機20の未来の推定状態に基づく無人機20の未来の軌道を、実時間の経過に先行する形で画面表示する処理を、図9に示す第4演算部100dが、時刻tから開始するようにしても良い。その場合には、第4演算部100dは、時刻tに先行する時刻Tにおいて受信した実測値Mによる更新作業が完了した第4制御モデル404”に基づいて、無人機20の未来の推定状態を時系列的に求めながら、無人機20の未来の軌道を、実時間の経過に先行する形で画面表示する。従って、第4演算部100dは、実測値Mによる更新作業が完了した第4制御モデル404”に基づいて、未来の仮想時刻tから時刻tまでの間において、無人機20の未来の推定状態を時系列的に求めながら、無人機20の未来の軌道を、実時間の経過に先行する形で画面表示することができる。なお、無人機20の未来の軌道を上記のように画面表示する動作は、第1演算部100a及び前記第2演算部100bが時系列的に求めた無人機20の現在の推定状態を表示した画像の上に重畳して、無人機20の薄い影を表示する形で行われてもよい。すなわち、2つ以上の演算部100(100a〜100n)の少なくとも一つは、第1演算部100a又は第2演算部100bが時系列的に求めた無人機20の現在の推定状態を表示する画面に重畳させる形で、第3演算部100cおよび第4演算部100dが時系列的に求めた無人機20の未来の推定状態を実時間の経過に先行する形で表示装置160の画面に表示するように構成されている。 Therefore, in this embodiment, a process for displaying the future trajectory of the unmanned aerial vehicle 20 based on the estimated future state of the unmanned aerial vehicle 20 in a form that precedes the passage of real time is shown in FIG. 100d is, may be started from the time t 4. In that case, the fourth arithmetic unit 100d, based on the fourth control model 404 "which updating actually measured value M 2 received is completed at time T 2, which precedes the time t 2, the future drone 20 while seeking estimated state in time series, the trajectory of the future of the drone 20 is a display screen in a manner preceding the passage of real time. Therefore, the fourth arithmetic unit 100d is updating the actually measured value M 2 is completed Based on the fourth control model 404 ″, the future trajectory of the drone 20 is obtained from the future virtual time t 4 to the time t 5 while obtaining the estimated state of the drone 20 in time series. The screen can be displayed in a form preceding the passage of real time. The operation of displaying the future trajectory of the drone 20 on the screen as described above displays the current estimated state of the drone 20 obtained in time series by the first calculation unit 100a and the second calculation unit 100b. It may be performed in such a manner that a thin shadow of the drone 20 is displayed so as to be superimposed on the image. That is, at least one of the two or more arithmetic units 100 (100a to 100n) displays a current estimated state of the drone 20 obtained in time series by the first arithmetic unit 100a or the second arithmetic unit 100b. The estimated future state of the drone 20 obtained in time series by the third calculation unit 100c and the fourth calculation unit 100d is displayed on the screen of the display device 160 in a form preceding the passage of real time. It is configured as follows.

また、第3演算部100cが、時刻Tにおいて受信した実測値Mを反映させた新たな第3制御モデル403’に基づいて上記時系列的演算を仮想時刻tに到達するまで実時間よりも高速に実行した後には、第4演算部100dは、第3演算部100cとの間で互いに実行していた処理を入れ替えるようにしてもよい。その場合、未来の仮想時刻tから時刻tまでの間においては、第3演算部100cは、実測値Mにより更新された第3制御モデル403”に基づいて、無人機20の未来の推定状態に基づく上記のような未来軌道の先行画面表示を行うようにしてもよい。一方、第4演算部100dは、時刻Tにおいて受信した実測値Mを反映させた新たな第4制御モデル404’に基づいて上記時系列的演算を仮想時刻tに到達するまで実時間よりも高速に実行する処理を第4演算部100dが実行するようにしても良い。 The third calculation unit 100c is, real-time to reach the virtual time t 5 the time-series operation based on the new third control model 403 'which reflects the measured value M 3 received at time T 3 After execution at a higher speed, the fourth calculation unit 100d may exchange the processes executed with the third calculation unit 100c. In this case, during the period from the future virtual time t 5 to the time t 6 , the third arithmetic unit 100c determines the future of the drone 20 based on the third control model 403 ″ updated with the actual measurement value M 3 . the preceding screen display of future trajectory as described above based on the estimated state may be performed. on the other hand, the fourth arithmetic unit 100d, a new fourth control that reflects the measured value M 4 received at time T 4 based on the model 404 'may be the processing to be executed faster than real-time to reach the time-series operation on the virtual time t 6 is the fourth arithmetic unit 100d executes.

図8および図9を参照して述べた以上の説明を一般化すると、2つ以上の演算部100(100a〜100n)に含まれる第3演算部100cと第4演算部100dは、以下の動作を第1演算部乃至前記第2演算部とは並列に実行するように構成されている。まず、第4演算部100dは、第3演算部により受信された一の実測値(時刻Tに受信した実測値M)の次に受信される他の実測値(例えば、実測値M)を第4制御モデル404に反映して得られる新たな第4制御モデル404’に基づいて、以下の演算を実行する。すなわち、操作指令から無人機20の現在の推定状態を時系列的に求める時系列的演算を、他の実測値(例えば、実測値M)が実測された時刻(例えば、時刻T )から現在時刻Tcを通過して他の未来の時点(例えば、未来の仮想時刻t)に至るまで、実時間の経過よりも高速に実行する。続いて、前第4演算部100dによる時系列的演算が他の未来の時点(例えば、未来の仮想時刻t)に到達した後に、第4演算部100dによる時系列的演算により求められた無人機20の現在の推定状態を、無人機20の未来の推定状態として、次の一の未来の時点(例えば、未来の仮想時刻t)に至るまで表示装置160に提供する。続いて、第3演算部100cは、次の一の未来の時点(例えば、未来の仮想時刻t)から次の他の未来の時点(例えば、未来の仮想時刻t)まで、無人機20の未来の推定状態を表示装置160に提供し、第4演算部100dは、次の他の未来の時点(例えば、未来の仮想時刻t)から次の次の一の未来の時点(例えば、未来の仮想時刻t)まで、無人機20の未来の推定状態を表示装置160に提供する。 Generalizing the above description with reference to FIG. 8 and FIG. 9, the third calculation unit 100c and the fourth calculation unit 100d included in the two or more calculation units 100 (100a to 100n) have the following operations. Are configured to execute in parallel with the first arithmetic unit and the second arithmetic unit. First, the fourth arithmetic unit 100d, in addition to the measured value received in the next one of the measured values received by the third arithmetic unit (time T 1 measured value M 1 received in) (e.g., found M 2 ) Is reflected in the fourth control model 404, and the following calculation is executed based on the new fourth control model 404 ′ obtained. That is, a time series calculation for obtaining the current estimated state of the drone 20 from an operation command in a time series is a time (for example, time T m 2 ) when another actual measurement value (for example, actual measurement value M 2 ) is actually measured. From the current time Tc to another future time point (for example, future virtual time t 4 ), the execution is performed at a speed higher than the real time. Subsequently, after the time-series calculation by the previous fourth calculation unit 100d reaches another future time point (for example, the future virtual time t 4 ), the unattended obtained by the time-series calculation by the fourth calculation unit 100d The current estimated state of the machine 20 is provided as the estimated future state of the drone 20 to the display device 160 until the next future time point (for example, the future virtual time t 5 ). Subsequently, the third computation unit 100c is the next one future point in time (e.g., future virtual time t 5 in) from to other future time point of the next (e.g., future virtual time t 6), the drone 20 The fourth computing unit 100d provides the next estimated future state (for example, the future virtual time t 6 ) to the next next future time (for example, Until the future virtual time t 7 ), the future estimated state of the drone 20 is provided to the display device 160.

以上より、この実施形態によれば、第3演算部100cが上述した時系列的演算を未来の時点Tに追い付くまで実時間よりも高速に実行し続けた後に、無人機20の未来の推定状態に基づいて無人機20の未来の軌道を画面表示する処理を時刻T以降も継続すると第3制御モデル403のモデル化誤差が増大してしまうという問題を軽減することができる。その理由は以下のとおりである。第4演算部100dは、第3演算部100cが使用する第3制御モデル403”よりも新しい実測値を反映した第4制御モデル404’に基づいて上記時系列的演算を未来の仮想時刻Tに至るまで実時間よりも高速に実行する。その後に、第4演算部100dは、第3制御モデル403”よりも新しい実測値による更新作業が完了した第4制御モデル404”に基づいて、上述した無人機20の未来の軌道を画面表示する処理を時刻T以降において実行する。 From the above, according to this embodiment, after the third arithmetic unit 100c continued to run faster than real-time to catch up to the time T 3 in the future the series operation when the above-described estimation of the future of the drone 20 can modeling error of the well to continue the time T 4 after the processing for the screen display of the trajectory of the future of the drone 20 third control model 403 to alleviate the problem of increases based on the state. The reason is as follows. The fourth calculation unit 100d performs the time-series calculation based on the fourth control model 404 ′ reflecting the actual measurement value that is newer than the third control model 403 ″ used by the third calculation unit 100c in the future virtual time T 4. The fourth calculation unit 100d then performs the above-described operation based on the fourth control model 404 ″ that has been updated with the actually measured values that are newer than the third control model 403 ″. executed in the processing time T 4 or later to the future of the orbit the screen display of the drone 20.

また、この実施形態によれば、第3演算部100cが上述した時系列的演算を未来の時点tから未来の時点tに追い付くまで実時間よりも高速に実行し続ける間においても、未来の時点tから当該次の未来の時点tまでの無人機20の時系列的な状態を、実時間の経過よりも先行する形で、時系列的に状態推定しながら画面表示することができる。従って、この実施形態によれば、第3演算部100cが上述した時系列的演算を未来の時点tに追い付くまで実時間よりも高速に実行し続ける間において、実時間よりも先行して時系列的に状態推定された無人機20の未来の状態を観察しながら制御を行うことができない空白の時間が存在しなくなる。その結果、この実施形態によれば、第3演算部100cが上述した時系列的演算を次の未来の時点tに追い付くまで実時間よりも高速に実行し続ける間においても、近い将来において無人機20が障害物に接触したり、擱座したりする可能性を事前に察知することができる。 Further, according to this embodiment, even while the third arithmetic unit 100c continues to run faster than real-time to catch up to the series operation future point in time t 5 from time t 4 in the future when the above-future the series state when the drone 20 from time t 4 to time t 5 of the next future, in a form preceding the elapse of real time, be screen display with time series state estimation it can. Therefore, according to this embodiment, the third between the arithmetic unit 100c continues to run faster than real-time to catch up to the time t 5 in the future the series operation when the above-described, prior to than real-time time There is no blank time during which control cannot be performed while observing the future state of the drone 20 whose state has been serially estimated. As a result, according to this embodiment, even while the third arithmetic unit 100c continues to execute the series operation when the above faster than real-time to catch up to the time t 5 for the next future, unmanned in the near future It is possible to detect in advance the possibility that the machine 20 may come into contact with an obstacle or sit down.

また、図8に示す時刻tから時刻tまでの間(図8においてτで示す期間)においては、第3演算部100cは、未来の時刻tに少しでも早く追い付くために、無人機20の推定状態を時系列的に求める時系列的演算を可能な限り高速に実行しなくてはならない。従って、その間は、第3演算部100cは、当該時系列的に求めた無人機20の推定状態を画面表示する処理を行うことができない。そこで、代替的な実施形態においては、図8に示す時刻tから時刻tまでの間(図8においてτで示す期間)において、図9に示す第4演算部100dが、無人機20の未来の推定状態に基づく無人機20の未来の軌道を、実時間の経過に先行する形で画面表示する処理を第3演算部100cに代わって行う。具体的には、この実施形態では、第4演算部100dが、図8に示す時刻tから時刻tまでの間において、無人機20の未来の推定状態に基づく無人機20の未来の軌道を、実時間の経過に先行する形で画面表示する処理を行う。その際、第4演算部100dは、時刻Tにおいて受信した実測値Mによる更新作業が完了した第4制御モデル404”に基づいて、無人機20の未来の推定状態を時系列的に求めながら、無人機20の未来の軌道を、実時間の経過に先行する形で画面表示する。無人機20の未来の軌道を上記のように画面表示する動作は、第1演算部100a及び前記第2演算部100bが時系列的に求めた無人機20の現在の推定状態を表示した画像の上に重畳して、無人機20の薄い影を表示する形で行われてもよい。 In addition, during the period from time t 1 to time t 3 shown in FIG. 8 (period indicated by τ p in FIG. 8), the third calculation unit 100c is unattended in order to catch up with the future time t 3 as soon as possible. The time series calculation for obtaining the estimated state of the machine 20 in time series must be executed as fast as possible. Accordingly, during that time, the third calculation unit 100c cannot perform processing for displaying the estimated state of the drone 20 obtained in time series on the screen. Therefore, in an alternative embodiment, during the period from time t 1 to time t 3 shown in FIG. 8 (period indicated by τ p in FIG. 8), the fourth arithmetic unit 100d shown in FIG. A process of displaying the future trajectory of the unmanned aerial vehicle 20 based on the estimated state of the future in a form preceding the passage of real time is performed instead of the third arithmetic unit 100c. Specifically, in this embodiment, the fourth arithmetic unit 100d is, during a period from time t 1 shown in FIG. 8 to time t 3, the trajectory of the future drone 20 based on the estimated future state of the drone 20 Is displayed on the screen in advance of the passage of real time. At that time, the fourth arithmetic unit 100d obtains the future estimated state of the drone 20 in a time series based on the fourth control model 404 ″ in which the update operation using the actual measurement value M 1 received at the time T 1 is completed. On the other hand, the future trajectory of the drone 20 is displayed on the screen in advance of the passage of real time, and the future trajectory of the drone 20 is displayed on the screen as described above. 2 The calculation unit 100b may superimpose the current estimated state of the drone 20 obtained in time series on the displayed image and display a thin shadow of the drone 20.

次に、無人機20を遠隔制御するための制御装置および制御方法のさらに別の実施形態について説明する。図1および図2を参照しながら上述した遠隔制御システムにおいて、狭隘部を潜り抜けたり複雑に配置された障害物を連続的に回避したりする動作を無人機20に行わせるための遠隔制御を操作者が行う場合、操作者の僅かな操作ミスで失敗する可能性が高い。従って、そのような複雑で失敗確率の高い動作を無人機20に行わせるのに先立って、現実と同様の状況を設定した仮想環境において操作者が事前に遠隔操作のトレーニングを積んだ上で、実際の遠隔制御を開始するのがリスク回避上好ましい。そこで、この実施形態では、2つ以上の演算部100(100a〜100n)の中の少なくとも一つである第6演算部100fは、以下の動作を実行するように構成されている。   Next, still another embodiment of a control device and a control method for remotely controlling the drone 20 will be described. In the remote control system described above with reference to FIGS. 1 and 2, remote control for causing the drone 20 to perform an operation of passing through a narrow part or continuously avoiding obstacles arranged in a complicated manner is performed. When performed by an operator, there is a high possibility of failure due to a slight operator error. Therefore, prior to causing the drone 20 to perform such an operation with a high probability of failure, after the operator has previously performed remote operation training in a virtual environment in which a situation similar to the reality is set, It is preferable to start actual remote control in order to avoid risk. Therefore, in this embodiment, the sixth calculation unit 100f, which is at least one of the two or more calculation units 100 (100a to 100n), is configured to perform the following operations.

まず、第6演算部100fは、無人機20の遠隔制御の開始に先立って、シミュレーションに基づく試行錯誤を繰り返すことにより無人機20に対する一連の操作指令を含む操作プロファイルを生成する。図10は、シミュレーションに基づく試行錯誤を繰り返すことにより無人機20に対する一連の操作指令を含む操作プロファイル125を生成する動作を制御装置10が実行中のシミュレーション実行状態を示している。図10に示すように、当該シミュレーション実行状態においては、制御装置10と無人機20との間の通信は遮断されており、その間においては、制御装置10は、無人機20の遠隔操作をシミュレーションにより模擬実行するだけで実際の遠隔制御は行わない。図10に示すシミュレーション実行状態においては、シミュレーションによる模擬的な遠隔制御を操作者が行うことによって入力された操作指令は、記憶部120内に格納された操作プロファイル125に蓄積される形で記憶されてゆく。また、図10に示すシミュレーション実行状態においては、シミュレーションを行うために、現実と同様の状況を設定した仮想環境は、記憶部120内に格納された作業環境記述モデル121によって記述される。作業環境記述モデル121内においては、無人機20の作業環境内に存在する他の構造物や地面の凹凸、無人機20の周囲を囲む壁の形状などが幾何学的データとして幾何学的モデリング言語などにより記述されている。   First, prior to the start of remote control of the drone 20, the sixth arithmetic unit 100 f generates an operation profile including a series of operation commands for the drone 20 by repeating trial and error based on simulation. FIG. 10 shows a simulation execution state in which the control device 10 is executing an operation of generating an operation profile 125 including a series of operation commands for the drone 20 by repeating trial and error based on simulation. As shown in FIG. 10, in the simulation execution state, communication between the control device 10 and the drone 20 is interrupted, and during that time, the control device 10 performs remote operation of the drone 20 by simulation. The actual remote control is not performed only by performing the simulation. In the simulation execution state shown in FIG. 10, the operation command input by the operator performing simulated remote control by simulation is stored in the form of being accumulated in the operation profile 125 stored in the storage unit 120. Go. Further, in the simulation execution state shown in FIG. 10, a virtual environment in which a situation similar to that in reality is set in order to perform a simulation is described by a work environment description model 121 stored in the storage unit 120. In the work environment description model 121, other structures existing in the work environment of the drone 20, the unevenness of the ground, the shape of the wall surrounding the drone 20, etc. are used as geometric data as a geometric modeling language. It is described by.

なお、図10および図11においては、操作プロファイル125は、一つしか図示されていないが、第6演算部100fは、複数の(S個の)操作プロファイル125s(1≦s≦S)を生成し、記憶部120に格納しても良い。例えば、操作者がシミュレーションによる無人機20の模擬的な遠隔制御を複数回にわたって試行錯誤しながら繰り返し実行させた場合には、第6演算部100fは、当該繰り返し実行の各々について個別的に操作プロファイル125を生成してもよい。その場合には、無人機20の模擬的な遠隔制御を複数回にわたって試行錯誤しながら繰り返し実行した回数に応じた複数の(S個の)操作プロファイル125s(1≦s≦S)が生成され、記憶部120に格納される。   10 and 11, only one operation profile 125 is illustrated, but the sixth arithmetic unit 100f generates a plurality of (S) operation profiles 125s (1 ≦ s ≦ S). However, it may be stored in the storage unit 120. For example, when the operator repeatedly executes simulated remote control of the drone 20 by a plurality of times through trial and error, the sixth calculation unit 100f individually sets the operation profile for each of the repeated executions. 125 may be generated. In that case, a plurality (S) of operation profiles 125s (1 ≦ s ≦ S) corresponding to the number of times that the simulated remote control of the drone 20 is repeatedly performed through trial and error are generated, It is stored in the storage unit 120.

続いて、図11に示すように、制御装置10は、無人機20と光ファイバ回線30を介して通信可能に接続され、第6演算部100fは、図10に示すシミュレーション実行状態において生成された複数の操作プロファイル125s(1≦s≦S)の中から、一連の作業を成功裏に完遂できると想定される操作プロファイル125’を選択する。続いて、図11に示すように、第6演算部100fは、操作プロファイル125’に基づいて無人機20を半自動制御(セミオート制御)する。続いて、第6演算部100fは、第3演算部100cが実時間よりも未来の時点まで時系列的に求めた無人機20の推定状態が要回避状態(例えば、障害物との接触や前記無人機の擱座)を示すか否かを検出する。続いて、当該要回避状態(例えば、障害物との接触や前記無人機の擱座)を検出した際に、操作プロファイル125’に基づいて実行中の上記半自動制御に対して、操作者の手動による遠隔制御を介入させる。具体的には、第6演算部100fが、上記半自動制御(セミオート制御)によって生成差された制御指令に対して、操作者の手動操作によって生成された制御指令を重畳させる。これにより、第6演算部100fは、無人機20に対して送信される制御指令を修正することが可能となる。その後、操作者は、第1演算部100aと第2演算部100bが時系列的に求めた無人機20の推定状態の画面表示に基づいて、無人機20を手動制御する。   Subsequently, as shown in FIG. 11, the control device 10 is communicably connected to the drone 20 via the optical fiber line 30, and the sixth arithmetic unit 100f is generated in the simulation execution state shown in FIG. From among a plurality of operation profiles 125s (1 ≦ s ≦ S), an operation profile 125 ′ that is assumed to be able to successfully complete a series of operations is selected. Subsequently, as illustrated in FIG. 11, the sixth calculation unit 100 f performs semi-automatic control (semi-automatic control) on the drone 20 based on the operation profile 125 ′. Subsequently, the sixth calculation unit 100f determines that the estimated state of the drone 20 obtained by the third calculation unit 100c in a time series from the real time to a future time point is an avoidance state (for example, contact with an obstacle or the aforementioned It is detected whether or not it indicates a drone scorpio. Subsequently, when the avoidance state (for example, contact with an obstacle or the saddle of the unmanned aircraft) is detected, the above-described semi-automatic control being executed based on the operation profile 125 ′ is manually performed by the operator. Intervene remote control. Specifically, the sixth arithmetic unit 100f superimposes the control command generated by the manual operation of the operator on the control command generated and differenced by the semi-automatic control (semi-automatic control). Thereby, the sixth calculation unit 100f can correct the control command transmitted to the drone 20. Thereafter, the operator manually controls the drone 20 based on the screen display of the estimated state of the drone 20 obtained in time series by the first calculation unit 100a and the second calculation unit 100b.

つまり、この実施形態では、無人機20の遠隔制御の開始に先立って、手動による遠隔制御と同一の操作インターフェースを有する上記仮想環境内において、無人機20を遠隔操作した場合の操作シナリオをシミュレーションにより模擬実行する。当該シミュレーションは、第6演算部100fが記憶部120からシミュレーション・プログラム122を読み出して実行することにより行ってもよい。そして、この実施形態においては、当該シミュレーションにより様々な操作シナリオを模擬実行する試行錯誤を繰り返すことにより無人機20に対する一連の操作指令を含む操作プロファイルを生成し、当該操作プロファイルに従って無人機20をセミオート(半自動)制御する。また、上述した操作プロファイルに従ったセミオート(半自動)制御の実行中に、障害物と接触したり無人機が擱座したりする可能性を事前に察知した場合には、操作者の手動による遠隔制御を介入させ、当該セミオート(半自動)制御を修正することができるようにしてある。   That is, in this embodiment, prior to the start of the remote control of the drone 20, an operation scenario when the drone 20 is remotely operated in the virtual environment having the same operation interface as the manual remote control is simulated. Run a simulation. The simulation may be performed by causing the sixth arithmetic unit 100f to read out and execute the simulation program 122 from the storage unit 120. In this embodiment, an operation profile including a series of operation commands for the drone 20 is generated by repeating trial and error to simulate and execute various operation scenarios by the simulation, and the drone 20 is semi-automatically generated according to the operation profile. (Semi-automatic) control. In addition, during the execution of semi-automatic control according to the above-described operation profile, if it is detected in advance that there is a possibility of contact with an obstacle or the drone being seated, manual remote control by the operator And the semi-automatic (semi-automatic) control can be corrected.

なお、未来の時点において無人機20が障害物に接触したり、擱座したりする可能性を検出する処理は、図9において要回避判定機能部として動作する第5演算部100eによって実行される。図9に示す第5演算部100eは、まず、無人機20の状態を第3演算部100cにより未来の時点まで時系列的に状態推定した結果に基づいて、無人機20が辿ると予想される未来の軌道を予測する。続いて、第5演算部100eは、当該予測された未来の軌道を表すデータを記憶部120内に格納された未来軌道予測データ123に書き込む。続いて、第5演算部100eは、記憶部120内に格納された作業環境記述モデル121が表す作業環境と未来軌道予測データ123が表す無人機20の未来軌道との間の空間的関係に基づいて当該予測された軌道が無人機20と他の構造物との接触や無人機20の擱座を示すか否かを判定する。   In addition, the process which detects the possibility that the drone 20 contacts an obstacle or sits down at a future time point is executed by the fifth arithmetic unit 100e that operates as an avoidance determination function unit in FIG. The first calculation unit 100e shown in FIG. 9 is expected to be followed by the drone 20 based on the result of the state estimation of the state of the drone 20 up to a future time point by the third calculation unit 100c. Predict the future trajectory. Subsequently, the fifth arithmetic unit 100 e writes data representing the predicted future trajectory into the future trajectory prediction data 123 stored in the storage unit 120. Subsequently, the fifth arithmetic unit 100e is based on the spatial relationship between the work environment represented by the work environment description model 121 stored in the storage unit 120 and the future trajectory of the drone 20 represented by the future trajectory prediction data 123. Then, it is determined whether or not the predicted trajectory indicates a contact between the drone 20 and another structure or a saddle of the drone 20.

従って、この実施形態によれば、シミュレーションにより様々な操作シナリオを模擬実行する試行錯誤を繰り返すことにより操作者が手動遠隔制御と同一の操作インターフェースを使用して事前に操作のトレーニングを積むことができる。そして、当該セミオート(半自動)制御の実行中に予定外の失敗リスクが生じた場合には、当該セミオート制御を手動で修正することもできる。その結果、この実施形態によれば、複雑で失敗確率の高い動作を無人機20に行わせる際の失敗リスクを低減することができる。   Therefore, according to this embodiment, by repeating trial and error in which various operation scenarios are simulated and executed by simulation, an operator can perform operation training in advance using the same operation interface as manual remote control. . If an unscheduled failure risk occurs during execution of the semi-automatic (semi-automatic) control, the semi-automatic control can be corrected manually. As a result, according to this embodiment, it is possible to reduce the risk of failure when causing the drone 20 to perform a complicated operation with a high probability of failure.

次に、無人機20を遠隔制御するための制御装置および制御方法のさらに別の実施形態について説明する。この実施形態では、2つ以上の演算部100(100a〜100n)の中の少なくとも一つは、以下の動作を実行するように構成されていても良い。まず、第3演算部100cにより実時間よりも未来の時点まで時系列的に求めた無人機20の推定状態が要回避状態(例えば、障害物との接触や前記無人機の擱座)を示すか否かを検出する。続いて、要回避状態(例えば、障害物との接触や前記無人機の擱座)を検出した際には、操作者が入力した操作指令に優先して無人機20に回避軌道をとらせる緊急操作指令を無人機20に送信する。   Next, still another embodiment of a control device and a control method for remotely controlling the drone 20 will be described. In this embodiment, at least one of the two or more arithmetic units 100 (100a to 100n) may be configured to execute the following operation. First, whether the estimated state of the drone 20 obtained in a time series from the real time to the future time point by the third arithmetic unit 100c indicates a avoidance state (for example, contact with an obstacle or the drone of the drone). Detect whether or not. Subsequently, when an avoidance state (for example, contact with an obstacle or a saddle of the unmanned aircraft) is detected, an emergency operation that causes the unmanned aircraft 20 to take an avoidance path in preference to the operation command input by the operator. A command is transmitted to the drone 20.

以上より、この実施形態によれば、無人機20の状態を未来の時点まで状態推定することにより障害物と接触したり無人機が擱座したりする可能性を事前に察知した場合には、操作者の手動による遠隔制御に優越して、制御装置10の演算部100が無人機20に回避軌道をとらせる回避制御を自動的に実行することができる。その結果、無人機20が障害物と接触したり無人機20が擱座したりする可能性を事前に察知した場合に、当該回避制御を操作者に任せきりにするのではなく、制御装置10の演算部100の判断により操作者を介さずに自動実行することができる。   As described above, according to this embodiment, when the state of the drone 20 is estimated to the future time point, when the possibility of contact with an obstacle or the drone being seated is detected in advance, It is possible to automatically execute avoidance control in which the calculation unit 100 of the control device 10 causes the unmanned aircraft 20 to take an avoidance trajectory, superior to manual remote control by a person. As a result, when it is detected in advance that the drone 20 may come into contact with an obstacle or the drone 20 sits down, the avoidance control is not left to the operator. It can be automatically executed without intervention of the operator based on the judgment of the calculation unit 100.

1 遠隔制御システム
10 制御装置
20 無人機
21 無人機側制御装置
22 サーボ機構
30 光ファイバ回線
42,43,45,46,47 信号経路
51,52 切替スイッチ
91,92 監視カメラ/他の無人機
93 監視用装置
100(100a,100b,100c,100d,100e,100f) 演算部
110 通信部
120 記憶部
121 作業環境モデル
121 作業環境記述モデル
122 ・プログラム
123 未来軌道予測データ
125 操作プロファイル
130 エンコーダ
140 インターフェース
150 操作盤
160 表示装置
211 無人機側の通信部
212 無人機側の制御演算部
221 センサ/カメラ類
222 アクチュエータ類
401 第1制御モデル
402 第2制御モデル
403 第3制御モデル
404 第4制御モデル
411,412 切替手段
J1,J2 仮想時間
Mk(M1,M3,M4,M5,M6) 実測値
T1,T2,T3,T4,T5,T6 受信時刻
Tc 現在時刻
Tmk(Tm1,Tm3,Tm4,Tm5,Tm6) 実測時刻
Y,y 状態観測値
k インデックス値


DESCRIPTION OF SYMBOLS 1 Remote control system 10 Control apparatus 20 Unmanned machine 21 Unmanned machine side control apparatus 22 Servo mechanism 30 Optical fiber line 42,43,45,46,47 Signal path 51,52 Changeover switch 91,92 Surveillance camera / other unmanned machine 93 Monitoring device 100 (100a, 100b, 100c, 100d, 100e, 100f) Arithmetic unit 110 Communication unit 120 Storage unit 121 Work environment model 121 Work environment description model 122-Program 123 Future trajectory prediction data 125 Operation profile 130 Encoder 140 Interface 150 Operation panel 160 Display device 211 Communication unit 212 on unmanned aircraft side Control calculation unit 221 on unmanned aircraft side Sensor / cameras 222 Actuators 401 First control model 402 Second control model 403 Third control model 404 Fourth control model 411 12 switching means J1, J2 virtual time Mk (M1, M3, M4, M5, M6) measured value T1, T2, T3, T4, T5, T6 reception time Tc current time Tmk (Tm1, Tm3, Tm4, Tm5, Tm6) Actual measurement time Y, y State observation value k Index value


Claims (14)

無人機の現在の推定状態を順次画面表示可能な表示装置と、
前記無人機を遠隔制御するために前記表示装置に画面表示された前記無人機の現在の推定状態に基づいて操作者が入力した操作指令を前記無人機に送信可能であり、且つ、前記無人機が自機の状態を順次実測した実測値を前記無人機から順次受信可能な通信部と、
それぞれ前記実測値を反映した制御モデルに基づいて、前記操作指令から前記無人機の現在の推定状態を求める時系列的演算を実行して求められた前記無人機の現在の推定状態を前記表示装置に提供可能な第1演算部及び第2演算部を含む2つ以上の演算部と、
を備える制御装置であって、
前記第1演算部及び前記第2演算部は、前記実測値を交番的に受け取り可能であって、前記実測値を受け取る都度、前記時系列的演算を繰り返し実行するように構成され、
前記第1演算部は、交番的に受け取った一の実測値を反映した一の制御モデルに基づいて、前記時系列的演算が前記一の実測値の実測時刻から現在時刻に追い付く一の時刻まで実時間の経過よりも高速に、前記時系列的演算を順次実行可能であり、
前記第2演算部は、交番的に受け取った他の実測値を反映した他の制御モデルに基づいて、前記時系列的演算が前記他の実測値の実測時刻から現在時刻に追い付く他の時刻まで実時間の経過よりも高速に、前記時系列的演算を順次実行可能であり、
前記第1演算部は、前記一の時刻から次の前記他の時刻まで、前記無人機の現在の推定状態を前記表示装置に提供するように構成され、
前記第2演算部は、前記他の時刻から次の前記一の時刻まで、前記無人機の現在の推定状態を前記表示装置に提供するように構成されている
ことを特徴とする無人機の制御装置。
A display device capable of sequentially displaying the current estimated state of the drone on the screen;
An operation command input by an operator based on the current estimated state of the drone displayed on the display device for remote control of the drone can be transmitted to the drone, and the drone A communication unit capable of sequentially receiving actual measurement values of the state of the own machine from the drone,
The display device displays the current estimated state of the unmanned aircraft obtained by executing a time-series operation for obtaining the current estimated state of the unmanned aircraft from the operation command based on a control model that reflects the actual measurement values. Two or more calculation units including a first calculation unit and a second calculation unit that can be provided to,
A control device comprising:
The first calculation unit and the second calculation unit are configured to alternately receive the actual measurement value, and each time the actual measurement value is received, the time calculation operation is repeatedly performed.
The first calculation unit is based on one control model reflecting one actually measured value, which is received alternately, until one time when the time series calculation catches up from the actually measured time of the one actually measured value to the current time. The time-series operations can be executed sequentially at a speed higher than the passage of real time,
Based on another control model reflecting other actually measured values received alternately, the second calculating unit is based on the time series calculation from the actually measured time of the other actually measured values to another time that catches up with the current time. The time-series operations can be executed sequentially at a speed higher than the passage of real time,
The first calculation unit is configured to provide the display device with a current estimated state of the drone from the one time to the next other time,
The second computing unit is configured to provide the display device with a current estimated state of the unmanned aircraft from the other time to the next one time. apparatus.
前記制御モデルは、状態推定フィルタを含むように構成され、
前記実測値の実測時刻から現在時刻に追い付く時刻まで、実時間の経過よりも高速に実行される前記時系列的演算は、前記実測値を前記状態推定フィルタの内部状態に反映させる事後予測動作と、前記実測値を反映させた内部状態に基づいて前記状態推定フィルタの予測動作を実時間の経過よりも高速に行う高速状態予測動作と、を含むように構成され、
前記無人機の現在の推定状態を前記表示装置に提供する処理は、実時間の経過よりも高速に実行される前記時系列的演算が現在時刻に追い付いた後に、前記高速状態予測動作を継続する形で前記状態推定フィルタの予測動作を実時間の経過に合わせて行いながら時系列的な前記推定状態を画面表示する事前予測動作を含むように構成される、
ことを特徴とする請求項1に記載の無人機の制御装置。
The control model is configured to include a state estimation filter;
From the actual measurement time of the actual measurement value to the time of catching up with the current time, the time series calculation executed at a speed higher than the passage of real time includes a post-prediction operation that reflects the actual measurement value in the internal state of the state estimation filter. And a high-speed state prediction operation for performing the prediction operation of the state estimation filter based on the internal state reflecting the actual measurement value at a speed higher than the lapse of real time,
The process of providing the display device with the current estimated state of the drone continues the high-speed state prediction operation after the time-series operation executed faster than the passage of real time catches up with the current time The state estimation filter is configured to include a pre-prediction operation that displays the estimated state in time series while performing the prediction operation of the state estimation filter in accordance with the passage of real time.
The unmanned aerial vehicle control device according to claim 1.
前記2つ以上の演算部は第3演算部を含み、
前記第3演算部は、
前記一の実測値を前記制御モデルに反映して得られる前記一の制御モデルに基づいて、前記操作指令から前記無人機の現在の推定状態を時系列的に求める時系列的演算を、前記一の実測値が実測された時刻から現在時刻を通過して一の未来の時点に至るまで、実時間の経過よりも高速に実行するように構成され、
前記第3演算部による時系列的演算は、前記第1演算部及び前記第2演算部による前記時系列的演算とは並列に実行するように構成され、
前記第3演算部による時系列的演算が前記一の未来の時点に到達した後に前記第3演算部による時系列的演算により求められた前記無人機の現在の推定状態を、前記無人機の未来の推定状態として、前記表示装置に提供可能である
ことを特徴とする請求項1または請求項2に記載の無人機の制御装置。
The two or more arithmetic units include a third arithmetic unit,
The third calculation unit includes:
Based on the one control model obtained by reflecting the one actual measurement value on the control model, a time-series operation for obtaining a current estimated state of the drone from the operation command in time series is performed. It is configured to execute faster than the passage of real time, from the time when the actual measurement value of the actual measurement passed through the current time to the time of one future.
The time series calculation by the third calculation unit is configured to be executed in parallel with the time series calculation by the first calculation unit and the second calculation unit,
The current estimated state of the drone obtained by the time-series operation by the third operation unit after the time-series operation by the third operation unit reaches the one future time point is determined as the future of the unmanned aircraft. The unmanned aircraft control device according to claim 1, wherein the estimated state can be provided to the display device.
前記2つ以上の演算部は第4演算部を含み、
前記第4演算部は、
前記他の実測値を前記制御モデルに反映して得られる前記他の制御モデルに基づいて、前記操作指令から前記無人機の現在の推定状態を時系列的に求める時系列的演算を、前記他の実測値が実測された時刻から現在時刻を通過して他の未来の時点に至るまで、実時間の経過よりも高速に実行するように構成され、
前記第4演算部による時系列的演算は、前記第1演算部、前記第2演算部及び前記第3演算部による前記時系列的演算とは並列に実行するように構成され、
前記第4演算部による時系列的演算が前記他の未来の時点に到達した後に前記第4演算部による時系列的演算により求められた前記無人機の現在の推定状態を、前記無人機の未来の推定状態として、前記表示装置に提供可能であり、
前記第3演算部は、前記一の未来の時点から次の前記他の未来の時点まで、前記無人機の未来の推定状態を前記表示装置に提供するように構成され、
前記第4演算部は、前記他の未来の時点から次の前記一の未来の時点まで、前記無人機の未来の推定状態を前記表示装置に提供するように構成されている、
ことを特徴とする請求項3記載の無人機の制御装置。
The two or more calculation units include a fourth calculation unit,
The fourth calculation unit includes:
Based on the other control model obtained by reflecting the other actual measurement value on the control model, a time series operation for obtaining the current estimated state of the drone from the operation command in time series is performed. It is configured to execute faster than the passage of real time, from the time when the actual measurement value of the actual measurement passed through the current time to another future time point,
The time series computation by the fourth computation unit is configured to be executed in parallel with the time series computation by the first computation unit, the second computation unit, and the third computation unit,
The current estimated state of the unmanned aircraft obtained by the time-series computation by the fourth computation unit after the time-series computation by the fourth computation unit reaches the other future time point is determined as the future of the unmanned aircraft. The estimated state can be provided to the display device,
The third calculation unit is configured to provide the display device with an estimated future state of the drone from the one future time point to the next other future time point,
The fourth calculation unit is configured to provide the display device with an estimated future state of the drone from the other future time point to the next one future time point.
The unmanned aerial vehicle control device according to claim 3.
前記2つ以上の演算部の少なくとも一つは、
前記第1演算部又は前記第2演算部が時系列的に求めた前記無人機の現在の推定状態を表示する画面に重畳させる形で、前記第3演算部および前記第4演算部が時系列的に求めた前記無人機の未来の推定状態を実時間の経過に先行する形で前記画面に表示するように構成されている、
ことを特徴とする請求項4に記載の無人機の制御装置。
At least one of the two or more arithmetic units is:
The third calculation unit and the fourth calculation unit are time-sequentially superimposed on a screen that displays the current estimated state of the drone obtained by the first calculation unit or the second calculation unit in time series. Configured to display the estimated future state of the drone obtained on the screen in a form that precedes the passage of real time,
The unmanned aerial vehicle control device according to claim 4.
前記2つ以上の演算部の少なくとも一つは、
前記無人機の遠隔制御の開始に先立って、シミュレーションに基づく試行錯誤を繰り返すことにより前記無人機に対する一連の操作指令を含む操作プロファイルを生成する動作と、
前記操作プロファイルに基づいて前記無人機を無人制御する動作と、
前記第3演算部により実時間よりも未来の時点まで時系列的に求められた前記無人機の未来の推定状態が要回避状態を示すか否かを検出する動作と、
前記要回避状態を検出した際に、前記無人機の制御を、前記第1演算部および第2演算部が時系列的に求めた前記無人機の現在の推定状態を表示する画面表示に基づいて、操作者が手動で行う制御に切り替える動作と、
をさらに備える、ことを特徴とする請求項3または請求項4に記載の無人機の制御装置。
At least one of the two or more arithmetic units is:
Prior to the start of remote control of the drone, an operation for generating an operation profile including a series of operation commands for the drone by repeating trial and error based on simulation;
An unmanned operation of the drone based on the operation profile;
An operation of detecting whether or not a future estimated state of the unmanned aircraft obtained in a time series from the third arithmetic unit to a future time point in real time indicates an avoidance state;
When the avoidance state is detected, the control of the drone is controlled based on a screen display that displays the current estimated state of the drone that is obtained in time series by the first calculation unit and the second calculation unit. , Switching to manual control by the operator,
The drone control device according to claim 3 or 4, further comprising:
前記2つ以上の演算部の少なくとも一つは、
前記第3演算部により前記実時間よりも未来の時点まで時系列的に求めた前記無人機の未来の推定状態が要回避状態を示すか否かを検出する動作と、
前記要回避状態を前記検出した際に、前記操作指令に優先して前記無人機に回避軌道をとらせる緊急操作指令を前記無人機に送信する動作と、
をさらに実行する、ことを特徴とする請求項3または請求項4に記載の無人機の制御装置。
At least one of the two or more arithmetic units is:
An operation of detecting whether or not a future estimated state of the unmanned aircraft obtained in a time series from the third arithmetic unit to a time point in the future from the real time indicates an avoidance state;
An operation of transmitting an emergency operation command to the drone to cause the drone to take an avoidance trajectory in preference to the operation command when the avoidance state is detected;
The drone control device according to claim 3 or 4, further comprising:
無人機が自機の状態を順次実測した実測値を前記無人機から順次受信し、前記無人機の状態を順次画面表示しながら、前記順次画面表示された前記状態に基づいて操作者が入力した操作指令に基づいて前記無人機を遠隔制御する制御装置を動作させる方法であって、
前記制御装置内における2つ以上の演算部に含まれる第1演算部及び第2演算部が、それぞれ前記実測値を反映した制御モデルに基づいて、前記操作指令から前記無人機の現在の推定状態を求める時系列的演算を実行して求められた前記無人機の現在の推定状態を表示装置に提供する第1ステップ、
を備え、前記第1ステップにおいて、
前記第1演算部及び前記第2演算部は、前記実測値を交番的に受け取り、前記実測値を受け取る都度、前記時系列的演算を繰り返し実行し、
前記第1演算部は、交番的に受け取った一の実測値を反映した一の制御モデルに基づいて、前記時系列的演算が前記一の実測値の実測時刻から現在時刻に追い付く一の時刻まで実時間の経過よりも高速に、前記時系列的演算を順次実行し、
前記第2演算部は、交番的に受け取った他の実測値を反映した他の制御モデルに基づいて、前記時系列的演算が前記他の実測値の実測時刻から現在時刻に追い付く他の時刻まで実時間の経過よりも高速に、前記時系列的演算を順次実行し、
前記第1演算部は、前記一の時刻から次の前記他の時刻まで、前記無人機の現在の推定状態を前記表示装置に提供し、
前記第2演算部は、前記他の時刻から次の前記一の時刻まで、前記無人機の現在の推定状態を前記表示装置に提供する、
ことを特徴とする無人機の制御方法。
The drone receives the actual measurement values obtained by sequentially measuring the state of the own machine from the drone, and the operator inputs the screen based on the sequentially displayed states while sequentially displaying the unmanned machine state on the screen. A method of operating a control device for remotely controlling the drone based on an operation command,
The first calculation unit and the second calculation unit included in the two or more calculation units in the control device, respectively, based on the control model reflecting the actual measurement value, the current estimated state of the drone from the operation command A first step of providing a display device with a current estimated state of the drone obtained by performing a time-series operation for obtaining
In the first step,
The first calculation unit and the second calculation unit alternately receive the actual measurement value, and each time the actual measurement value is received, repeatedly execute the time series calculation,
The first calculation unit is based on one control model reflecting one actually measured value, which is received alternately, until one time when the time series calculation catches up from the actually measured time of the one actually measured value to the current time. The time series operations are sequentially executed faster than the passage of real time,
Based on another control model reflecting other actually measured values received alternately, the second calculating unit is based on the time series calculation from the actually measured time of the other actually measured values to another time that catches up with the current time. The time series operations are sequentially executed faster than the passage of real time,
The first calculation unit provides the display device with a current estimated state of the drone from the one time to the next other time,
The second calculation unit provides the display device with a current estimated state of the drone from the other time to the next one time.
A method for controlling an unmanned aerial vehicle.
前記制御モデルは、状態推定フィルタを含むように構成され、
前記実測値の実測時刻から現在時刻に追い付く時刻まで、実時間の経過よりも高速に実行される前記時系列的演算は、前記実測値を前記状態推定フィルタの内部状態に反映させる事後予測動作と、前記実測値を反映させた内部状態に基づいて前記状態推定フィルタの予測動作を実時間の経過よりも高速に行う高速状態予測動作と、を含むように構成され、
前記無人機の現在の推定状態を前記表示装置に提供する処理は、実時間の経過よりも高速に実行される前記時系列的演算が現在時刻に追い付いた後に、前記高速状態予測動作を継続する形で前記状態推定フィルタの予測動作を行いながら時系列的な前記推定状態を画面表示する事前予測動作に切り替えるように構成される、
ことを特徴とする請求項8に記載の無人機の制御方法。
The control model is configured to include a state estimation filter;
From the actual measurement time of the actual measurement value to the time of catching up with the current time, the time series calculation executed at a speed higher than the passage of real time includes a post-prediction operation that reflects the actual measurement value in the internal state of the state estimation filter. And a high-speed state prediction operation for performing the prediction operation of the state estimation filter based on the internal state reflecting the actual measurement value at a speed higher than the lapse of real time,
The process of providing the display device with the current estimated state of the drone continues the high-speed state prediction operation after the time-series operation executed faster than the passage of real time catches up with the current time Configured to switch to a pre-prediction operation that displays the time-series estimation state on the screen while performing the prediction operation of the state estimation filter in a form,
The method of controlling an unmanned aerial vehicle according to claim 8.
前記2つ以上の演算部に含まれる第3演算部は、前記第1演算部及び前記第2演算部による前記時系列的演算とは並列に、
前記一の実測値を前記制御モデルに反映して得られる前記一の制御モデルに基づいて、前記操作指令から前記無人機の現在の推定状態を時系列的に求める時系列的演算を、前記一の実測値が実測された時刻から現在時刻を通過して一の未来の時点に至るまで、実時間の経過よりも高速に実行するステップ、
を実行し、
前記第3演算部による時系列的演算が前記一の未来の時点に到達した後に、前記第3演算部による時系列的演算により求められた前記無人機の現在の推定状態を、前記無人機の未来の推定状態として、前記表示装置に提供可能である
ことを特徴とする請求項8または請求項9に記載の無人機の制御方法。
The third calculation unit included in the two or more calculation units is in parallel with the time-series calculation by the first calculation unit and the second calculation unit,
Based on the one control model obtained by reflecting the one actual measurement value on the control model, a time-series operation for obtaining a current estimated state of the drone from the operation command in time series is performed. A step that is executed faster than the passage of real time from the time when the actual measurement value of the actual measurement is passed through to the future time point through the current time,
Run
After the time series computation by the third computation unit reaches the one future time point, the current estimated state of the unmanned aircraft obtained by the time series computation by the third computation unit is The drone control method according to claim 8 or 9, wherein the estimated state of the future can be provided to the display device.
前記2つ以上の演算部に含まれる第4演算部は、前記第1演算部、前記第2演算部及び前記第3演算部による前記時系列的演算とは並列に、
前記他の実測値を前記制御モデルに反映して得られる前記他の制御モデルに基づいて、前記操作指令から前記無人機の現在の推定状態を時系列的に求める時系列的演算を、前記他の実測値が実測された時刻から現在時刻を通過して他の未来の時点に至るまで、実時間の経過よりも高速に実行するステップ、
を実行し、
前記第4演算部による時系列的演算が前記他の未来の時点に到達した後に前記第4演算部による時系列的演算により求められた前記無人機の現在の推定状態を、前記無人機の未来の推定状態として、前記表示装置に提供可能であり、
前記第3演算部は、前記一の未来の時点から次の前記他の未来の時点まで、前記無人機の未来の推定状態を前記表示装置に提供し、
前記第4演算部は、前記他の未来の時点から次の前記一の未来の時点まで、前記無人機の未来の推定状態を前記表示装置に提供する、
ことを特徴とする請求項10記載の無人機の制御方法。
The fourth arithmetic unit included in the two or more arithmetic units is in parallel with the time-series arithmetic performed by the first arithmetic unit, the second arithmetic unit, and the third arithmetic unit,
Based on the other control model obtained by reflecting the other actual measurement value on the control model, a time series operation for obtaining a current estimated state of the drone from the operation command in time series is performed. A step that is executed faster than the passage of real time from the time when the actual measurement value of the actual measurement is passed through the current time to another future time point,
Run
The current estimated state of the unmanned aircraft obtained by the time-series computation by the fourth computation unit after the time-series computation by the fourth computation unit reaches the other future time point is determined as the future of the unmanned aircraft. The estimated state can be provided to the display device,
The third calculation unit provides the display device with an estimated future state of the drone from the one future time point to the next other future time point,
The fourth computing unit provides the display device with a future estimated state of the drone from the other future time point to the next future time point.
The method of controlling an unmanned aerial vehicle according to claim 10.
前記2つ以上の演算部の少なくとも一つは、
前記第1演算部又は前記第2演算部が時系列的に求めた前記無人機の現在の推定状態を表示する画面に重畳させる形で、前記第3演算部および前記第4演算部が時系列的に求めた前記無人機の未来の推定状態を実時間の経過に先行する形で前記画面に表示する、
ことを特徴とする請求項11に記載の無人機の制御方法。
At least one of the two or more arithmetic units is:
The third calculation unit and the fourth calculation unit are time-sequentially superimposed on a screen that displays the current estimated state of the drone obtained by the first calculation unit or the second calculation unit in time series. Displaying the estimated future state of the drone obtained on the screen in a form preceding the passage of real time,
The drone control method according to claim 11.
前記2つ以上の演算部の少なくとも一つは、
前記無人機の遠隔制御の開始に先立って、シミュレーションに基づく試行錯誤を繰り返すことにより前記無人機に対する一連の操作指令を含む操作プロファイルを生成するステップと、
前記操作プロファイルに基づいて前記無人機を無人制御するステップと、
前記第3演算部により実時間よりも未来の時点まで時系列的に求められた前記無人機の未来の推定状態が要回避状態を示すか否かを検出するステップと、
前記要回避状態を検出した際に、前記無人機の制御を、前記第1演算部および第2演算部が時系列的に求めた前記無人機の現在の推定状態を表示する画面表示に基づいて、操作者が手動で行う制御に切り替えるステップ、
をさらに備える、ことを特徴とする請求項10または請求項11に記載の無人機の制御方法。
At least one of the two or more arithmetic units is:
Prior to the start of remote control of the drone, generating an operation profile including a series of operation commands for the drone by repeating trial and error based on simulation; and
Unmanned control of the drone based on the operation profile;
Detecting whether or not the estimated future state of the drone obtained in a time series from the third computing unit to a future time point in real time indicates a avoidance state;
When the avoidance state is detected, the control of the drone is controlled based on a screen display that displays the current estimated state of the drone that is obtained in time series by the first calculation unit and the second calculation unit. , Switching to manual control by the operator,
The drone control method according to claim 10 or 11, further comprising:
前記2つ以上の演算部の少なくとも一つは、
前記第3演算部により前記実時間よりも未来の時点まで時系列的に求めた前記無人機の未来の推定状態が要回避状態を示すか否かを検出するステップと、
前記要回避状態を前記検出した際に、前記操作指令に優先して前記無人機に回避軌道をとらせる緊急操作指令を前記無人機に送信するステップと、
をさらに備える、ことを特徴とする請求項10または請求項11に記載の無人機の制御方法。
At least one of the two or more arithmetic units is:
Detecting whether or not a future estimated state of the drone obtained in a time series from the third computing unit to a time point in the future from the real time indicates an avoidance state;
A step of transmitting an emergency operation command to the drone to cause the drone to take an avoidance path in preference to the operation command when the avoidance state is detected;
The drone control method according to claim 10 or 11, further comprising:
JP2015228852A 2015-11-24 2015-11-24 Control device and control method for drone Active JP6383716B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015228852A JP6383716B2 (en) 2015-11-24 2015-11-24 Control device and control method for drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015228852A JP6383716B2 (en) 2015-11-24 2015-11-24 Control device and control method for drone

Publications (2)

Publication Number Publication Date
JP2017097602A JP2017097602A (en) 2017-06-01
JP6383716B2 true JP6383716B2 (en) 2018-08-29

Family

ID=58816908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015228852A Active JP6383716B2 (en) 2015-11-24 2015-11-24 Control device and control method for drone

Country Status (1)

Country Link
JP (1) JP6383716B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6939896B2 (en) 2017-11-08 2021-09-22 日本電気株式会社 Remote controls, systems, methods, and programs
JP7143634B2 (en) * 2018-05-29 2022-09-29 コベルコ建機株式会社 Skill evaluation system and skill evaluation method
DE102018118437A1 (en) 2018-07-31 2020-02-06 Airbus Defence and Space GmbH System and method for monitoring the condition of an unmanned aircraft

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0386484A (en) * 1989-08-25 1991-04-11 Fujitsu Ltd Remote operation device for robot
JPH1011122A (en) * 1996-06-24 1998-01-16 Nippon Telegr & Teleph Corp <Ntt> Information providing device
JP2002176370A (en) * 2000-12-06 2002-06-21 Nissan Motor Co Ltd Audio system and broadcast information providing method
JP4451858B2 (en) * 2006-05-19 2010-04-14 株式会社日立製作所 Unmanned vehicle
US20080195304A1 (en) * 2007-02-12 2008-08-14 Honeywell International Inc. Sensor fusion for navigation
JP5147104B2 (en) * 2007-03-20 2013-02-20 ダイコク電機株式会社 Display control device for gaming machine
JP2011239937A (en) * 2010-05-18 2011-12-01 Konami Digital Entertainment Co Ltd Game device, game processing method, and program
JP5679121B2 (en) * 2011-05-25 2015-03-04 株式会社Ihi Robot motion prediction control method and apparatus
JP5868681B2 (en) * 2011-12-01 2016-02-24 三菱重工業株式会社 Remote control vehicle system
US9623561B2 (en) * 2012-10-10 2017-04-18 Kenneth Dean Stephens, Jr. Real time approximation for robotic space exploration
JP5740433B2 (en) * 2013-05-24 2015-06-24 日本電信電話株式会社 Delay compensation apparatus, method, program, and recording medium
JP2015219793A (en) * 2014-05-20 2015-12-07 株式会社日立製作所 Electronic control device

Also Published As

Publication number Publication date
JP2017097602A (en) 2017-06-01

Similar Documents

Publication Publication Date Title
Xie et al. Towards monocular vision based obstacle avoidance through deep reinforcement learning
US10732647B2 (en) Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (MAV)
EP3593294A1 (en) Training action selection neural networks using apprenticeship
Boots et al. Learning predictive models of a depth camera & manipulator from raw execution traces
CN112757284B (en) Robot control device, method, and storage medium
JP6383716B2 (en) Control device and control method for drone
CN111795700A (en) Unmanned vehicle reinforcement learning training environment construction method and training system thereof
KR20200013577A (en) Device, which is configured to operate a machine learning system
CN111487992A (en) Unmanned aerial vehicle sensing and obstacle avoidance integrated method and device based on deep reinforcement learning
Janiak et al. Control system architecture for the investigation of motion control algorithms on an example of the mobile platform Rex
CN112580582B (en) Action learning method, action learning device, action learning medium and electronic equipment
Hafez et al. Efficient intrinsically motivated robotic grasping with learning-adaptive imagination in latent space
Sun et al. Learning-based perception contracts and applications
JP2020095471A (en) Estimation device, training device, estimation method, and training method
Liu et al. Trajectory prediction and visual localization of snake robot based on BiLSTM neural network
CN117150881A (en) Reinforced learning training loop method and device for bionic robot fish navigation task
KR102455003B1 (en) Simulation method and apparatus for reinforcement learning of unmanned systems
Paudel Learning for robot decision making under distribution shift: A survey
Yoon et al. Learning to communicate: A machine learning framework for heterogeneous multi-agent robotic systems
JP2024025637A (en) Device and method for executing task
CN113189986B (en) Two-stage self-adaptive behavior planning method and system for autonomous robot
CN116009583A (en) Pure vision-based distributed unmanned aerial vehicle cooperative motion control method and device
Das et al. AS-EKF: a delay aware state estimation technique for telepresence robot navigation
CN115081612A (en) Apparatus and method to improve robot strategy learning
Sun et al. Learning-based inverse perception contracts and applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R150 Certificate of patent or registration of utility model

Ref document number: 6383716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150