[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019027909A - 無人移動体による対象物の位置推定方法 - Google Patents

無人移動体による対象物の位置推定方法 Download PDF

Info

Publication number
JP2019027909A
JP2019027909A JP2017147312A JP2017147312A JP2019027909A JP 2019027909 A JP2019027909 A JP 2019027909A JP 2017147312 A JP2017147312 A JP 2017147312A JP 2017147312 A JP2017147312 A JP 2017147312A JP 2019027909 A JP2019027909 A JP 2019027909A
Authority
JP
Japan
Prior art keywords
observation
estimating
unmanned
target
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017147312A
Other languages
English (en)
Inventor
周平 小松
Shuhei Komatsu
周平 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Drone IPLab Inc
Aerial Lab Industries Inc
Original Assignee
Drone IPLab Inc
Aerial Lab Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Drone IPLab Inc, Aerial Lab Industries Inc filed Critical Drone IPLab Inc
Priority to JP2017147312A priority Critical patent/JP2019027909A/ja
Publication of JP2019027909A publication Critical patent/JP2019027909A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

【課題】遭難者の位置の分布を推定し、観測を得るごとに分布を更新することで遭難者の位置を能動的に推定する手法を提供すること。
【解決手段】本発明による位置推定方法は、無人移動体によって行われる。方法は、対象物の推定位置を仮決めするステップと、無人移動体によって、対象物から発信される信号を観測するステップと、推定位置を更新し更新後に次の観測場所を決定するステップと、更新後の観測場所に移動して再び観測を行うステップと、を繰り返すことによって、対象物の位置を漸次的に推定する。
【選択図】図1

Description

本発明は、無人移動体による対象物の位置推定方法に関する。
近年はUAV(Unmanned Aerial Vehicle)の発展が目覚ましく、空撮や探索などその用途は多岐にわたる。UAVによりターゲットを探索する研究もいくつかあるが、ドローンの動き方はあらかじめ決められている。
また、山や森林における行方不明者を捜索する際に、できるだけ迅速に行方不明者を発見することは重要なことであるが、行方不明者の最後の目撃情報などだけから位置を絞り込み発見することは難しく、最終的にローラー作戦のように網羅的な探索がなされることも珍しくない。
登山者などにあらかじめビーコンを持たせ、行方不明になった場合はそのビーコンからの信号を元に位置推定を行い効率的な探索を行うことを考える。複数のセンサーで信号を観測する、あるいは一つのセンサーで複数回観測を行うことで信号源の位置を検出する手法はいくつかある。それらの手法は大きく分けて二つのグループに分類することができる。
一つは受信した信号の到来方向や、信号源までの距離を計算し、その情報を元に位置検出を行う方法でRange−Based方式と呼ばれるものである。もう一つは受信した信号から信号源までの距離そのものは計算することなく位置検出を行う方法でRange−Free方式と呼ばれるものである。一般的にはRange−Based方式の方が精度は高いが計算コストが高くなり、逆にRange−Free方式は精度は低いが計算コストは低く、ロバストであるという特徴がある。
大槻知明.位置推定技術.信学技報(2009)
非特許文献1に記載の技術は、観測場所を適切に選択することに関するものはほとんどない。
そこで、本発明は、Particle Filter を用いて遭難者の位置の分布を推定し、観測を得るごとに分布を更新することで遭難者の位置を能動的に推定する手法を提案する。また、観測する場所を適切に選ぶことにより、少ない観測回数で精度の高い推定を行うことができることを示す。広範囲の情報を迅速にに集めるための技術を提供することを一つの目的とする。
本発明によれば、無人移動体による対象物の位置推定方法であって、
対象物の推定位置を仮決めするステップと、前記無人移動体によって、対象物から発信される信号を観測するステップと、前記推定位置を更新し更新後に次の観測場所を決定するステップと、更新後の観測場所に移動して再び観測を行うステップと、を繰り返すことによって、前記対象物の位置を漸次的に推定する、
位置推定方法が得られる。
本発明によれば、広範囲の情報を迅速にに集めることができる。
本発明の実施の形態による無人飛行体の機能ブロック図である。 管理サーバの機能ブロック図である。 本実施の形態による推定方法のシミュレーション結果である。
本発明の実施形態の内容を列記して説明する。本発明の実施の形態による無人移動体による対象物の位置推定方法は、以下のような構成を備える。
[項目1]
無人移動体による対象物の位置推定方法であって、
対象物の推定位置を仮決めするステップと、前記無人移動体によって、対象物から発信される信号を観測するステップと、前記推定位置を更新し更新後に次の観測場所を決定するステップと、更新後の観測場所に移動して再び観測を行うステップと、を繰り返すことによって、前記対象物の位置を漸次的に推定する、
位置推定方法。
[項目2]
請求項1に記載の位置推定方法であって、
前記信号を観測するステップはParticle Filterを用い、次の観測場所を決定するステップはActive learningを用いる、
位置推定方法。
<実施の形態の詳細>
以下、本発明の実施の形態による無人移動体による対象物の位置推定方法を利用した位置推定システムについて、説明する。
<概要>
本発明の実施の形態による位置推定システムは、無人飛行体とコンピュータ端末とを用いて実現可能である。
本実施の形態における無人飛行体は、ドローン(Drone)、マルチコプター(Multi Copter)、無人航空機(Unmanned aerial vehicle:UAV)、RPAS(remote piloted aircraft systems)、又はUAS(Unmanned Aircraft Systems)等と称呼されることがある。無人飛行体は、電池、複数のモータ、位置検出部、制御部、ドライバ、記憶装置、無線通信装置、電圧センサ、及び電流センサ等を備えている。これらの構成要素は、所定形状のフレームに搭載されている。無人飛行体に搭載される情報処理装置のハードウェア構成については後述する。なお、これらの飛行のための基本構造については、既知の技術を適宜採用可能である。
<無人飛行体>
図2に示されるように、無人飛行体1は、情報処理装置100を搭載している。情報処理装置100は、サーバ1と通信を介して情報処理を実行することにより、情報伝達システムの一部を構成する。情報処理装置100は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部13、出力部14、測位部16、検知部17等を備え、これらはバス15を通じて相互に電気的に接続される。情報処理装置100は、例えばマイクロコンピューター、ASIC(Application Specific Integrated Circuit)で構成されていてもよく、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
プロセッサ10は、情報処理装置100の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な処理等を行う演算装置である。例えばプロセッサ10はCPU及び/又はGPU(Graphical Processing Unit)等であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行することによって、必要な各情報処理を実施する。
メモリ11は、RAMなどの揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11はプロセッサ10のワークエリア等として使用され、また、情報処理装置100の起動時に実行されるBIOS、及び各種設定情報等が格納される。ストレージ12には、アプリケーション・プログラム等が格納される。
送受信部13は、情報処理装置100をネットワーク4に接続し、LPEAネットワークを介して管理サーバ1と通信を行う。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。
入出力部14は、スイッチ類等の情報入力機器、及びディスプレイ等の出力機器である。無人飛行体1は自律飛行を行うものであるが、外部から遠隔で手動又は自動で操作されることとしてもよい。本実施の形態による無人飛行体1は、入力機能としてカメラを備えており、静止画・動画の空撮が可能である。また、収集すべき情報に応じて、赤外線サーモカメラ、X線カメラ、高感度カメラ、暗視カメラ等種々のカメラを備えることとしてもよい。
バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。
測位部16は、無人飛行体1の位置と高度を少なくとも検出する。本実施の形態による測位部26は、例えばGPS(Global Positioning System)検出器であって、無人飛行体1の現在位置の緯度、経度、及び高度を検出する。
検知部17は、無人飛行体1の外部環境を音声、画像、赤外線等種々のセンサによってセンシングするためのものであり、自立飛行の補助機能を司る。
本実施の形態による無人飛行体1は、情報処理装置100の他に、当該無人飛行体1の移動・飛行のための、電源、回転翼に接続されたモータ、情報処理装置100とモータとを中継するドライバを少なくとも更に有している。情報処理装置100は、複数のモータを制御して監視ドローンの飛行制御(上昇、下降、水平移動などの制御)や、無人飛行体1に搭載されているジャイロ(図示せず)を使用して複数のモータを制御することによって姿勢制御をも行う。ドライバは、情報処理装置100からの制御信号に従ってモータを駆動する。例えば、モータは直流モータであり、ドライバは制御信号により指定された電圧をモータに印加する可変電圧電源回路である。なお、無人飛行体100は図示しない他の要素を有していてもよい。
<管理サーバ>
図2に示されるように、管理サーバ2は、情報伝達システムを通じてサービスを提供するための情報処理装置であり、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。図2に示されるように、サーバ2は、プロセッサ20、メモリ21、ストレージ22、送受信部23、及び入出力部24等を備え、これらはバス25を通じて相互に電気的に接続される。
プロセッサ20は、サーバ2全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えばプロセッサ20はCPU(Central Processing Unit)であり、ストレージ22に格納されメモリ21に展開されたプログラム等を実行して各情報処理を実施する。
メモリ21は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ21は、プロセッサ20のワークエリア等として使用され、また、サーバ2の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。ストレージ22は、アプリケーション・プログラム、及び各無人飛行体1の認証プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベース(後述するロケーションデータ、ルートデータ等)がストレージ22に構築されていてもよい。
<本発明による方法>
関連研究のRSSIを用いた位置推定では、信号を観測するセンサーの位置についてはセンサーの周囲に格子状に並べるなどの方法がとられている。
この方法では一度に観測を行い、得られたデータを用いて位置推定を行うことになる。本発明では、遭難者が所持しているビーコンの信号をUAVに搭載したセンサーで観測をしながら推定を進めることを考えるので、Particle Filterを用いて分布を推定し、観測が得られるごとに更新していくことにする。さらに、本発明では遭難者の位置推定を行うことを考えているため、少ない観測回数で高精度の位置推定を行うことも重要である。このため観測場所を適切に選択する必要がある。
本発明においてこの問題を解決するために、機械学習の一つの分野であるActive learningで用いられている方法を適用することを考える。Active learningとは、あるデータに対する正解のラベルを得るのにコストや時間がかかる場合に、できるだけ少ないデータに対する正解ラベルで効率的に学習を行うための学習方法である。本発明においてはParticleFilterとActive learningで用いられる方法を組み合わせることで、効率的かつ高精度な位置推定を実現する方法を提案する。
提案手法では信号を観測して推定位置を更新し、更新後に次の観測場所を決定する。その場所で再び観測を行い、推定位置を更新する、という操作を繰り返し行うことで漸次的に推定を進める。
本発明では遭難者の位置の分布は非ガウスな分布であると考えられるため、単純なカルマンフィルタは使えない。ここでは実装の容易さから、信号源の位置推定にはParticle Filterを用い、次の観測場所の決定にはActive learningで用いられる手法を適用する。
本実施形態ではParticle FilterとしてSampling Impor−tance Resamplingアルゴリズムを用いるものとする。つまり観測データを得るたびに各粒子に対して尤度を計算し、尤度に応じてリサンプリングを行うことで粒子の状態を更新し推定を行う。
Active learningは機械学習の一つの分野で、あるデータに対する正解のラベルを得るのにコストや時間がかかる場合に、できるだけ少ないデータに対する正解ラベルで効率的に学習を行うためのアルゴリズムである。Active learningでは次にどのデータを得るべきかを決定するのにはいくつかのアプローチがある。本発明では行方不明者の位置をできるだけ早く推定するために、観測する場所を適切に選び推定を効率的に進める必要があるためActive learningで用いられる手法を参考にする。次節以降で、本発明におけるParticle Filterと、Active learningで用いられる手法の具体的な適用方法をついて述べる。
<Range−Based方式に基づく提案手法>
Range−Based方式に基づく提案手法では、Range−Based方式の中でもRSSIを用いて位置検出を行う。ある観測が得られたらParticle Filter各粒子に対して、信号強度の理論値との差に応じて尤度を設定し、リサンプリングを行うことで推定を更新し、次の観測場所を決定する、という操作を繰り返す。以下ではその具体的な更新方法と観測場所の決定方法について述べる。また、今後は理論式(1)中の単位距離d=1として扱う。
<分布の更新>
粒子の個数をNとし、(i−1) 番目の観測を受けて、リサンプリングされたあとの粒子を数式1で表す。
さらに粒子の番号を添え字j (j=1, 2,・・・, Np) で表すことにすると、各粒子は、それぞれ粒子の位置、単位距離での信号強度、減衰係数の情報を持ち、数式2で表すことができる。
また、i番目の観測場所を数式3、観測値を数式4とする。
ここで、観測値(数式4)が得られると、観測ノイズが平均0、分散2の正規分布に従うと仮定することで、各粒子に対しての尤度wを以下の数式5により計算することができる。
尤度wが計算できれば、これに従ってリサンプリングすることで、更新された粒子(数式6)を得ることができる。
<観測場所の決定>
i番目の観測を受けて、リサンプリングされたあとの粒子(数式6)が得られたとき、次にどの場所で観測すべきかを考える。例えば、ある位置[x, yで観測を行うとする。このとき、各粒子から得られるNp個の観測値の組Rは[x, yに依存し、数式7のように書くことができる。
Np個の観測値R(j=1, 2, ・・・, Np)が同じような値になる位置で観測を行なっても、そのときの観測を受けてリサンプリングした後の分布はリサンプリングする前の分布とあまり変化しない。逆に、できるだけ異なった観測が得られる場所で観測を行なった方が、リサンプリング前後での分布の変化は大きくなる。このような考え方はActivelearningにおいてはuncertainty samplingと呼ばれ、観測場所は以下の数式11に従って決定することができる。
<シミュレーション結果>
Range−Based方式、Range−Free方式に基づく提案手法のそれぞれに対して行なったシミュレーションの結果を示す。Particle Filterにより位置推定が行えていること、Active learningで用いられる手法により、ランダムに観測場所を選択するよりも推定の精度が向上していることを確認した。シミュレーションの問題設定として、Particle Filterの粒子の数は1,000とし、更に、パラメータの初期値及び信号源の位置(x, y)は、数式12の範囲でランダムに選択する。
更に、信号源の定数はP=60.0、κ=2.2に設定する。簡単のため、ビーコン及び受信機は無指向性であるとする。観測には平均0、分散1のガウス白色ノイズをのせる。受信機は信号強度が0dBより小さい信号は観測できないものとし、計算上は全てP=−30として扱う。
Range−Based方式に基づく提案手法のシミュレーション結果を以下の表1及び表2(Tab1, Tab2)に示す。表中のδは推定誤差である。
ここでは、各観測回数について100回シミュレーションを行い、その平均値を載せている。観測場所をランダムに選択するよりもuncertainty samplingに従って選択することで、少ない観測回数で高精度の推定を実現できていることが確認できる。また、uncertainty samplingを用いることにより次の観測場所を適切に選択できている様子を図3に示す。図において赤い星印がターゲットの位置、青丸がセンサーの位置、緑の丸が粒子の位置である。図(a)は、ある時刻t=Tでの状態であり、その状態から次の時刻において観測場所をランダムに選択し、観測・リサンプリングを行なった後の状態が図(b)であり、観測場所をuncertainty samplingにより選択し、観測・リサンプリングを行なった後の状態が図(c)である。
以上説明したように、本発明では、信号源の位置推定を行う際にParticle Filterを用いることで、オンラインで推定を進めることができることを示した。さらに観測場所を決定するときにはActive learningに従って決定することで、少ない観測で効率的に推定を行うことができることも確認し、その有用性も示した。しかし遭難者の位置推定を行う際に最も重要なのは観測回数を減らすことではなく、推定にかかる時間を短くすることである。観測回数を減らすことは推定にかかる時間を短くするために重要なことではあるが、必ずしも推定時間の短縮には繋がらない。観測場所同士が非常に離れているなどの要因で、観測回数自体は少ないが移動に時間がかかる、ということも考えられるためである。そのため、今後の課題として観測場所間の移動時間も考慮に入れたモデルを構築する必要がある。
本実施の無人移動体は、飛行するものであったが、例えば、地上を移動するもの、水中を移動するものなど、自立又は手動で移動させることができるものであれば、どのようなものでも適用可能である。
上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
1 無人飛行体
2 管理サーバ

Claims (2)

  1. 無人移動体による対象物の位置推定方法であって、
    対象物の推定位置を仮決めするステップと、前記無人移動体によって、対象物から発信される信号を観測するステップと、前記推定位置を更新し更新後に次の観測場所を決定するステップと、更新後の観測場所に移動して再び観測を行うステップと、を繰り返すことによって、前記対象物の位置を漸次的に推定する、
    位置推定方法。
  2. 請求項1に記載の位置推定方法であって、
    前記信号を観測するステップはParticle Filterを用い、次の観測場所を決定するステップはActive learningを用いる、
    位置推定方法。

JP2017147312A 2017-07-31 2017-07-31 無人移動体による対象物の位置推定方法 Pending JP2019027909A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017147312A JP2019027909A (ja) 2017-07-31 2017-07-31 無人移動体による対象物の位置推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017147312A JP2019027909A (ja) 2017-07-31 2017-07-31 無人移動体による対象物の位置推定方法

Publications (1)

Publication Number Publication Date
JP2019027909A true JP2019027909A (ja) 2019-02-21

Family

ID=65478243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017147312A Pending JP2019027909A (ja) 2017-07-31 2017-07-31 無人移動体による対象物の位置推定方法

Country Status (1)

Country Link
JP (1) JP2019027909A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186456A (zh) * 2019-04-30 2019-08-30 中国科学院深圳先进技术研究院 一种目标定位的方法、系统、无人机及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186456A (zh) * 2019-04-30 2019-08-30 中国科学院深圳先进技术研究院 一种目标定位的方法、系统、无人机及存储介质
CN110186456B (zh) * 2019-04-30 2023-09-29 中国科学院深圳先进技术研究院 一种目标定位的方法、系统、无人机及存储介质

Similar Documents

Publication Publication Date Title
EP3158412B1 (en) Sensor fusion using inertial and image sensors
US10126126B2 (en) Autonomous mission action alteration
EP3158293B1 (en) Sensor fusion using inertial and image sensors
CN111033561B (zh) 用于利用语义信息来导航机器人设备的系统和方法
EP3158417B1 (en) Sensor fusion using inertial and image sensors
US10281911B1 (en) System and method for controlling a remote aerial device for up-close inspection
EP3158411B1 (en) Sensor fusion using inertial and image sensors
CN107209514B (zh) 传感器数据的选择性处理
US11798426B2 (en) Autonomous mission action alteration
WO2021081774A1 (zh) 一种参数优化方法、装置及控制设备、飞行器
EP3234505A1 (en) Providing constraint to a position
TW202202809A (zh) 決定裝置、路徑決定方法、路徑決定程式、路徑決定系統及飛行體裝置
JP2019027909A (ja) 無人移動体による対象物の位置推定方法
CN116793340B (zh) 一种无人机自动着陆导航方法、装置及电子设备
JP2020071154A (ja) 位置推定装置、位置推定方法、プログラム、及び記録媒体