JP2023015634A - 情報処理装置、移動体の制御システム、情報処理方法、プログラム - Google Patents
情報処理装置、移動体の制御システム、情報処理方法、プログラム Download PDFInfo
- Publication number
- JP2023015634A JP2023015634A JP2021119540A JP2021119540A JP2023015634A JP 2023015634 A JP2023015634 A JP 2023015634A JP 2021119540 A JP2021119540 A JP 2021119540A JP 2021119540 A JP2021119540 A JP 2021119540A JP 2023015634 A JP2023015634 A JP 2023015634A
- Authority
- JP
- Japan
- Prior art keywords
- moving
- information processing
- movement
- speed
- agv
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 39
- 238000003672 processing method Methods 0.000 title claims 3
- 230000033001 locomotion Effects 0.000 claims abstract description 100
- 238000004458 analytical method Methods 0.000 claims abstract description 49
- 238000000034 method Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 34
- 238000003384 imaging method Methods 0.000 claims description 26
- 238000009826 distribution Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 10
- 230000002093 peripheral effect Effects 0.000 abstract 2
- 238000012545 processing Methods 0.000 description 34
- 238000012986 modification Methods 0.000 description 18
- 230000004048 modification Effects 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
【課題】移動経路上に複数の障害物が存在する場合において、移動体の運行効率を向上させる。【解決手段】無人搬送車や自律移動ロボット等の移動体の移動制御を行う情報処理装置は、移動体およびその周囲環境を撮像した画像を取得する画像取得部301と、移動体の位置姿勢の情報を取得する位置情報取得部303を備える。物体解析部302は、所定期間において画像取得部301により取得された画像群に基づいて移動体の周囲環境に存在する物体の動きを解析する。制御内容決定部304は位置情報取得部303により取得された移動体の位置情報と、物体解析部302の解析結果に基づいて移動体の移動に係る制御内容(移動方向、移動速度、移動位置等)を決定する。【選択図】 図3
Description
本発明は、移動体の移動制御技術に関する。
工場や物流倉庫等で用いられる移動体は、製品や部品等の荷物を所定位置に搬送する装置である。例えば無人搬送車(AGV:Automated Guided Vehicle)や自律移動ロボット(AMR:Autonomous Mobile Robot)がある。
特許文献1には、自律移動体の移動制御において障害物との衝突をより確実に回避するための方法が開示されている。移動経路上の障害物の検出後、移動体と障害物との干渉を避けるための移動経路が生成され、移動経路に沿って移動制御が行われる。
ところで移動体の移動経路上に存在する障害物は単一の障害物とは限らない。例えば多数の歩行者が移動経路上に存在する場合を想定する。この場合、従来の移動体の移動制御では、目的地までの経路設定や移動体の運行における効率が低下する可能性がある。
本発明の目的は、移動経路上に複数の障害物が存在する場合において、移動体の運行効率を向上させることである。
本発明の目的は、移動経路上に複数の障害物が存在する場合において、移動体の運行効率を向上させることである。
本発明の実施形態の装置は、移動体の移動制御を行う情報処理装置であって、前記移動体およびその周囲環境を撮像した撮像画像を取得する画像取得手段と、前記移動体の位置姿勢の情報を取得する位置情報取得手段と、前記画像取得手段により異なる時刻に取得された複数の画像を用いて、前記移動体の周囲環境に存在する複数の物体の動きを解析する解析手段と、前記位置情報取得手段により取得された前記移動体の位置姿勢の情報と、前記解析手段の解析結果とに基づいて前記移動体の移動に係る制御内容を決定する決定手段と、を備える。
本発明によれば、移動経路上に複数の障害物が存在する場合において、移動体の運行効率を向上させることができる。
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。本実施形態では、移動体である無人搬送車の制御システムの例を示す。なお、以下の実施例で示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。同一の構成要素については同じ符号を付すことで説明の重複を回避する。
[第1実施例]
本実施例では、移動体の移動経路上に複数の障害物が存在する場合において、本発明の適用例を示す。移動経路上に複数の歩行者が存在しており、目的地に向けて移動体の制御内容の決定する方法について説明する。本明細書中、歩行者群全体の流れの方向と速度を、人の移動方向と移動速度として定義する。人の移動方向および速度、密度、位置の検出処理が行われ、移動体の移動方向、移動位置、移動速度が歩行者群の流れに近似した動きになるように移動制御が行われる。
本実施例では、移動体の移動経路上に複数の障害物が存在する場合において、本発明の適用例を示す。移動経路上に複数の歩行者が存在しており、目的地に向けて移動体の制御内容の決定する方法について説明する。本明細書中、歩行者群全体の流れの方向と速度を、人の移動方向と移動速度として定義する。人の移動方向および速度、密度、位置の検出処理が行われ、移動体の移動方向、移動位置、移動速度が歩行者群の流れに近似した動きになるように移動制御が行われる。
図1を参照して、システム全体の構成を説明する。図1は本実施形態のシステム全体の構成を示す模式図である。本実施形態のシステムは、コンピュータ101、撮像装置102、移動体103、ネットワーク104から構成される。コンピュータ101は、ネットワーク104を介して撮像装置102と移動体103に接続されている。ネットワーク104は、イーサネット(登録商標)等の有線接続または無線LAN(Local Area Network)等の無線接続により実現可能である。ネットワーク104については、接続される機器に対して相互に情報の通信が可能な構成であれば、別段の限定はない。
撮像装置102はネットワークカメラ等である。例えば、撮像装置102の撮像領域が工場の敷地内である場合、撮像装置102は敷地内全体を俯瞰して撮像を行えるように設置される。撮像装置102は、コンピュータ101から受信した情報に基づき、敷地内全体を俯瞰して撮像を行い、取得された撮像画像の信号をコンピュータ101に送信する。
移動体103は無人搬送車であり、コンピュータ101から受信した情報に基づき、位置姿勢の算出および目的地の設定や目的への移動等を行う。なお、以降の説明では移動体103をAGV103と称す。
コンピュータ101は、撮像装置102から撮像画像信号を受信し、撮像画像中の物体の動きの解析処理を実行する。またコンピュータ101は、AGV103の位置姿勢の情報を取得する。位置姿勢の情報とは、現実空間での物体の位置と向きを示す情報である。以降の説明では位置姿勢の情報を「位置情報」と呼称するが、姿勢情報も含まれる。コンピュータ101は取得したAGV103の位置情報と撮像画像の画像解析結果に基づいてAGV103の移動経路の設定処理や制御内容の決定処理を行う。コンピュータ101のソフトウェア機能の詳細については後述する。
図2を参照し、コンピュータ101のハードウェア構成を説明する。図2はコンピュータ101の構成を示すブロック図である。CPU(中央演算処理装置)201は、システムバス208に接続された各種デバイスの制御を行う。ROM(Read Only Memory)202は、BIOS(Basic Input/Output System)のプログラムやブートプログラムを記憶する。RAM(Random Access Memory)203は、CPU201の主記憶装置として使用される。外部メモリ204は、コンピュータ101が処理するプログラムを格納する。
入力部205はキーボードやポインティングデバイス、ロボットコントローラ等であり、ユーザからの情報等の入力処理を行う。表示部206は液晶ディスプレイやプロジェクタ等の表示装置を有し、CPU201からの指令にしたがってコンピュータ101の演算結果を表示装置に出力して画面に表示する。通信インターフェイス(I/F)部207は、撮像装置102やAGV103との間の情報通信を行う。
図3を参照し、本実施例の情報処理装置の機能構成について説明する。図3は情報処理装置300の機能構成と、撮像装置102およびAGV103を示すブロック図である。情報処理装置300はコンピュータ101のソフトウェア機能構成に相当し、画像取得部301、物体解析部302、位置情報取得部303、制御内容決定部304から構成される。画像取得部301は、撮像装置102により撮像された所定時間にわたる撮像画像の信号を受信し、画像データを取得する。画像データや各種情報はネットワーク104を介して送受信が行われる。
物体解析部302は、画像取得部301により取得された撮像画像に対して、物体解析を行う。物体解析では、物体の移動方向や移動速度、物体の密度(分布密度または密集度)、物体の位置等の統計量を算出する。物体解析部302は算出した統計量を制御内容決定部304に出力する。
位置情報取得部303は、後述する位置情報算出部321で算出されたAGV103の位置姿勢の情報を位置情報として取得する。制御内容決定部304は、位置情報取得部303により取得されたAGV103の位置情報と、物体解析部302による解析結果である統計量に基づいて、AGV103の制御内容を決定する。制御内容決定部304が行う処理の詳細については後述する。
撮像装置102は撮像部311、駆動制御部312を備える。撮像部311は、被写体の撮像を行って画像データを記録する。駆動制御部312は撮像方向および撮像画角の駆動制御を行う。具体的には、撮像部311のPTZ制御が行われる。P、T、Zはそれぞれパンニング、チルティング、ズーミングの頭文字である。
AGV103は位置情報算出部321、移動体制御部322を備える。位置情報算出部321は、撮像部311により取得される撮像画像信号を受信し、撮像画像からAGV103を検出する。位置情報算出部321は検出した座標値を位置情報として算出する。移動体制御部322は、AGV103が備えるアクチュエータであるモータの制御や車輪の向きを変更するステアリング制御等を行う。
図4を参照し、本実施例にて複数の移動する物体(他のAGVやAMR等)や人流に合わせてAGV103の移動速度および移動位置を調整する制御について説明する。図4は情報処理装置300の処理を説明するフローチャートであり、各処理はCPU201が制御プログラムを実行することにより実現される。AGV103の移動経路上に複数の歩行者が存在する状況を想定し、目的地に向けたAGV103の移動制御の内容を決定する方法について説明する。
S401では、システムの初期化処理が実行される。外部メモリ204からプログラムを読み込む処理が行われ、情報処理装置300が動作可能な状態となる。また、S401で情報処理装置300はAGV103の目的地の設定を行う。目的地とは、ユーザがAGV103を移動させたい所定の場所のことであり、現実空間の座標を(XWT,YWT)と表記するとき、その座標値を指定することで設定される。また、撮像画像の座標値と現実空間の座標値との対応関係を表す座標変換テーブルを読み込む処理が実行される。撮像画像の座標を(XT,YT)と表記する。座標変換テーブルを用いることで、撮像画像の座標値から現実空間中の対応位置への変換が可能となる。具体的には、座標変換テーブルのデータは撮像画像の座標値から現実空間中の対応位置に変換する回転行列、平行移動ベクトル、カメラの内部パラメータであるカメラの焦点距離やカメラ解像度の値から構成される。この座標変換テーブルにより、撮像画像の座標(XT,YT)から現実空間の座標(XWT,YWT)を求めることが可能となる。なお、3次元座標系では座標(XT,YT,ZT)および座標(XWT,YWT,ZWT)に拡張されるが、以下では2次元座標系での移動制御について説明する。
S402では画像取得部301により、撮像装置102が撮像した撮像画像のデータの取得処理が実行される。撮像画像は、例えば敷地内全体を撮像した俯瞰画像である。所定期間の画像情報として、T秒前から現在までの間に複数の画像データが取得されるものとする。ただし、所定時間であるT秒については任意の値を設定することが可能である。
S403では物体解析部302により、物体の解析処理が実行される。例えば、S402で取得された撮像画像のデータ群に基づいて、人の移動方向および移動速度、人の分布の密度、人の位置等の統計量を算出する処理が実行される。処理の詳細については図5を用いて後述する。
S404では位置情報取得部303により、AGV103の位置情報の取得処理が実行される。ここで取得される情報は、現実空間での座標および向きの情報である。現実空間でのAGV103の座標を(XWC,YWC)と表記する。
S405では制御内容決定部304により、S403で算出された統計量とS404で取得された位置情報に基づいて、AGV103の移動に係る制御内容を決定する処理が実行される。制御内容としては、AGV103の移動方向、移動速度、移動位置等が決定される。処理の詳細については図6を用いて後述する。
S406にて終了判定処理として、情報処理装置300はAGV103が目的地に到着したか否かを判定する。AGV103が目的地に到着したことが判定された場合、図4に示す処理を終了し、AGV103が目的地に到着していないことが判定された場合にはS402に移行して処理を続行する。
次に図5を参照して、図4のS403にて物体解析部302が行う処理について詳細に説明する。図5は物体解析および評価値の算出処理を説明するフローチャートである。まず、S501では、撮像画像を複数の小領域に分割する処理が行われる。例えば撮像画像を縦方向と横方向にそれぞれ5個ずつに区切り、25個の矩形の小領域に分割する処理が行われる。分割された各々の小領域に対して、S502からS508までの処理が継続して実行される。
次にS502で物体解析部302は、撮像画像中の人の頭部を検出する。人の頭部を検出するためのモデルが予め用意されており、テンプレートマッチング法を適用することで人の検出が行われる。物体解析部302は、検出された人の頭部から撮像画像上の足元の座標位置を推定する。さらに物体解析部302は、撮像画像上で推定された人の足元の座標に対して、座標変換テーブルを用い、現実空間の座標を求める。
S503で物体解析部302は、S502で検出された人に対して、その動きを追跡する。具体的には、連続する撮像画像群(撮像画像フレーム)から、対象であるS502で検出された人の移動量を算出する処理が行われる。任意の時刻(t)での対象人物の座標を(XW1(t),YW1(t))と表記し、時刻(t)より1単位時間だけ過去の時刻(t-1)での対象人物の座標を(XW1(t-1),YW1(t-1))と表記する。
下記の式1に示すように座標(XW1(t),YW1(t))と座標(XW1(t-1),YW1(t-1))との差分から移動量(ΔX1,ΔY1)が算出される。
ここで算出された移動量を、移動ベクトルと称す。物体解析部302はS502で検出された小領域内の人数分の人物に対して、各人の移動ベクトルを算出する。なお、移動ベクトルの算出にあたっては、S502で算出された現実空間の座標が用いられる。
S504で物体解析部302は、人の移動方向に対応する値を算出する。人の移動方向の値は、全体的に人の流れがどの方向であるかを示す値である。物体解析部302はS503で算出された移動ベクトルを追跡した人数分にわたって加算する。加算後の移動ベクトルの向きを求めることで、人の移動方向に対応する値が取得される。
S505で物体解析部302は、人の移動速度を算出する。S504で求めた加算後の移動ベクトルを、追跡した人数および差分時間(時刻(t)と時刻(t-1)との差)で除算する。これにより、平均の移動速度を算出することができる。
S506で物体解析部302は、人の密度を算出する。人の密度(分布密度)は、S501で分割された各小領域に含まれる人の数を、1つの小領域に該当する現実空間の面積で除算することにより算出することができる。
S507で物体解析部302は、人の位置を算出する。人の位置は、検出された人が小領域内のどの領域にいるかを示す値である。物体解析部302はS502で検出された人の座標を平均化し、演算結果が現実空間のどの座標かについて算出処理を行う。
S508で物体解析部302は、全ての小領域に対して統計量の算出が終了したか否かを判定する。全ての小領域に対してS502からS507の処理が完了したと判定された場合、処理を終了する。未完了の場合には、次の小領域に対して処理を行うために、S502の物体検出に戻って処理を継続する。
以上の処理で求められた統計量および所定の条件に基づいてAGV103の制御内容、つまり移動方向、移動速度、移動位置を決定する処理が実行される。図6は、図4のS405にて制御内容決定部304が行う処理を説明するフローチャートである。
まず、S601で制御内容決定部304は、S403で算出された統計量を取得する。次にS602で制御内容決定部304は、密度の値を評価する。密度の値は所定値(閾値)と比較される。密度の値が所定値未満であると判定された場合、S604に進む。一方、密度の評価値が所定値以上であると判定された場合にはS603に進む。
S603で制御内容決定部304は、移動方向の値を評価する。人の移動方向を示す値と、S404で取得されたAGV103の向きを示す値との比較処理が行われる。具体的には、人の移動方向の値に相当する移動ベクトルの向きと、AGV103の向きとの間で角度差が算出される。算出された角度差が所定値(閾値)と比較され、所定値未満であると判定された場合、S604に進み、算出された角度差が所定値以上であると判定された場合にはS605に進む。なお、算出された角度差が閾値未満である場合には、AGV103の移動方向が人の移動方向と近いことを表している。また、算出された角度差が閾値以上である場合には、AGV103の移動方向が人の移動方向とは大きく異なることを表している。
S604で制御内容決定部304は、S602とS603での判定結果に基づいてAGV103の移動方向を決定する。ここでは、AGV103の移動方向を変更しないことが決定され、S606の処理に進む。またS605で制御内容決定部304は、S602とS603での判定結果に基づき、AGV103の制御内容として、一定の時間にわたって待機の制御を行うことを決定する。AGV103は一定の時間だけ待機し、再び次の制御内容を決定するために、S601から順に各処理が行われる。
S606で制御内容決定部304は、位置を評価する。人の位置の値とAGV103の位置情報とが比較される。人の位置はS507で説明したように、人が小領域内のどの領域にいるかを示す値である。制御内容決定部304はS507と同様にAGV103の位置情報から該当位置が小領域内のどの領域に含まれるかの算出処理を行う。具体的には、小領域内にて2次元(左右方向および前後方向等)の位置指標で識別される領域に対応する値が算出される。算出されたAGV103の位置する領域が人の位置を表す領域と一致すると判定された場合、S608に進み、一致しないと判定された場合にはS607に進む。
S607で制御内容決定部304は、AGV103の位置情報から、人の位置を表す小領域内の2次元の領域の中心位置までの最小距離を算出する。当該中心位置の座標は、撮像画像上の座標から現実空間の座標への座標変換が行われ、現実空間での最小距離が算出される。S607の次にS608に進む。
S608で制御内容決定部304は、S606とS607での結果に基づいてAGV103の移動位置の制御内容を決定する。AGV103の位置する領域が人の位置を表す領域と一致すると判定された場合、制御内容決定部304は移動位置を変更しないことを決定する。またAGV103の位置する領域が人の位置を表す領域と一致しないと判定された場合、制御内容決定部304はS607で算出した最小距離にしたがって、人の位置を表す領域の方向に移動位置を制御することを決定する。
S609で制御内容決定部304は、移動速度を評価する。人の移動速度とAGV103の移動速度とが比較される。制御内容決定部304は人の移動速度とAGV103の移動速度との差分の絶対値を算出し、所定値(閾値)と比較する。算出された値が所定値未満であると判定された場合、S611に進み、所定値以上であると判定された場合にはS610に進む。
S610で制御内容決定部304は、人の移動速度とAGV103の移動速度から速度差を算出する。つまり人の移動速度からAGV103の移動速度を減算することにより、速度差が算出される。次にS611に進む。S611で制御内容決定部304は、S609とS610での結果に基づいて、AGV103の移動速度の制御内容を決定する。S609で算出された値が閾値未満である場合、制御内容決定部304はAGV103の移動速度を変更せず、現状の移動速度のままとする。一方、S609で算出された値が閾値以上である場合、制御内容決定部304はS610で算出された速度差を、現状の移動速度に対して補正量として加算する。つまり、人流(歩行者群の流れ)に近づけるように移動速度が調整される。
上述したように、人流にしたがってAGV103の移動方向、移動速度、移動位置の制御が行われて、AGV103は目的地に向けて進行する。制御内容決定部304が決定した制御内容に対応する信号は移動体制御部322に送信され、制御内容に基づいてAGV103の、目的地への移動制御が行われる。
図4のS406(終了判定)では、S401に示した目的地の座標(XWT,YWT)と、S404で取得されたAGV103の位置情報(XWC,YWC)との比較により、AGV103が目的地に到着したか否かについて判定される。具体的には、下記の式2に示すようにX座標およびY座標の差分が算出され、差分の絶対値が所定閾値以下である場合、AGV103が目的地に到着したと判定される。X座標およびY座標の差分が所定閾値より大きい場合には、AGV103が目的地に到着していないと判定されてS402に戻り、処理を継続する。
XWT:目的地のX座標値。
YWT:目的地のY座標値。
XWC:AGV103の現在のX座標値。
YWC:AGV103の現在のY座標値。
PXth:X座標の所定閾値。
PYth:Y座標の所定閾値。
YWT:目的地のY座標値。
XWC:AGV103の現在のX座標値。
YWC:AGV103の現在のY座標値。
PXth:X座標の所定閾値。
PYth:Y座標の所定閾値。
本実施例によれば、図4のS403で算出された統計量を用いて移動体の移動に係る制御内容を的確に決定し、人流を考慮した移動体の移動制御が可能である。移動体は、混雑した状況でも停滞することなく、人流に合わせて目的地に向けて進行するので、移動体の運行効率を向上させることができる。
[第1実施例の変形例]
以下、第1実施例の変形例について説明する。
<変形例1-1>
第1実施例では、撮像画像からAGV103の位置情報を算出する例を示したが、本変形例ではAGV103の位置情報の算出方法の別例を説明する。AGV103は位置情報を計測するセンサ(GPSやRFIDやビーコン等)を搭載しており、センサ出力に基づいてAGV103の位置情報が算出される。GPSは“Global Positioning System”の略号であり、RFIDは“Radio Frequency Identifier”の略号である。
以下、第1実施例の変形例について説明する。
<変形例1-1>
第1実施例では、撮像画像からAGV103の位置情報を算出する例を示したが、本変形例ではAGV103の位置情報の算出方法の別例を説明する。AGV103は位置情報を計測するセンサ(GPSやRFIDやビーコン等)を搭載しており、センサ出力に基づいてAGV103の位置情報が算出される。GPSは“Global Positioning System”の略号であり、RFIDは“Radio Frequency Identifier”の略号である。
また、AGV103はカメラやセンサを搭載し、搭載したカメラの撮像画像、あるいはセンサ(LiDAR:Light Detection And Ranging)情報からSLAM技術を適用してAGV103の位置情報が算出される。SLAMは“Simultaneous Localization And Mapping”の略号である。また第1実施例では、AGV103の位置情報を算出する位置情報算出部321をAGV103の機能として示したが、この構成に限定されない。変形例では当該機能が情報処理装置300の機能の1つとして構成される。あるいは撮像装置102や別の装置が位置情報算出部321を備える構成でもよい。
<変形例1-2>
第1実施例では、撮像装置102により撮像される現在の撮像画像に対して物体解析を行う例を示した。物体解析は、過去の撮像画像に対して適用が可能である。本変形例では撮像装置102が所定時間にわたって撮像した複数の撮像画像の信号を受信して、過去の撮像画像を取得する。所定時間については、数秒間、数分間、数時間、数日間といった期間で複数の画像データ群を取得する処理が行われる。そして、過去の撮像画像に対して物体解析が行われて統計量(人の移動方向や移動速度、密度、位置)の算出処理が行われる。
第1実施例では、撮像装置102により撮像される現在の撮像画像に対して物体解析を行う例を示した。物体解析は、過去の撮像画像に対して適用が可能である。本変形例では撮像装置102が所定時間にわたって撮像した複数の撮像画像の信号を受信して、過去の撮像画像を取得する。所定時間については、数秒間、数分間、数時間、数日間といった期間で複数の画像データ群を取得する処理が行われる。そして、過去の撮像画像に対して物体解析が行われて統計量(人の移動方向や移動速度、密度、位置)の算出処理が行われる。
さらに本変形例では、算出された統計量を時間帯ごとに集計することで、混雑する時間帯や時間帯ごとの人流を把握する処理が実行される。具体的には建物の出入口等では時間帯によって混雑する場所がある。混雑する時間帯において、そのような場所を進行不可領域として避けるようにAGV103の経路設定が行われる。公知のダイクストラ法等の経路探索アルゴリズムを用い、進行不可領域にコストを付与し、適切な経路を求めることで、混雑する場所を回避するための経路設定が可能である。一方で、混雑しない時間帯では進行可能領域としてコストを小さくし、AGV103の走行経路に設定することができる。このように本変形例では時間帯ごとの統計量のデータを保持し、統計量に応じて進行可能領域と進行不可領域を設定することにより、移動体の運行効率を向上させることができる。
<変形例1-3>
本変形例では、物体解析で算出された統計量と所定の閾値との大小判断に基づくのではなく、人流の統計量に応じてAGV103の制御内容が決定される。つまり、人流の評価値を閾値と比較して2値的判断を行うのではなく、AGV103の進行に不利な度合いに相当するアナログ値を利用してAGV103の制御内容が決定される。
本変形例では、物体解析で算出された統計量と所定の閾値との大小判断に基づくのではなく、人流の統計量に応じてAGV103の制御内容が決定される。つまり、人流の評価値を閾値と比較して2値的判断を行うのではなく、AGV103の進行に不利な度合いに相当するアナログ値を利用してAGV103の制御内容が決定される。
一例としては、人の密度に応じてAGV103の移動速度の制御内容が決定される。人の密度が低いほど、AGV103の移動速度がより高速に制御され、人の密度が高いほど、AGV103の移動速度がより低速に制御される。また、人の密度に応じてAGV103の移動位置の制御内容が決定される。具体的には、人の密度が高いほど、AGV103の移動位置の変更量をより小さくする制御が行われる。このように本変形例では、人の密度に応じて連続的または段階的にAGV103の制御内容を決定することで、運行効率を向上させることができる。
<変形例1-4>
本変形例での物体解析の対象は人に限定されず、任意の動体である。例えば、AGV103の周囲(近傍の環境)に存在する他のAGVやフォークリフト、飛行物体、自転車、自動車等が物体解析の対象である。具体的にはフォークリフトの物体解析において、物体の検出方法で用いられるテンプレートマッチング法のモデルが変更される。フォークリフトのモデルを用いて物体検出を行うことで、フォークリフトの物体解析ができ、検出対象の物体を変更して対象ごとの評価が可能となる。複数種類の検出対象が混在する場合、複数のモデルを用いて、上述した方法で物体を解析することが可能である。本変形例によれば、人に限らず、任意の物体をも考慮して移動体の運行効率を向上させることができる。
本変形例での物体解析の対象は人に限定されず、任意の動体である。例えば、AGV103の周囲(近傍の環境)に存在する他のAGVやフォークリフト、飛行物体、自転車、自動車等が物体解析の対象である。具体的にはフォークリフトの物体解析において、物体の検出方法で用いられるテンプレートマッチング法のモデルが変更される。フォークリフトのモデルを用いて物体検出を行うことで、フォークリフトの物体解析ができ、検出対象の物体を変更して対象ごとの評価が可能となる。複数種類の検出対象が混在する場合、複数のモデルを用いて、上述した方法で物体を解析することが可能である。本変形例によれば、人に限らず、任意の物体をも考慮して移動体の運行効率を向上させることができる。
<変形例1-5>
第1実施例では、撮像画像を複数の小領域に分割し、小領域ごとに算出される統計量に基づいて、AGV103の制御内容を決定する方法を示した。本変形例では小領域をさらに細分化し、より詳細な領域で算出される統計量に基づいてAGV103の制御内容が決定される。具体的には、AGV103がその進行方向に存在する人の流れに追従するために、進行方向の人流に対して統計量の算出処理が行われる。算出された統計量に基づいてAGV103の制御内容が決定される。また、AGV103が人を誘導する場合には、進行方向とは逆方向、つまり後方の人の流れの統計量の算出処理が行われ、算出された統計量に基づいてAGV103の制御内容が決定される。本変形例によれば、動体の追従または誘導といった移動制御が可能となり、移動体の運行効率を向上させることができる。
第1実施例では、撮像画像を複数の小領域に分割し、小領域ごとに算出される統計量に基づいて、AGV103の制御内容を決定する方法を示した。本変形例では小領域をさらに細分化し、より詳細な領域で算出される統計量に基づいてAGV103の制御内容が決定される。具体的には、AGV103がその進行方向に存在する人の流れに追従するために、進行方向の人流に対して統計量の算出処理が行われる。算出された統計量に基づいてAGV103の制御内容が決定される。また、AGV103が人を誘導する場合には、進行方向とは逆方向、つまり後方の人の流れの統計量の算出処理が行われ、算出された統計量に基づいてAGV103の制御内容が決定される。本変形例によれば、動体の追従または誘導といった移動制御が可能となり、移動体の運行効率を向上させることができる。
[第2実施例]
次に本発明の第2実施例を説明する。本実施例では、人流によりAGV103の移動が困難な場合に迂回経路を設定する例を示す。なお、第1実施例と同様の事項に係る説明を省略し、主に相違点について説明する。このような説明の省略方法は後述の実施例や変形例でも同じである。
次に本発明の第2実施例を説明する。本実施例では、人流によりAGV103の移動が困難な場合に迂回経路を設定する例を示す。なお、第1実施例と同様の事項に係る説明を省略し、主に相違点について説明する。このような説明の省略方法は後述の実施例や変形例でも同じである。
第1実施例では設定した移動経路に対して、人の移動方向とAGV103の移動方向とが近似する場合、人流に近づけるように移動速度を調整する例を示した。本実施例では人の移動方向とAGV103の移動方向とがより大きく異なる場合、AGV103の経路変更を含めた制御内容の決定方法について説明する。
本実施例において、人流に関する移動方向、移動速度、密度、位置が検出され、人の移動方向とAGV103の移動方向とが比較される。人の移動方向とAGV103の移動方向とがより大きく異なる場合、AGV103の移動方向を変更する処理が行われる。AGV103の移動方向の変更に伴い、移動経路の変更処理が行われる。そして再度、人流の統計量に基づき、AGV103の移動方向、移動位置、移動速度の制御が行われる。
図7は、本実施例におけるAGV103の制御内容決定処理を説明するフローチャートである。全体の処理については第1実施例の場合と同様である。S701からS704、およびS706からS711までの処理については、図6のS601からS604、およびS606からS611までの処理と同じであるため、それらの説明を省略する。
S703からS712に進み、制御内容決定部304は、S702とS703での判定結果に基づいて、AGV103の移動方向の変更を行う。本ステップに至る状況は、S702での密度の結果が所定値以上であって、S703にてAGV103の移動方向と人の移動方向との角度差が閾値以上の場合である。制御内容決定部304は、S701で取得された人の移動方向の統計量に近づけるようにAGV103の移動方向を変更する。
S713で制御内容決定部304は、目的地までの移動経路を再設定する。S712で変更されたAGV103の移動方向で、目的地までの移動経路が再設定される。このようにAGV103の移動方向が変更され、目的地までの移動経路が再設定されることで、AGV103は停滞することなく、人流に合わせて進行が可能となる。
本実施例では、人流の方向とAGV103の移動方向とが異なる方向であっても、人流を考慮した移動制御が可能となる。密度や移動速度、位置の統計量に応じてAGV103の制御内容を決定することでAGV103が目的地に向けて進行し、その運行効率を向上させることができる。
[第3実施例]
図8を参照して、本発明の第3実施例を説明する。第1実施例および第2実施例では、物体解析で算出された各統計量に基づき、AGV103の制御内容として移動方向、移動速度、移動位置を決定する例を示した。本実施例では、物体解析で算出された各統計量を可視化して表示し、AGV103の移動経路の設定に活用する例を示す。本実施例の情報処理装置300の機能構成は、第1実施例で説明した図3の機能構成に表示手段(表示部206および表示制御プログラム)を追加した構成である。
図8を参照して、本発明の第3実施例を説明する。第1実施例および第2実施例では、物体解析で算出された各統計量に基づき、AGV103の制御内容として移動方向、移動速度、移動位置を決定する例を示した。本実施例では、物体解析で算出された各統計量を可視化して表示し、AGV103の移動経路の設定に活用する例を示す。本実施例の情報処理装置300の機能構成は、第1実施例で説明した図3の機能構成に表示手段(表示部206および表示制御プログラム)を追加した構成である。
図8は、本実施例にて表示部206に出力されるUI(ユーザ・インターフェイス)画面の一例を示す模式図である。撮像装置102により撮像された撮像画像800は表示画面に表示される。撮像画像800上には、物体解析部302が算出した統計量の情報として、人の密度や移動方向、移動速度の大きさ(速さ)が重畳して表示される。撮像画像800中のAGV103の位置は黒点の印で示されている。密度の評価値を可視化した表示域802がユーザに提示される。本実施例では移動する人または物体の分布密度の高低差が色の濃淡で表示される。例えば濃い色の部分は密度が高く、混雑した場所を示している。複数の矢印801は人の移動方向と人の移動の速さを可視化して表示したものである。矢印801の向きは人の移動方向を表し、矢印801の長さは人の移動の速さを表している。
本実施例では、物体解析部302により算出された各統計量が可視化されて撮像画像に重畳して表示されるので、AGV103の周囲環境や混雑状態等を簡易に把握することができる。
[第3実施例の変形例]
以下、第3実施例の変形例について説明する。
<変形例3-1>
本変形例では、物体解析部302により算出された統計量の情報が、撮像画像ではなく地図情報に重畳して表示される。情報処理装置300は地図情報を事前に取得しており、地図情報に対して統計量の情報を重畳した画像を表示部に出力する処理を行う。
以下、第3実施例の変形例について説明する。
<変形例3-1>
本変形例では、物体解析部302により算出された統計量の情報が、撮像画像ではなく地図情報に重畳して表示される。情報処理装置300は地図情報を事前に取得しており、地図情報に対して統計量の情報を重畳した画像を表示部に出力する処理を行う。
<変形例3-2>
第3実施例では、撮像装置102により撮像される現在の撮像画像に対して物体解析を行う例を示した。本変形例では、撮像装置102により過去に取得された撮像画像に対して物体解析部302が算出した統計量の情報が、撮像画像に重畳して表示される。さらに情報処理装置300は、算出された統計量の情報を時間帯ごとに集計し、集計結果を撮像画像または地図上に重畳して表示することができる。このようにすることで、混雑する時間帯や時間帯ごとの人流等を可視化してAGV103の監視者に提示できる。
第3実施例では、撮像装置102により撮像される現在の撮像画像に対して物体解析を行う例を示した。本変形例では、撮像装置102により過去に取得された撮像画像に対して物体解析部302が算出した統計量の情報が、撮像画像に重畳して表示される。さらに情報処理装置300は、算出された統計量の情報を時間帯ごとに集計し、集計結果を撮像画像または地図上に重畳して表示することができる。このようにすることで、混雑する時間帯や時間帯ごとの人流等を可視化してAGV103の監視者に提示できる。
<変形例3-3>
本変形例では、物体解析部302により算出された統計量の情報に加えて、AGV103の移動の向きや速さ、移動経路、移動位置等の情報が撮像画像または地図上に重畳して表示される。これにより、AGV103の監視者は運行効率について視覚的に把握することができる。
本変形例では、物体解析部302により算出された統計量の情報に加えて、AGV103の移動の向きや速さ、移動経路、移動位置等の情報が撮像画像または地図上に重畳して表示される。これにより、AGV103の監視者は運行効率について視覚的に把握することができる。
[前記実施例の変形例]
前記実施例のAGV103は自律移動する移動体の例であるが、変形例では、経路誘導式、例えば磁気テープを誘導体とする移動体の移動制御が行われる。具体的には、人流の方向がAGV103の移動方向と近い場合、AGV103は移動速度が人の移動速度に調整されて磁気テープにしたがって移動する。また、AGV103の移動位置を変更できるように、適切な間隔で磁気テープを設置しておくことで移動位置の調整が可能となる。
前記実施例のAGV103は自律移動する移動体の例であるが、変形例では、経路誘導式、例えば磁気テープを誘導体とする移動体の移動制御が行われる。具体的には、人流の方向がAGV103の移動方向と近い場合、AGV103は移動速度が人の移動速度に調整されて磁気テープにしたがって移動する。また、AGV103の移動位置を変更できるように、適切な間隔で磁気テープを設置しておくことで移動位置の調整が可能となる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301 画像取得部
302 物体解析部
303 位置情報取得部
304 制御内容決定部
302 物体解析部
303 位置情報取得部
304 制御内容決定部
Claims (18)
- 移動体の移動制御を行う情報処理装置であって、
前記移動体およびその周囲環境を撮像した撮像画像を取得する画像取得手段と、
前記移動体の位置姿勢の情報を取得する位置情報取得手段と、
前記画像取得手段により異なる時刻に取得された複数の画像を用いて、前記移動体の周囲環境に存在する複数の物体の動きを解析する解析手段と、
前記位置情報取得手段により取得された前記移動体の位置姿勢の情報と、前記解析手段の解析結果とに基づいて前記移動体の移動に係る制御内容を決定する決定手段と、を備える
ことを特徴とする情報処理装置。 - 前記解析手段は、予め定められた期間に前記画像取得手段により取得された画像群のデータから、前記物体の移動方向もしくは移動速度、前記物体の分布の密度、または前記物体の位置、の統計量を算出する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記決定手段は、時間帯ごとに取得される撮像画像を用いて前記解析手段が解析した、前記物体の移動方向もしくは移動速度、前記物体の分布の密度、または前記物体の位置のうちの1つ以上から前記移動体の動きを決定する
ことを特徴とする請求項1または請求項2に記載の情報処理装置。 - 前記決定手段は、前記物体の移動方向もしくは移動速度、前記物体の分布の密度、または前記物体の位置、のいずれかの統計量が予め定められた条件を満たす場合、前記移動体の移動方向もしくは移動速度または前記移動体の移動の位置を決定する
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。 - 前記決定手段は、前記物体の分布の密度が閾値未満であるか、または、前記物体の分布の密度が閾値以上であって、かつ前記物体の移動方向を示す値と前記移動体の向きを示す値との差分が閾値未満である場合、前記移動体の移動方向を決定する
ことを特徴とする請求項4に記載の情報処理装置。 - 前記決定手段は、撮像画像にて前記移動体の位置する領域と前記物体の位置を表す領域との関係を評価して前記移動体を移動させる位置を決定する
ことを特徴とする請求項4または請求項5に記載の情報処理装置。 - 前記決定手段は、前記移動体の位置する領域と前記物体の位置を表す領域とが異なる場合、前記移動体の移動の位置を前記物体の位置を表す領域から決定した位置に変更する処理を行う
ことを特徴とする請求項6に記載の情報処理装置。 - 前記決定手段は、前記物体の移動速度および前記移動体の移動速度を評価して前記移動体の移動速度を決定する
ことを特徴とする請求項4から7のいずれか1項に記載の情報処理装置。 - 前記決定手段は、前記物体の移動速度と前記移動体の移動速度との速度差を算出し、前記移動体の移動速度に対して前記速度差に対応する補正を行うことにより、前記移動体の移動速度を変更する処理を行う
ことを特徴とする請求項8に記載の情報処理装置。 - 前記決定手段は、前記物体の分布の密度が閾値以上であって、かつ前記物体の移動方向を示す値と前記移動体の向きを示す値との差分が閾値以上である場合、前記移動体の移動方向の変更および移動経路の再設定を行う
ことを特徴とする請求項5に記載の情報処理装置。 - 前記決定手段は、前記解析手段により取得された前記物体に係る統計量により、前記移動体の移動に係る制御内容を決定する
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。 - 前記決定手段は、前記物体の分布の密度が第1の値である場合、前記移動体の移動速度を第1の速度に決定し、前記物体の分布の密度が前記第1の値より小さい第2の値である場合、前記移動体の移動速度を前記第1の速度より大きい第2の速度に決定する
ことを特徴とする請求項11に記載の情報処理装置。 - 前記決定手段は、前記物体の分布の密度が第1の値である場合、前記移動体の移動位置の変更量を第1の変更量に決定し、前記物体の分布の密度が前記第1の値より大きい第2の値である場合、前記移動体の移動位置の変更量を前記第1の変更量より小さい第2の変更量に決定する
ことを特徴とする請求項11に記載の情報処理装置。 - 前記決定手段は、時間帯ごとの前記物体に係る統計量から前記移動体の進行可能領域または進行不可領域を決定する
ことを特徴とする請求項2に記載の情報処理装置。 - 前記解析結果である前記物体の移動方向もしくは移動速度、前記物体の分布の密度、または前記物体の位置、の統計量を表示する表示手段を備える
ことを特徴とする請求項1から14のいずれか1項に記載の情報処理装置。 - 請求項1から15のいずれか1項に記載の情報処理装置と、
前記移動体およびその周囲環境を撮像する撮像手段と、を備える
ことを特徴とする移動体の制御システム。 - 移動体の移動制御を行う情報処理装置にて実行される情報処理方法であって、
前記移動体およびその周囲環境を撮像した撮像画像を取得する第1の取得工程と、
前記移動体の位置姿勢の情報を取得する第2の取得工程と、
前記第1の取得工程により異なる時刻に取得された複数の画像を用いて、前記移動体の周囲環境に存在する複数の物体の動きを解析する解析工程と、
前記第2の取得工程により取得された前記移動体の位置姿勢の情報と、前記解析工程での解析結果とに基づいて前記移動体の移動に係る制御内容を決定する決定工程と、を有する
ことを特徴とする情報処理方法。 - 請求項17に記載の各工程をコンピュータに実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021119540A JP2023015634A (ja) | 2021-07-20 | 2021-07-20 | 情報処理装置、移動体の制御システム、情報処理方法、プログラム |
US17/812,293 US20230023651A1 (en) | 2021-07-20 | 2022-07-13 | Information processing apparatus, control system for mobile object, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021119540A JP2023015634A (ja) | 2021-07-20 | 2021-07-20 | 情報処理装置、移動体の制御システム、情報処理方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023015634A true JP2023015634A (ja) | 2023-02-01 |
Family
ID=84976557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021119540A Pending JP2023015634A (ja) | 2021-07-20 | 2021-07-20 | 情報処理装置、移動体の制御システム、情報処理方法、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230023651A1 (ja) |
JP (1) | JP2023015634A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7534565B1 (ja) | 2024-02-28 | 2024-08-14 | 株式会社Caos | 移動体の制御システム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK3123260T3 (da) * | 2014-12-31 | 2021-06-14 | Sz Dji Technology Co Ltd | Selektiv behandling af sensordata |
JP6496323B2 (ja) * | 2015-09-11 | 2019-04-03 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 可動物体を検出し、追跡するシステム及び方法 |
CN107209854A (zh) * | 2015-09-15 | 2017-09-26 | 深圳市大疆创新科技有限公司 | 用于支持顺畅的目标跟随的系统和方法 |
JP7353747B2 (ja) * | 2018-01-12 | 2023-10-02 | キヤノン株式会社 | 情報処理装置、システム、方法、およびプログラム |
KR102301758B1 (ko) * | 2018-12-07 | 2021-09-14 | 주식회사 유진로봇 | 자율 주행 가능한 이동 로봇 및 이의 주행 제어 방법 |
WO2020116986A1 (ko) * | 2018-12-07 | 2020-06-11 | 주식회사 유진로봇 | 자율 주행 가능한 이동 로봇 및 이의 주행 제어 방법 |
US20210082151A1 (en) * | 2019-09-14 | 2021-03-18 | Ron Zass | Determining image capturing parameters in construction sites from previously captured images |
-
2021
- 2021-07-20 JP JP2021119540A patent/JP2023015634A/ja active Pending
-
2022
- 2022-07-13 US US17/812,293 patent/US20230023651A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7534565B1 (ja) | 2024-02-28 | 2024-08-14 | 株式会社Caos | 移動体の制御システム |
Also Published As
Publication number | Publication date |
---|---|
US20230023651A1 (en) | 2023-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112567201B (zh) | 距离测量方法以及设备 | |
US10006772B2 (en) | Map production method, mobile robot, and map production system | |
Eresen et al. | Autonomous quadrotor flight with vision-based obstacle avoidance in virtual environment | |
JP2019125354A (ja) | 情報処理装置、システム、方法、およびプログラム | |
KR20150144729A (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
Chatterjee et al. | Vision based autonomous robot navigation: algorithms and implementations | |
Singh et al. | A two-layered subgoal based mobile robot navigation algorithm with vision system and IR sensors | |
Maier et al. | Self-supervised obstacle detection for humanoid navigation using monocular vision and sparse laser data | |
JP2023015634A (ja) | 情報処理装置、移動体の制御システム、情報処理方法、プログラム | |
WO2021246170A1 (ja) | 情報処理装置、情報処理システム、および方法、並びにプログラム | |
CN115565058A (zh) | 机器人、避障方法、装置和存储介质 | |
CN113158779A (zh) | 一种行走方法、装置和计算机存储介质 | |
KR20180066668A (ko) | 무인 이동체의 주행 환경 제작 기술을 위한 장치 및 방법 | |
RU2619542C1 (ru) | Способ управления подвижным роботом | |
US20220339786A1 (en) | Image-based trajectory planning method and movement control method and mobile machine using the same | |
Sun et al. | Detection and state estimation of moving objects on a moving base for indoor navigation | |
Tanveer et al. | An ipm approach to multi-robot cooperative localization: Pepper humanoid and wheeled robots in a shared space | |
Rocchi et al. | A Practical Vision-Aided Multi-Robot Autonomous Navigation using Convolutional Neural Network | |
Zhang et al. | A visual slam system with laser assisted optimization | |
US20240377843A1 (en) | Location based change detection within image data by a mobile robot | |
US20240142982A1 (en) | Information processing device, movable apparatus, information processing method, and storage medium | |
Alam et al. | Fiducial Markers and Particle Filter Based Localization and Navigation Framework for an Autonomous Mobile Robot | |
US12112502B2 (en) | Three-dimensional map estimation apparatus and obstacle detection apparatus | |
US12001216B2 (en) | Carpet detection method, movement control method, and mobile machine using the same | |
Fass et al. | Route Planning for a Tractor in an Agriculture Field with Obstacles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240718 |