JP2006239844A - 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 - Google Patents
障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 Download PDFInfo
- Publication number
- JP2006239844A JP2006239844A JP2005061693A JP2005061693A JP2006239844A JP 2006239844 A JP2006239844 A JP 2006239844A JP 2005061693 A JP2005061693 A JP 2005061693A JP 2005061693 A JP2005061693 A JP 2005061693A JP 2006239844 A JP2006239844 A JP 2006239844A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- environment map
- mobile robot
- robot device
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000008569 process Effects 0.000 claims description 43
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 19
- 210000002414 leg Anatomy 0.000 description 16
- 230000009471 action Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 6
- 210000004394 hip joint Anatomy 0.000 description 6
- CIWBSHSKHKDKBQ-JLAZNSOCSA-N Ascorbic acid Chemical compound OC[C@H](O)[C@H]1OC(=O)C(O)=C1O CIWBSHSKHKDKBQ-JLAZNSOCSA-N 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 210000002683 foot Anatomy 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 210000000544 articulatio talocruralis Anatomy 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 210000001364 upper extremity Anatomy 0.000 description 2
- 101100502395 Caenorhabditis elegans far-2 gene Proteins 0.000 description 1
- 101150106375 Far1 gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【課題】ロボット装置を正確にモデル化するとともに高精度に経路を計画し、障害物を回避することができる障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置を提供する。
【解決手段】ロボット装置が移動する基準面からロボット装置の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する。そして、障害物環境地図の障害物の占有領域を各レイヤの上記移動型ロボット装置の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する。
【選択図】図3
【解決手段】ロボット装置が移動する基準面からロボット装置の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する。そして、障害物環境地図の障害物の占有領域を各レイヤの上記移動型ロボット装置の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する。
【選択図】図3
Description
本発明は、環境内の情報を取得して作成された障害物環境地図に基づいて経路を計画し、障害物を回避する障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置に関する。
自律型ロボット装置は、産業用ロボットと異なり、周囲の外部状態やロボット自身の内部状態に応じて自律的に動作を行うことができる。例えば、ロボット装置が外部の障害物を検出して障害物を回避するような行動経路を計画することにより自律的に移動することができる。
このような経路計画の研究は、巡回路のなかで最短経路になる巡回順を求める巡回セールスマン問題や干渉チェックにおける計算幾何学の課題とともに人工知能の代表的な研究対象として古くから行われている。この経路計画の代表的な設問として、例えば、複雑に入り組んだ狭い部屋から大きなピアノを出すときのピアノの取るべき経路を幾何学的に求める際の問題、いわゆるPiano Mover's Problemに代表される既知環境における浮遊物体の経路計画が挙げられる。このような計算幾何学と探索アルゴリズムの効率性のベンチマーク的な課題に対して、多くの技術が提案されている。
例えば、特許文献1では、二足歩行ロボット装置に対する障害物回避の経路計画を行っている。これは、計画対象であるロボット装置を円柱形でモデル化し、障害物の状況を表すグリッド(Occupancy Grid)を障害物環境地図として利用することにより、障害物と干渉しないような経路を計画している。
例えば、ロボット装置が現在の位置Rからゴール地点Gへ辿りつくまでの経路を計画する際、先ず、図20(a)に示すような障害物環境地図を作成する。この障害物環境地図は、ロボット装置が移動する床面からロボット装置がモデル化された円柱301の高さまでの間の障害物、又は床面に空いた穴などを示すものである。ここで、黒色のセルは障害物が占有している領域を示し、白色のセルはロボット装置が自由に移動できる自由領域を示している。そして、この図20(a)に示す環境地図中の障害物の占有領域を円柱301の半径分だけ拡大させることにより、ロボット装置は図20(b)に示すように現在の位置Rに収縮したのと等価となる。この拡大させた障害物領域との重なりをチェックすることで、ロボット装置と障害物との干渉チェックを行うことができる。そして、例えば、経路全体のコストを最小化するA*探索と呼ばれる方法を用いることにより、図20(b)に示す矢印に示すような障害物を回避した経路を計画することができる。
上述のようにロボット装置を単一の円柱でモデル化した場合、ロボット装置全体を含むように半径が大きな円柱でモデル化し、障害物環境地図中の障害物の占有領域をその円柱の半径で拡大するため、モデル誤差を生じる。
例えば、図21に示すようなロボット装置の胴体部よりも低くロボット装置の腕部が通過可能な部分Aを有する障害物302が環境内に存在する場合、図22(a)に示すような障害物環境地図が得られるが、斜線で示す低い部分Aを有する障害物302を、モデル化された円柱303の半径で拡大した場合、図22(b)に示すようにロボット装置の胴体部よりも低い部分Aも障害物として認識されてしまう。したがって、現在のロボット装置の位置Rからゴール地点Gまでの経路計画をすることができなかった。
本発明は、このような課題を解決するために提案されたものであり、ロボット装置を正確にモデル化するとともに高精度に経路を計画し、障害物を回避することができる障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置を提供することを目的とする。
上記課題を解決するために、本発明に係る障害物回避装置は、移動型ロボット装置が障害物を回避するための障害物回避装置において、上記移動型ロボット装置が移動する基準面から上記移動型ロボット装置の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する障害物環境地図作成手段と、上記障害物環境地図の障害物の占有領域を各レイヤの上記移動型ロボット装置の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する経路計画手段とを備えることを特徴としている。
また、本発明に係る障害物回避方法は、移動型ロボット装置が障害物を回避するための障害物回避方法において、上記移動型ロボット装置が移動する基準面から上記移動型ロボット装置の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する障害物環境地図作成工程と、上記障害物環境地図の障害物の占有領域を各レイヤの上記移動型ロボット装置の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する経路計画工程とを有することを特徴としている。
また、本発明に係る障害物回避プログラムは、移動型ロボット装置が障害物を回避するための障害物回避プログラムにおいて、上記移動型ロボット装置が移動する基準面から上記移動型ロボット装置の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する障害物環境地図作成工程と、上記障害物環境地図の障害物の占有領域を各レイヤの上記移動型ロボット装置の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する経路計画工程とを有することを特徴としている。
また、本発明に係る移動型ロボット装置は、障害物を回避する移動型ロボット装置において、自身が移動する基準面から自身の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する障害物環境地図作成手段と、上記障害物環境地図の障害物の占有領域を各レイヤの自身の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する経路計画手段とを備えることを特徴としている。
ロボット装置が移動する基準面からロボット装置の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成し、これら障害物環境地図の障害物の占有領域を各レイヤのロボット装置の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画することにより、高精度且つ効率的に障害物を回避することができる。
以下、図面を参照しながら本発明の実施の形態について説明する。この実施の形態は、本発明に係る障害物回避装置を2足歩行のロボット装置に適用したものである。
図1は、ロボット装置1の概略を示すブロック図である。ロボット装置1の頭部ユニット203には、2台のCCDカメラ10R,10Lが設けられ、このCCDカメラ10R,10Lの後段には、ステレオ画像処理装置12が設けられている(ただし、R及びLは、右及び左の各々を示す接尾辞である。以下において同じ)。2台のCCDカメラにより撮像された右目画像11R、左目画像11Lは、ステレオ画像処理装置12に入力される。ステレオ画像処理装置12は、各画像11R,11Lの視差情報(disparity data)(距離情報)を計算し、カラー画像(YUV:輝度Y、UV色差)13及び視差画像(YDR:輝度Y、視差D、信頼度R)14をフレーム毎に左右交互に算出する。ここで、視差とは、空間中のある点が左目及び右目に写像される点の違いを示し、そのカメラからの距離に応じて変化するものである。
このカラー画像13及び視差画像14はロボット装置1の体幹部202に内蔵されたCPU(制御部)15に入力される。また、ロボット装置1の各関節にはアクチュエータ16が設けられており、CPU15からの指令となる制御信号18が供給されて、その指令値に応じてモータを駆動する。各関節(アクチュエータ)には、ポテンショメータが取り付けられ、モータ駆動時の回転角がCPU15に送られる。このアクチュエータ16に取り付けられたポテンショメータ、足底に取り付けられたタッチセンサ及び体幹部202に取り付けられたジャイロ・センサ等の各センサ17は、現在の関節角度、設置情報、及び姿勢情報等のロボット装置1の状態を計測し、センサデータ19としてCPU15へ出力する。CPU15は、ステレオ画像処理装置12からのカラー画像13及び視差画像14と、アクチュエータ16全ての関節角度等のセンサデータ19とが入力されて、制御信号18によりロボット装置1の動作を制御する。
本実施の形態のロボット装置1におけるソフトウェアは、オブジェクト単位で構成され、ロボット装置1の位置、移動量、周囲の障害物、及び環境地図等を認識し、ロボット装置1が最終的に取るべき行動についての行動列を出力する各種認識処理等を行うことができる。
図2は、ロボット装置1に搭載される障害物回避装置2の機能ブロック図である。この障害物回避装置2は、障害物回避プログラムを基にCPU15内にて構成される。
障害物回避装置2は、3次元座標変換部(Coordinate Transformation)3と、障害物環境地図更新部(Update layered Occupancy Grid)4と、ロボット座標変換部(Kinematics)5と、ロボット座標更新部(Update Robot pose)6と、経路計画部(Path Planner)7とを備えて構成されている。
3次元座標変換部3は、CCDカメラ10R,10Lにより入力されたステレオデータに基づいてロボット装置1の基準座標に変換する。具体的には、平面検出器が人間の両眼に相当する左右2つのカメラからの画像入力を画素近傍毎に比較し、その視差から対象までの距離を推定し、平面を検出することによって環境内に存在する複数の平面を認識して変換し、3次元の位置情報を出力する。
障害物環境地図更新部4は、3次元位置情報に基づいて障害物環境地図の作成及び更新を行う。障害物環境地図の作成は、図3に示すようにロボット装置1を円柱の合成としてモデル化し、円柱毎に障害物環境地図であるグリッドを作成する。このグリッドはモデル化された円柱の底面から上面までの高さの範囲に障害物が存在するか否かを示している。
例えば、図3に示すようにロボット装置1は、高さ位置が0からhmaxまでの円柱1と、高さ位置がhlowからhmaxまでの円柱2とによりモデル化される。この円柱モデルは、床面からロボット装置1の高さまでの高さ範囲を有するとともに可動領域を含む脚部の断面を包含する半径を有する円柱1と、胴部及び頭部を含む高さ範囲を有すとともに稼動領域を含む腕部を包含する円柱1よりも大きい半径を有する円柱2とを用いて構成され、各円柱の中心軸は一致するようにモデル化されている。円柱1に対応するグリッド1は、0からhmaxまでの高さ位置における障害物環境を示し、円柱2に対応するグリッド1は、hlowからhmaxまでの高さ位置における障害物環境を示す。また、後述するが、グリッド1は、高さ位置が0以下、すなわちロボット装置が移動する床面以下の環境状態も示すことができる。
グリッドの各セルには、物体によって占有されているか否かの確率が付与され、観測データに基づいて各セルの占有確率が変更される。そして、占有確率に閾値を設け、占有確率が閾値より大きいか否かによって環境の状態を表現する。
また、障害物環境地図更新部4は、測定点pが床面付近の場合、測定点pのx座標及びy座標に対応するセルにエンプティ(Empty)処理を行う。また、測定点pが床面付近でない場合、測定点pのx座標及びy座標に対応するセルに対してオキュパイド(Occupied)処理を行う。
このグリッドは、セルCに対して障害物の存在確率(障害物によって占有されている確率)p(c)を保持しており、このEMPTY処理及びOCCUPIED処理は、これら各セルに対して統計的に行う。EMPTY処理は、障害物の存在確率を低下させる処理であり、OCCUPIED処理は障害物の存在確率を増加させる処理である。本具体例では、EMPTY処理及びOCCUPIED処理の存在確率を算出する手法の一例として、ベイズの更新則を用いる。
EMPTY処理のとき式(1)により占有確率を減少させ、OCCUPIED処理のとき式(2)により占有確率を増加させる。式(1)は、セルCの占有確率を表すp(c)が“占有”という条件下にあるセルCの確率を表しており、式(1)又は式(2)においてセルCが占有されているか又は占有されていないかを表す確率p(occ|...)、p(empty|...)は、予め決められた閾値thである。
このように障害物の存在確率は、セルごとに算出され、障害物環境地図が更新される。
ロボット座標変換部5は、ロボット装置1の内部の関節角情報(Joint Angle)に基づいて移動量(Odometry)を導出する。
ロボット座標更新部6は、移動量に基づいてロボット装置1の位置及び姿勢を更新する。具体的には移動量を時間方向に渡って積算することにより更新する。
経路計画部7は、障害物環境地図に基づいて経路を計画する。経路計画には、例えば、経路全体のコストを最小化するA*探索と呼ばれる方法が用いられる。
上述した障害物回避装置2の適用例として、図4に示すような障害物が存在する場合について説明する。障害物Aは図3に示すようにモデル化された円柱2の高さ位置hlowよりも高さが低い障害物である。また、障害物Bは図3に示す円柱2の高さ位置hlowよりも高さが低い部分を有するものである。また、障害物Cは三角形状であり、図3に示す円柱2の高さ位置hlowよりも高さが低い部分を有している。
図5は、図4に示すような障害物とグリッドとの関係を示す模式図である。図3に示す2つの円柱によるロボット装置1のモデル化の例では、図5に示すように円柱の高さ範囲に対応して異なる2つのレイヤに分けられる。レイヤ1における障害物はグリッド1に表示され、レイヤ2における障害物はグリッド2に表示される。
グリッド1及びグリッド2において、白色のセルはロボット装置1が自由に移動できる自由領域、黒色のセルは障害物及び灰色のセルは未観測領域を示している。ここで、測定点がレイヤ2に存在する場合、レイヤ1にも存在することになるので、グリッド1及びグリッド2が更新される。また、測定点がレイヤ1のみに存在する場合、つまり測定点がレイヤ2よりも低い位置に存在する場合、グリッド1が更新される。
図6は、障害物環境地図更新部4におけるグリッドの更新処理を説明するフローチャートである。障害物環境地図更新部4は、3次元の位置情報の各データ点P=(x,y,z)に対して以下の処理を行う。先ず、点Pの(x,y)座標から点Pが属するグリッドのセル(i,j)を求める(ステップS11)。次に、点Pの高さzをロボット装置1が直立している床面の高さ(h_floor)と比較することで点Pが床面付近のデータであるかどうかを判断する(ステップS12)。
ステップS12において、点Pが床面付近のデータである場合には、点Pが属するグリッド1とグリッド2のセル(i,j)を障害物が存在しないことを示す値EMPTYで更新し(ステップS13及びステップS14)、処理を終了する。
また、ステップS12において、点Pが床面付近のデータでない場合には、ステップS15に進み、点Pの高さzとレイヤ2の下端の高さ位置hlowとを比較する。
ステップS15において、点Pの高さzがhlowより低い場合には、グリッド1のセル(i,j)を障害物であることを示す値OCCで更新する(ステップS16)。点Pの高さzが床面付近ではなく、点Pの高さzがレイヤ2の下端の高さ位置hlowより低い場合、点Pは床面高さからhlowまでの間に存在するデータ又は床面よりも低いデータである。このように、グリッド1には床面に空いた穴(z<h_floor)も障害物として示すことができる。
また、ステップS15において、点Pの高さzがhlow以上の場合、レイヤ1及びレイヤ2の上端の高さ位置hmaxと比較する(ステップS17)。
ステップS17において、点Pの高さzがhmaxより低い点の場合、グリッド1及びグリッド2のセル(i,j)を障害物であることを示す値OCCで更新し(ステップS16及びステップS18)、処理を終了する。
また、ステップS17において、点Pの高さzがhmax以上の場合、処理を終了する。
このような処理によって、ロボット装置1が観測した環境内の障害物を、異なる2つのレイヤのグリッドとして表現することができる。また、このグリッドは、セルに対する障害物の存在確率p(c)によって表現され、セルの更新の際は、上書き更新ではなく、統計的な更新をするため、誤認識などのノイズに対してロバストな障害物環境地図構築が可能となる。
続いて、上述した処理によって更新されたグリッド1及びグリッド2の干渉チェックについて説明する。図7はレイヤ1のグリッド1を示す一例であり、図8はレイヤ2のグリッド2を示す一例である。ここで、黒色のセルは障害物が占有している領域を示し、白色のセルはロボット装置1が自由に移動できる自由領域を示している。また、灰色のセルは、後述するが、障害物をモデル化された円柱の半径分拡大させた領域である。
ここで、図7(a)に示すグリッド1と図8(a)に示すグリッド2とを比較すれば分かるように、グリッド1とグリッド2とは異なるものとなっている。これは、グリッド1が上述したように高さ位置0からhmaxまでに存在する障害物の情報を有し、グリッド2が高さ位置hlowからhmaxまでに存在する障害物の情報を有しているためである。つまり、図7に示すグリッド1中の斜線で示すセルは、高さ位置0からhlowまでに存在する障害物である。
図7(a)に示すグリッド1において、障害物を示すセルをモデル化された円柱の円R1の半径分拡大すると、図7(b)に示すようにロボット装置1は点Rに収束するとともに、円柱の半径分拡大させた灰色のセルは障害物として認識されるようになる。
また、図8(a)に示すグリッド2も同様に、障害物を示すセルをモデル化された円柱の円R2の半径分拡大すると、図8(b)に示すようにロボット装置1は点Rに収束するとともに、円柱の半径分拡大させた灰色のセルは障害物として認識されるようになる。
そして、図7(b)及び図8(b)に示すグリッドを合成することにより、図9に示すような環境地図を得ることができる。この環境地図は、図22(b)に示す従来の単一の円柱モデルによる障害物環境地図と比較すれば分かるように、図22(b)に示す障害物環境地図では障害物として認識され、ロボット装置1の位置RからゴールGまでの経路を計画できなかった領域が、障害物として認識されていない。このため、図9に示す環境地図によれば、位置RからゴールGまでの経路計画が可能となる。
経路計画は、経路計画部7によって図9に示す環境地図に基づいて行われる。経路計画には、例えば、経路全体のコストを最小化するA*探索と呼ばれる方法が用いられる。具体的には、スタートセルから始めて、式(3)に示す評価関数fの評価値(コスト)が最小となるセルを順次展開することにより経路を探索する。
また、g(n)は現在のノードでのコスト、h(n,goal)は現在のノードからゴールまでの経路の見積もりコスト、及びαは重み係数である。
このようにロボット装置1を2つの円柱でモデル化し、各円柱の高さ範囲に対応するレイヤのグリッドを作成することにより、高さや半径が異なる円柱ごとに干渉チェックを行うことができる。これにより、干渉チェックが高精度となり、ロボット装置1が移動可能な領域が増加する。
なお、上記実施の形態では、ロボット装置1を2つの円柱でモデル化することとしたが、これに限られるものではなく、複数の円柱でモデル化するようにしてもよい。複数の円柱でモデル化した場合、環境空間が複数のレイヤに分けれ、複数のグリッドが生成されることになる。この場合の障害物環境地図更新部4における複数のグリッドの更新処理を図10に示すフローチャートを参照して説明する。この例では、n個の円柱(k=1,2…n)によってロボット装置1がモデル化されており、対応するn個のグリッド(k=1,2…n)が存在するものとする。また、ロボット装置1が直立している床面より下の情報をグリッド0によって表現している。
障害物環境地図更新部4は、3次元の位置情報の各データ点P=(x,y,z)に対して以下の処理を行う。先ず、点Pの(x,y)座標から点Pが属する障害物環境グリッドのセル(i,j)を求める(ステップS21)。次に、点Pの高さzをロボット装置1が直立している床面の高さ(h_floor)と比較することで点Pが床面付近のデータであるかどうかを判断する(ステップS22)。
ステップS22において、点Pが床面付近のデータである場合には、すべてのグリッドk(k=1,2…n)のセル(i,j)を障害物が存在しないことを示す値EMPTYで更新する(ステップS23〜S26)。すなわち、k=1から代入してゆき(ステップS23)、ステップS24においてkがnより小さい場合、そのセルをEMPTYで更新し(ステップS23)、kをインクリメントする(ステップS26)。そして、ステップS24に戻り、kとnの値が比較される。ステップS24においてkがn以上の場合、更新処理を終了する。
ステップS22において、点Pが床面付近のデータでない場合には、点Pが床面よりも低い位置のデータ点であるかどうかを判断する(ステップS27)。
ステップS27において、点Pの高さzが床面よりも低い場合、グリッド0のセル(i,j)を障害物であることを示す値OCCで更新し(ステップS28)、処理を終了する。
ステップS27において、点Pの高さが床面以上の場合、高さzが含まれるレイヤのグリッドk(k=1,2…n)のセル(i,j)をOCCで更新する(ステップS29〜S33)。すなわち、k=1から代入してゆき(ステップS29)、ステップS30においてkがn以下の場合、ステップS31に進み、点Pの高さzがグリッドkのレイヤの高さ位置h_k_high>z>h_k_lowの範囲に含まれるか否かが判断される(ステップS31)。点Pの高さzがグリッドkのレイヤの高さ位置h_k_high>z>h_k_lowの範囲に含まれる場合、グリッドkのセル(i,j)をOCCで更新する(ステップS32)。そして、kをインクリメントし(ステップS33)、ステップS30に戻る。
また、ステップS31において点Pの高さzがグリッドkのレイヤの高さ位置h_k_high>z>h_k_lowの範囲に含まれない場合、kをインクリメントし、ステップS30に戻る。
ステップS30においてkがnより大きい場合、更新処理を終了する。このように環境が複数のレイヤに分けられたグリッドを更新処理することにより、複雑な環境にも対応することができる。
また、上述した更新処理では、ロボット装置1が床面を観測した際、すべてのレイヤのグリッドセルに対してEMPTY処理を行うため、問題が生じることがある。例えば、図11に示すような、上部が下部よりも大きい形状を有する障害物Aや三角形の頂点が床面と接するような三角形状の障害物Bの場合、図12に示すようにロボット装置1が床面を観測した際、上述の更新処理ではすべてのレイヤのグリッドセルに対してEMPTYの処理を行う。そのため、たとえ前回、上部の障害物部分を認識していたとしても、図12に示すようにロボット装置1が床面を観測してEMPTY処理を行うことによって、障害物が障害物環境地図上から消去されてしまう虞がある。
そこで、ロボット装置1からの距離に応じて近傍領域(Near Region)と非近傍領域(Far Region)を定義し、遠くの床面に対してはEMPTYの処理を行わず、近傍距離の床面のみにEMPTYの処理を行う。この近傍を定義するための距離は、各レイヤ独立に定義する。例えば、図12に示すように、レイヤ1には近傍領域のnear_1と非近傍領域のfar_1とを定義し、レイヤ2には近傍領域のnear_2と非近傍領域のfar_2とを定義し、床面を含むレイヤ1の近傍領域near_1をレイヤ2の近傍領域near_2よりも大きくする。これによりロボット装置1のCCDカメラ10R,10Lの各レイヤの撮像範囲に入らないような上部が下部よりも大きい形状の障害物に対するEMPTY処理を避けることができる。
ロボット装置1からの距離に応じて近傍領域と非近傍領域を定義した場合の障害物環境地図更新部4の処理を図13に示すフローチャートを参照して説明する。この例では、n個の円柱(k=1,2…n)によってロボット装置1がモデル化されており、各円柱の高さに対応するn個のグリッド(k=1,2…n)が存在するものとする。また、ロボット装置1が直立している床面より下の情報をグリッド0によって表現している。
障害物環境地図更新部4は、3次元の位置情報の各データ点P=(x,y,z)に対して以下の処理を行う。先ず、点Pの(x,y)座標から点Pが属する障害物環境グリッドのセル(i,j)を求める(ステップS41)。次に、点Pの高さzをロボット装置1が直立している床面の高さ(h_floor)と比較することで点Pが床面付近のデータであるかどうかを判断する(ステップS42)。
ステップS42において、点Pが床面付近のデータである場合には、すべてのグリッドk(k=1,2…n)に対し、その点Pがロボット装置1の近傍か否かの判定を行う(ステップS43〜S47)。すなわち、k=1から代入してゆき(ステップS43)、ステップS44においてkがn以下の場合、グリッドkにおける点Pが近傍領域(near_k)に存在するか否かを判定する(ステップS45)。
ステップS45において、グリッドkにおける点Pが近傍領域の場合、グリッドkのセルk(i,j)をEMPTY処理する(ステップS46)。また、ステップS45において、グリッドkにおける点Pが近傍領域でない場合、kをインクリメントし(ステップS47)、ステップS44に戻る。
ステップS44において、kがnより大きい場合、更新処理を終了する。
ステップS42に戻って、点Pが床面付近のデータでない場合には、点Pが床面より低い位置のデータ点であるかどうかを判断する(ステップS48)。
ステップS48において、点Pの高さzが床面よりも低い場合、グリッド0のセル(i,j)を障害物であることを示す値OCCで更新し(ステップS49)、処理を終了する。
また、ステップS48において、点Pの高さzが床面以上の場合、高さzを含むレイヤのグリッドk(k=1,2…n)のセル(i,j)をOCCで更新する(ステップS50〜S54)。すなわち、k=1から代入してゆき(ステップS50)、ステップS51においてkがn以下の場合、ステップS52に進み、点Pの高さzがグリッドkのレイヤの高さ位置h_k_high>z>h_k_lowの範囲に含まれるか否かが判断される(ステップS52)。点Pの高さzがグリッドkのh_k_high>z>h_k_lowの範囲に含まれる場合、グリッドkのセル(i,j)をOCCで更新する(ステップS53)。そして、kをインクリメントし(ステップS54)、ステップS52に戻る。
また、ステップS52において点Pの高さzがグリッドkのレイヤの高さ位置h_k_high>z>h_k_lowの範囲に含まれない場合、kをインクリメントし、ステップS51に戻る。
ステップS51においてkがnより大きい場合、更新処理を終了する。
このようにロボット装置1からの距離に応じて近傍領域と非近傍領域を定義し、遠くの床面に対してはEMPTYの処理を行わず、近傍距離の床面のみにEMPTYの処理を行うことにより、例えば、図11に示すような上部が下部よりも大きい障害物との衝突を回避することができる。
また、ロボット装置1には様々なモデル形態を用いることができる。例えば、2つの円柱を用いて、図14(a)に示すように、脚部を円柱141でモデル化し、頭部と胴体部を円柱142でモデル化してもよい。また、図14(b)に示すように頭部から脚部までを円柱143でモデル化し、胴体部を円柱144でモデル化してもよい。
また、3つの円柱を用いて、図15及び図16に示すようにロボット装置1をモデル化してもよい。図15(A)の例は、胴体部から脚部までを円柱151、胴体部を円柱152及び頭部から脚部までを円柱153でモデル化している。図15(B)の例は、胴体部から脚部までを円柱154、胴体部を円柱155及び頭部を円柱156でモデル化している。図15(C)の例は、胴体部から脚部までを円柱157、胴体部を円柱158及び頭部から胴体部までを円柱159でモデル化している。図16(A)の例は、脚部を円柱161、胴体部を円柱162及び頭部から脚部までを円柱163でモデル化している。図16(B)の例は、脚部を円柱164、胴体部を円柱165及び頭部を円柱166でモデル化している。図16(C)の例は、脚部を円柱167、胴体部を円柱168及び頭部から胴体部までを円柱169でモデル化している。
このようにロボット装置1を水平面と平行な底面を有するとともに中心軸を共有する円柱を用いてモデル化することにより、障害物情報が異なる様々なグリッドが作成されるため、複雑な外部環境にも対応することができる。
次に、障害物回避装置2が搭載されるロボット装置1について図17乃至図19を参照して、さらに詳細に説明する。図17は、図1に示すロボット装置1の詳細な外観を示す斜視図である。図17に示すように、ロボット装置1は、体幹部ユニット202の所定の位置に頭部ユニット203が連結されるとともに、左右2つの腕部ユニット204R/Lと、左右2つの脚部ユニット205R/Lが連結されて構成されている。
このロボット装置1が具備する関節自由度構成を図18に模式的に示す。頭部ユニット203を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
また、上肢を構成する各々の腕部ユニット204R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書では簡単のため、ゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
また、体幹部ユニット202は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
また、下肢を構成する各々の脚部ユニット205R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足底121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足底121は、実際には多関節・多自由度の足底を含んだ構造体であるが、本明細書においては、簡単のためロボット装置1の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
上述したようなロボット装置1がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うこと等の要請から、アクチュエータは小型かつ軽量であることが好ましい。
このようなロボット装置1は、ロボット装置全体の動作を制御する制御システムを例えば体幹部ユニット202等に備える。図19は、ロボット装置1の制御システム構成を示す模式図である。図19に示すように、制御システムは、ユーザ入力等に動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動等、ロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213及び外部記憶装置(ハード・ディスク・ドライブ等)214等で構成され、モジュール内で自己完結した処理を行うことができる、独立駆動型の情報処理装置である。
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データ等、外界からの刺激等にしたがって、ロボット装置1の現在の感情や意思を決定する。すなわち、上述したように、入力される画像データからユーザの表情を認識し、その情報をロボット装置1の感情や意思に反映させることで、ユーザの表情に応じた行動を発現することができる。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを複数備えており、これらのカメラにより撮像した画像から距離画像を得ることができる。また、音声入力装置252は、例えばマイクロホンを複数備えている。
思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
一方の運動制御モジュール300は、ロボット装置1の全身協調運動を制御するCPU311や、RAM312、ROM313及び外部記憶装置(ハード・ディスク・ドライブ等)314等で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。また、外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。
この運動制御モジュール300には、図19に示したロボット装置1の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、対象物との距離を測定する距離計測センサ(図示せず)、体幹部ユニット202の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、足底121の足底121に設けられる荷重センサ、バッテリ等の電源を管理する電源制御装置354等の各種の装置が、バス・インターフェース(I/F)310経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組合せによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチ等で構成される。
思考制御モジュール200と運動制御モジュール300は、共通のプラットフォーム上で構築され、両者間はバス・インターフェース210,310を介して相互接続されている。
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は、内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンにしたがって、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さ等を設定するとともに、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
また、CPU311は、姿勢センサ351の出力信号によりロボット装置1の体幹部ユニット202の姿勢や傾きを検出するとともに、各接地確認センサ352,353の出力信号により各脚部ユニット205R/Lが遊脚又は立脚のいずれの状態であるかを検出することによって、ロボット装置1の全身協調運動を適応的に制御することができる。更に、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置1の姿勢や動作を制御する。
また、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
1 ロボット装置、 2 障害物回避装置、 3 3次元座標変換部、 4 障害物地図更新部、 5 ロボット座標変換部、 6 ロボット座標更新部、 7 経路計画部
Claims (9)
- 移動型ロボット装置が障害物を回避するための障害物回避装置において、
上記移動型ロボット装置が移動する基準面から上記移動型ロボット装置の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する障害物環境地図作成手段と、
上記障害物環境地図の障害物の占有領域を各レイヤの上記移動型ロボット装置の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する経路計画手段と
を備えることを特徴とする障害物回避装置。 - 上記移動型ロボット装置は、上記所定の高さ範囲に対応し、上記基準面に対して鉛直、且つ中心軸を共有する複数の円柱によってモデル化され、
上記断面形状は、円形であることを特徴とする請求項1記載の障害物回避装置。 - 上記経路計画手段は、上記拡大環境地図を複数重ね合わせて経路を計画することを特徴とする請求項1記載の障害物回避装置。
- 上記基準面を含むレイヤの障害物環境地図の少なくとも1つは、上記基準面よりも低い位置を障害物として表すことを特徴とする請求項1記載の障害物回避装置。
- 上記障害物を含む環境の3次元位置情報を取得する取得手段と、
上記取得手段にて取得した3次元位置情報の高さ位置に応じて所定のレイヤの障害物環境地図を更新する障害物環境地図更新手段と
をさらに備えることを特徴とする請求項1記載の障害物回避装置。 - 上記3次元位置情報を取得するための撮像手段をさらに備え、
上記障害物環境地図更新手段は、上記撮像手段の各レイヤの撮像範囲に基づいて障害物環境地図内の所定の領域を更新することを特徴とする請求項5記載の障害物回避装置。 - 移動型ロボット装置が障害物を回避するための障害物回避方法において、
上記移動型ロボット装置が移動する基準面から上記移動型ロボット装置の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する障害物環境地図作成工程と、
上記障害物環境地図の障害物の占有領域を各レイヤの上記移動型ロボット装置の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する経路計画工程と
を有することを特徴とする障害物回避方法。 - 移動型ロボット装置が障害物を回避するための障害物回避プログラムにおいて、
上記移動型ロボット装置が移動する基準面から上記移動型ロボット装置の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する障害物環境地図作成工程と、
上記障害物環境地図の障害物の占有領域を各レイヤの上記移動型ロボット装置の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する経路計画工程と
を有することを特徴とする障害物回避プログラム。 - 障害物を回避する移動型ロボット装置において、
自身が移動する基準面から自身の高さまでの高さ範囲を、それぞれ所定の高さ範囲に対応した複数のレイヤに分割し、各レイヤに存在する障害物の占有状態を示す障害物環境地図を作成する障害物環境地図作成手段と、
上記障害物環境地図の障害物の占有領域を各レイヤの自身の断面形状の大きさに応じて拡大させた拡大環境地図に基づいて経路を計画する経路計画手段と
を備えることを特徴とする移動型ロボット装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005061693A JP2006239844A (ja) | 2005-03-04 | 2005-03-04 | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 |
US11/363,178 US7769491B2 (en) | 2005-03-04 | 2006-02-28 | Obstacle avoiding apparatus, obstacle avoiding method, obstacle avoiding program, and mobile robot apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005061693A JP2006239844A (ja) | 2005-03-04 | 2005-03-04 | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006239844A true JP2006239844A (ja) | 2006-09-14 |
Family
ID=37046738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005061693A Pending JP2006239844A (ja) | 2005-03-04 | 2005-03-04 | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7769491B2 (ja) |
JP (1) | JP2006239844A (ja) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008149436A (ja) * | 2006-12-20 | 2008-07-03 | Honda Motor Co Ltd | 移動装置、ならびにその制御システム、制御プログラムおよび監督システム |
JP2008276348A (ja) * | 2007-04-26 | 2008-11-13 | Toyota Motor Corp | 環境地図生成方法、及び移動ロボット |
JP2009134642A (ja) * | 2007-11-30 | 2009-06-18 | Honda Motor Co Ltd | 移動装置および移動装置システム |
JP2009217363A (ja) * | 2008-03-07 | 2009-09-24 | Hitachi Ltd | 環境地図生成装置、方法及びプログラム |
JP2009291540A (ja) * | 2008-06-09 | 2009-12-17 | Hitachi Ltd | 移動ロボットシステム |
WO2010026710A1 (ja) * | 2008-09-03 | 2010-03-11 | 村田機械株式会社 | 経路計画方法、経路計画装置、及び自律移動装置 |
JP2010061355A (ja) * | 2008-09-03 | 2010-03-18 | Murata Machinery Ltd | 経路計画方法、経路計画装置、及び自律移動装置 |
JP2010127646A (ja) * | 2008-11-25 | 2010-06-10 | Toshiba Corp | 経路を選択する装置、方法およびプログラム |
WO2011062094A1 (ja) * | 2009-11-20 | 2011-05-26 | 村田機械株式会社 | 自律移動体とその制御方法 |
JP2014056506A (ja) * | 2012-09-13 | 2014-03-27 | Toyota Central R&D Labs Inc | 障害物検出装置及びそれを備えた移動体 |
US8948956B2 (en) | 2009-11-20 | 2015-02-03 | Murata Machinery, Ltd. | Autonomous mobile body and control method of same |
JP2016192040A (ja) * | 2015-03-31 | 2016-11-10 | 株式会社日本総合研究所 | 自走型走行装置、管理装置、及び歩行障害箇所判定システム |
KR20170042546A (ko) * | 2014-06-05 | 2017-04-19 | 소프트뱅크 로보틱스 유럽 | 자동 로봇을 위한 장애물의 존재 및 부재 중 하나의 확률 맵 구축 방법 |
JP2017211934A (ja) * | 2016-05-27 | 2017-11-30 | 株式会社東芝 | 情報処理装置、情報処理方法、および車両 |
WO2019053798A1 (ja) * | 2017-09-13 | 2019-03-21 | 株式会社Doog | 自律走行ロボットシステム |
US10424320B2 (en) | 2017-03-28 | 2019-09-24 | Casio Computer Co., Ltd. | Voice detection, apparatus, voice detection method, and non-transitory computer-readable storage medium |
US10969790B2 (en) | 2018-03-23 | 2021-04-06 | Casio Computer Co., Ltd. | Autonomous mobile apparatus, method for controlling the same, and recording medium |
KR20210037716A (ko) * | 2018-08-06 | 2021-04-06 | 다이슨 테크놀러지 리미티드 | 모바일 로봇 및 그 제어 방법 |
WO2021171694A1 (ja) * | 2020-02-26 | 2021-09-02 | 株式会社日立製作所 | 2次元マップデータ生成装置、2次元マップデータ生成方法、及び2次元マップデータ生成システム |
WO2021177540A1 (ko) * | 2020-03-04 | 2021-09-10 | 엘지전자 주식회사 | 이동 로봇 및 이의 제어 방법 |
JP2022504039A (ja) * | 2018-10-12 | 2022-01-13 | ボストン ダイナミクス,インコーポレイテッド | 地形を意識したステッププランニングシステム |
CN114174766A (zh) * | 2019-08-06 | 2022-03-11 | 波士顿动力公司 | 中间路径点生成器 |
JP2022163534A (ja) * | 2021-04-14 | 2022-10-26 | 株式会社クボタ | 経路生成システム |
KR102568651B1 (ko) * | 2022-10-26 | 2023-08-22 | 주식회사 클로봇 | 다수 무인이동체의 이동경로 생성을 위한 위상지도 형성장치 및 방법 |
JP7340350B2 (ja) | 2019-05-07 | 2023-09-07 | 東芝テック株式会社 | 情報処理装置及び情報処理方法 |
Families Citing this family (80)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8788092B2 (en) * | 2000-01-24 | 2014-07-22 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
JP2006239844A (ja) * | 2005-03-04 | 2006-09-14 | Sony Corp | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 |
US7974738B2 (en) | 2006-07-05 | 2011-07-05 | Battelle Energy Alliance, Llc | Robotics virtual rail system and method |
US8073564B2 (en) * | 2006-07-05 | 2011-12-06 | Battelle Energy Alliance, Llc | Multi-robot control interface |
US8965578B2 (en) | 2006-07-05 | 2015-02-24 | Battelle Energy Alliance, Llc | Real time explosive hazard information sensing, processing, and communication for autonomous operation |
US8271132B2 (en) * | 2008-03-13 | 2012-09-18 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
US8355818B2 (en) * | 2009-09-03 | 2013-01-15 | Battelle Energy Alliance, Llc | Robots, systems, and methods for hazard evaluation and visualization |
JP4645601B2 (ja) * | 2007-02-13 | 2011-03-09 | トヨタ自動車株式会社 | 環境地図の生成方法及び移動ロボット |
KR100902343B1 (ko) * | 2007-11-08 | 2009-06-12 | 한국전자통신연구원 | 로봇 영상 시스템 및 검출 방법 |
JP4328819B2 (ja) * | 2007-11-30 | 2009-09-09 | 本田技研工業株式会社 | 移動装置およびその制御プログラム |
JP5337408B2 (ja) * | 2008-05-28 | 2013-11-06 | 村田機械株式会社 | 自律移動体及びその移動制御方法 |
US8374780B2 (en) * | 2008-07-25 | 2013-02-12 | Navteq B.V. | Open area maps with restriction content |
US8339417B2 (en) * | 2008-07-25 | 2012-12-25 | Navteq B.V. | Open area maps based on vector graphics format images |
US8417446B2 (en) * | 2008-07-25 | 2013-04-09 | Navteq B.V. | Link-node maps based on open area maps |
US20100021013A1 (en) * | 2008-07-25 | 2010-01-28 | Gale William N | Open area maps with guidance |
US8229176B2 (en) | 2008-07-25 | 2012-07-24 | Navteq B.V. | End user image open area maps |
US8825387B2 (en) * | 2008-07-25 | 2014-09-02 | Navteq B.V. | Positioning open area maps |
US20100023251A1 (en) * | 2008-07-25 | 2010-01-28 | Gale William N | Cost based open area maps |
US8099237B2 (en) | 2008-07-25 | 2012-01-17 | Navteq North America, Llc | Open area maps |
US8185239B2 (en) * | 2008-11-13 | 2012-05-22 | MSI Computer (Shenzhen) Co, Ltd. | Moving route planning method and navigation method for avoiding dynamic hindrances for mobile robot device |
US8108148B2 (en) * | 2009-02-27 | 2012-01-31 | Toyota Motor Engineering & Manufacturing, North America, Inc. | Method and system for mapping environments containing dynamic obstacles |
JP5216690B2 (ja) * | 2009-06-01 | 2013-06-19 | 株式会社日立製作所 | ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム |
US8634982B2 (en) * | 2009-08-19 | 2014-01-21 | Raytheon Company | System and method for resource allocation and management |
KR101619076B1 (ko) * | 2009-08-25 | 2016-05-10 | 삼성전자 주식회사 | 모바일 플랫폼의 동적 물체 검출 및 추적 방법 |
KR101362961B1 (ko) * | 2009-08-31 | 2014-02-12 | 니토 로보틱스 인코퍼레이티드 | 이동 로봇 환경의 실시간 위치 측정 및 매핑을 위한 방법 및 장치 |
KR101306286B1 (ko) * | 2010-12-17 | 2013-09-09 | 주식회사 팬택 | X-레이 뷰 기반의 증강 현실 제공 장치 및 방법 |
KR20120069924A (ko) * | 2010-12-21 | 2012-06-29 | 삼성전자주식회사 | 보행 로봇 및 그 제어 방법 |
US9436185B2 (en) | 2010-12-30 | 2016-09-06 | Irobot Corporation | Coverage robot navigating |
US8396730B2 (en) * | 2011-02-14 | 2013-03-12 | Raytheon Company | System and method for resource allocation and management |
US9146559B2 (en) * | 2011-03-18 | 2015-09-29 | The Raymond Corporation | System and method for gathering video data related to operation of an autonomous industrial vehicle |
US8799201B2 (en) | 2011-07-25 | 2014-08-05 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for tracking objects |
US9718469B2 (en) * | 2011-10-03 | 2017-08-01 | Toyota Jidosha Kabushiki Kaisha | Vehicle driving assistance system |
US20150138333A1 (en) * | 2012-02-28 | 2015-05-21 | Google Inc. | Agent Interfaces for Interactive Electronics that Support Social Cues |
US9044863B2 (en) | 2013-02-06 | 2015-06-02 | Steelcase Inc. | Polarized enhanced confidentiality in mobile camera applications |
US9283678B2 (en) * | 2014-07-16 | 2016-03-15 | Google Inc. | Virtual safety cages for robotic devices |
US9904055B2 (en) | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US10311638B2 (en) * | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US9858720B2 (en) | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US10618174B2 (en) | 2014-12-09 | 2020-04-14 | Aeolus Robotics, Inc. | Robotic Touch Perception |
US12084824B2 (en) | 2015-03-06 | 2024-09-10 | Walmart Apollo, Llc | Shopping facility assistance systems, devices and methods |
US10287149B2 (en) | 2015-03-06 | 2019-05-14 | Walmart Apollo, Llc | Assignment of a motorized personal assistance apparatus |
US20180099846A1 (en) | 2015-03-06 | 2018-04-12 | Wal-Mart Stores, Inc. | Method and apparatus for transporting a plurality of stacked motorized transport units |
WO2016142794A1 (en) | 2015-03-06 | 2016-09-15 | Wal-Mart Stores, Inc | Item monitoring system and method |
DE102015009815A1 (de) * | 2015-07-28 | 2017-02-02 | Kuka Roboter Gmbh | Verfahren zum Steuern eines mobilen redundanten Roboters |
GB2562835B (en) * | 2015-08-07 | 2019-10-16 | Walmart Apollo Llc | Shopping space mapping systems, devices and methods |
US9744668B1 (en) | 2015-08-21 | 2017-08-29 | X Development Llc | Spatiotemporal robot reservation systems and method |
DE102015220495A1 (de) * | 2015-10-21 | 2017-04-27 | Kuka Roboter Gmbh | Schutzfeldanpassung eines Manipulatorsystems |
US9798327B2 (en) * | 2016-01-08 | 2017-10-24 | King Fahd University Of Petroleum And Minerals | Apparatus and method for deploying sensors |
CA2961938A1 (en) | 2016-04-01 | 2017-10-01 | Wal-Mart Stores, Inc. | Systems and methods for moving pallets via unmanned motorized unit-guided forklifts |
CN105955279B (zh) * | 2016-07-18 | 2019-04-09 | 中国矿业大学 | 一种基于图像视觉的移动机器人路径规划方法及装置 |
CN106527424B (zh) * | 2016-09-20 | 2023-06-09 | 深圳银星智能集团股份有限公司 | 移动机器人及移动机器人的导航方法 |
JP6457469B2 (ja) * | 2016-12-08 | 2019-01-23 | ファナック株式会社 | 移動ロボットの干渉領域設定装置 |
US11221497B2 (en) | 2017-06-05 | 2022-01-11 | Steelcase Inc. | Multiple-polarization cloaking |
CN108733065B (zh) * | 2017-09-29 | 2021-06-04 | 北京猎户星空科技有限公司 | 一种机器人的避障方法、装置及机器人 |
US11687089B2 (en) * | 2017-10-02 | 2023-06-27 | Sony Corporation | Environmental information update apparatus, environmental information update method, and program for updating information regarding an obstacle in a space |
US10676022B2 (en) | 2017-12-27 | 2020-06-09 | X Development Llc | Visually indicating vehicle caution regions |
DE112018006808T5 (de) | 2018-01-10 | 2020-10-01 | Intel Corporation | Prädiktive-Karten-Erzeugungs-Technologie |
US11106124B2 (en) | 2018-02-27 | 2021-08-31 | Steelcase Inc. | Multiple-polarization cloaking for projected and writing surface view screens |
EP3779630A4 (en) * | 2018-03-27 | 2021-08-11 | Zhongqian You | ROBOT AVOIDATION CONTROL PROCEDURES AND RELATED DEVICE |
CN108814446A (zh) * | 2018-07-06 | 2018-11-16 | 杭州它人机器人技术有限公司 | 无人驾驶尘推车及其运行方法 |
JP2020042726A (ja) * | 2018-09-13 | 2020-03-19 | 株式会社東芝 | Ogm圧縮回路、ogm圧縮伸長システム、および移動体システム |
US11429110B1 (en) * | 2019-05-24 | 2022-08-30 | Amazon Technologies, Inc. | System for obstacle avoidance by autonomous mobile device |
CN110310369B (zh) * | 2019-06-03 | 2023-08-15 | 北京控制工程研究所 | 一种受限约束下的月背复杂地形可通过性判别方法及系统 |
US11386289B2 (en) * | 2019-11-05 | 2022-07-12 | Elementary Robotics, Inc. | Systems and methods for robot-aided product inspection |
CN110968658B (zh) * | 2019-11-28 | 2022-12-16 | 安徽云森物联网科技有限公司 | 一种用于跳点搜索最短路径算法的矢量地图预处理方法 |
CN111397598B (zh) * | 2020-04-16 | 2022-02-01 | 苏州大学 | 人机共融环境中移动型机器人路径规划采样方法及系统 |
US11880209B2 (en) * | 2020-05-15 | 2024-01-23 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
DE112020007151T5 (de) * | 2020-09-14 | 2023-04-20 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Planen eines Pfads für ein mobiles Objekt |
US20220390952A1 (en) * | 2021-06-04 | 2022-12-08 | Boston Dynamics, Inc. | Detecting negative obstacles |
CN113741438B (zh) * | 2021-08-20 | 2024-03-26 | 上海高仙自动化科技发展有限公司 | 路径规划方法、装置、存储介质、芯片及机器人 |
CN115723121A (zh) * | 2021-08-26 | 2023-03-03 | 富士能电子(昆山)有限公司 | 机械手臂避障方法及机械手臂避障系统 |
CN114384919B (zh) * | 2022-01-17 | 2023-06-27 | 北京格睿能源科技有限公司 | 基于大型障碍物形态信息的车辆避障路径规划方法及系统 |
CN114777759A (zh) * | 2022-03-23 | 2022-07-22 | 北京石头创新科技有限公司 | 机器人地图中障碍物的标记方法及装置 |
CN114859892A (zh) * | 2022-04-02 | 2022-08-05 | 同济大学 | 一种基于代价地图的记忆性存储障碍物方法 |
CN118707936A (zh) * | 2023-03-23 | 2024-09-27 | 珠海一微半导体股份有限公司 | 基于地图概率信息的机器人绕障控制方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63265312A (ja) * | 1987-04-23 | 1988-11-01 | Fujitsu Ltd | 移動経路探索方法 |
JPH02170205A (ja) * | 1988-09-06 | 1990-07-02 | Transitions Res Corp | 光線システムで構成する視覚航法及び障害物回避装置 |
JPH05274037A (ja) * | 1992-03-27 | 1993-10-22 | Mitsubishi Heavy Ind Ltd | 移動ロボットの経路作成法 |
JPH07116981A (ja) * | 1993-10-25 | 1995-05-09 | Internatl Business Mach Corp <Ibm> | 移動ロボットの誘導装置 |
JPH07306042A (ja) * | 1994-03-11 | 1995-11-21 | Siemens Ag | セルラ構造の周辺地図の作成方法および装置 |
JPH09230933A (ja) * | 1996-02-27 | 1997-09-05 | Mitsubishi Electric Corp | 自動搬送装置 |
JP2004042148A (ja) * | 2002-07-09 | 2004-02-12 | Mitsubishi Heavy Ind Ltd | 移動ロボット |
JP2004298975A (ja) * | 2003-03-28 | 2004-10-28 | Sony Corp | ロボット装置、障害物探索方法 |
JP2005310043A (ja) * | 2004-04-26 | 2005-11-04 | Mitsubishi Heavy Ind Ltd | 移動体の障害物回避方法及び該移動体 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7349223B2 (en) * | 2000-05-23 | 2008-03-25 | Nanonexus, Inc. | Enhanced compliant probe card systems having improved planarity |
JP4233723B2 (ja) * | 2000-02-28 | 2009-03-04 | 本田技研工業株式会社 | 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体 |
US6690134B1 (en) * | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
US7061628B2 (en) * | 2001-06-27 | 2006-06-13 | Southwest Research Institute | Non-contact apparatus and method for measuring surface profile |
JP3945279B2 (ja) * | 2002-03-15 | 2007-07-18 | ソニー株式会社 | 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置 |
JP2003266345A (ja) | 2002-03-18 | 2003-09-24 | Sony Corp | 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置 |
US7805220B2 (en) * | 2003-03-14 | 2010-09-28 | Sharper Image Acquisition Llc | Robot vacuum with internal mapping system |
WO2004095071A2 (en) * | 2003-04-17 | 2004-11-04 | Kenneth Sinclair | Object detection system |
JP3994950B2 (ja) * | 2003-09-19 | 2007-10-24 | ソニー株式会社 | 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 |
US7379562B2 (en) * | 2004-03-31 | 2008-05-27 | Microsoft Corporation | Determining connectedness and offset of 3D objects relative to an interactive surface |
US7474945B2 (en) * | 2004-12-14 | 2009-01-06 | Honda Motor Company, Ltd. | Route generating system for an autonomous mobile robot |
JP2006239844A (ja) * | 2005-03-04 | 2006-09-14 | Sony Corp | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 |
US7715589B2 (en) * | 2005-03-07 | 2010-05-11 | Massachusetts Institute Of Technology | Occluding contour detection and storage for digital photography |
JP4241673B2 (ja) * | 2005-06-17 | 2009-03-18 | 本田技研工業株式会社 | 移動体の経路生成装置 |
ATE522330T1 (de) * | 2005-09-30 | 2011-09-15 | Irobot Corp | Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung |
US8239083B2 (en) * | 2006-01-18 | 2012-08-07 | I-Guide Robotics, Inc. | Robotic vehicle controller |
KR100735565B1 (ko) * | 2006-05-17 | 2007-07-04 | 삼성전자주식회사 | 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇 |
KR100791382B1 (ko) * | 2006-06-01 | 2008-01-07 | 삼성전자주식회사 | 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치 |
JP5037248B2 (ja) * | 2007-07-17 | 2012-09-26 | 株式会社日立製作所 | 情報収集システムおよび情報収集ロボット |
KR100902343B1 (ko) * | 2007-11-08 | 2009-06-12 | 한국전자통신연구원 | 로봇 영상 시스템 및 검출 방법 |
JP4516592B2 (ja) * | 2007-12-06 | 2010-08-04 | 本田技研工業株式会社 | 移動型ロボット |
-
2005
- 2005-03-04 JP JP2005061693A patent/JP2006239844A/ja active Pending
-
2006
- 2006-02-28 US US11/363,178 patent/US7769491B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63265312A (ja) * | 1987-04-23 | 1988-11-01 | Fujitsu Ltd | 移動経路探索方法 |
JPH02170205A (ja) * | 1988-09-06 | 1990-07-02 | Transitions Res Corp | 光線システムで構成する視覚航法及び障害物回避装置 |
JPH05274037A (ja) * | 1992-03-27 | 1993-10-22 | Mitsubishi Heavy Ind Ltd | 移動ロボットの経路作成法 |
JPH07116981A (ja) * | 1993-10-25 | 1995-05-09 | Internatl Business Mach Corp <Ibm> | 移動ロボットの誘導装置 |
JPH07306042A (ja) * | 1994-03-11 | 1995-11-21 | Siemens Ag | セルラ構造の周辺地図の作成方法および装置 |
JPH09230933A (ja) * | 1996-02-27 | 1997-09-05 | Mitsubishi Electric Corp | 自動搬送装置 |
JP2004042148A (ja) * | 2002-07-09 | 2004-02-12 | Mitsubishi Heavy Ind Ltd | 移動ロボット |
JP2004298975A (ja) * | 2003-03-28 | 2004-10-28 | Sony Corp | ロボット装置、障害物探索方法 |
JP2005310043A (ja) * | 2004-04-26 | 2005-11-04 | Mitsubishi Heavy Ind Ltd | 移動体の障害物回避方法及び該移動体 |
Cited By (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7529622B2 (en) | 2006-12-20 | 2009-05-05 | Honda Motor Co., Ltd. | Mobile apparatus, and control method thereof, control program and supervisory system therefor |
JP2008149436A (ja) * | 2006-12-20 | 2008-07-03 | Honda Motor Co Ltd | 移動装置、ならびにその制御システム、制御プログラムおよび監督システム |
JP2008276348A (ja) * | 2007-04-26 | 2008-11-13 | Toyota Motor Corp | 環境地図生成方法、及び移動ロボット |
JP4678007B2 (ja) * | 2007-04-26 | 2011-04-27 | トヨタ自動車株式会社 | 環境地図生成方法、及び移動ロボット |
JP4577697B2 (ja) * | 2007-11-30 | 2010-11-10 | 本田技研工業株式会社 | 移動装置および移動装置システム |
JP2009134642A (ja) * | 2007-11-30 | 2009-06-18 | Honda Motor Co Ltd | 移動装置および移動装置システム |
JP2009217363A (ja) * | 2008-03-07 | 2009-09-24 | Hitachi Ltd | 環境地図生成装置、方法及びプログラム |
JP2009291540A (ja) * | 2008-06-09 | 2009-12-17 | Hitachi Ltd | 移動ロボットシステム |
KR101228485B1 (ko) * | 2008-09-03 | 2013-01-31 | 무라다기카이가부시끼가이샤 | 경로 계획 방법, 경로 계획 장치, 및 자율 이동 장치 |
KR101262778B1 (ko) * | 2008-09-03 | 2013-05-09 | 무라다기카이가부시끼가이샤 | 경로 계획 장치, 및 자율 이동 장치 |
JP2010061355A (ja) * | 2008-09-03 | 2010-03-18 | Murata Machinery Ltd | 経路計画方法、経路計画装置、及び自律移動装置 |
WO2010026710A1 (ja) * | 2008-09-03 | 2010-03-11 | 村田機械株式会社 | 経路計画方法、経路計画装置、及び自律移動装置 |
KR101307299B1 (ko) * | 2008-09-03 | 2013-09-11 | 무라다기카이가부시끼가이샤 | 자율 이동 장치 |
US8515612B2 (en) | 2008-09-03 | 2013-08-20 | Murata Machinery, Ltd. | Route planning method, route planning device and autonomous mobile device |
JP4714258B2 (ja) * | 2008-11-25 | 2011-06-29 | 株式会社東芝 | 経路を選択する装置、方法およびプログラム |
JP2010127646A (ja) * | 2008-11-25 | 2010-06-10 | Toshiba Corp | 経路を選択する装置、方法およびプログラム |
WO2011062094A1 (ja) * | 2009-11-20 | 2011-05-26 | 村田機械株式会社 | 自律移動体とその制御方法 |
JP2011108129A (ja) * | 2009-11-20 | 2011-06-02 | Murata Machinery Ltd | 自律移動体とその制御方法 |
US8886385B2 (en) | 2009-11-20 | 2014-11-11 | Murata Machinery, Ltd. | Autonomous mobile body and control method of same |
US8948956B2 (en) | 2009-11-20 | 2015-02-03 | Murata Machinery, Ltd. | Autonomous mobile body and control method of same |
JP2014056506A (ja) * | 2012-09-13 | 2014-03-27 | Toyota Central R&D Labs Inc | 障害物検出装置及びそれを備えた移動体 |
JP2017521761A (ja) * | 2014-06-05 | 2017-08-03 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 自律ロボットの障害物の不在および存在の一方の確率のマップを構築する方法 |
KR20170042546A (ko) * | 2014-06-05 | 2017-04-19 | 소프트뱅크 로보틱스 유럽 | 자동 로봇을 위한 장애물의 존재 및 부재 중 하나의 확률 맵 구축 방법 |
CN106662646A (zh) * | 2014-06-05 | 2017-05-10 | 软银机器人欧洲公司 | 用于为自主式机器人构建障碍物的不存在和存在中的一种的概率的图的方法 |
CN106662646B (zh) * | 2014-06-05 | 2019-08-02 | 软银机器人欧洲公司 | 用于为自主式机器人构建障碍物的不存在和存在中的一种的概率的图的方法 |
KR101999033B1 (ko) * | 2014-06-05 | 2019-09-27 | 소프트뱅크 로보틱스 유럽 | 자동 로봇을 위한 장애물의 존재 및 부재 중 하나의 확률 맵 구축 방법 |
US10328575B2 (en) | 2014-06-05 | 2019-06-25 | Softbank Robotics Europe | Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot |
JP2016192040A (ja) * | 2015-03-31 | 2016-11-10 | 株式会社日本総合研究所 | 自走型走行装置、管理装置、及び歩行障害箇所判定システム |
JP2017211934A (ja) * | 2016-05-27 | 2017-11-30 | 株式会社東芝 | 情報処理装置、情報処理方法、および車両 |
US10424320B2 (en) | 2017-03-28 | 2019-09-24 | Casio Computer Co., Ltd. | Voice detection, apparatus, voice detection method, and non-transitory computer-readable storage medium |
JP7023009B2 (ja) | 2017-09-13 | 2022-02-21 | 株式会社Doog | 自律走行ロボットシステム |
WO2019053798A1 (ja) * | 2017-09-13 | 2019-03-21 | 株式会社Doog | 自律走行ロボットシステム |
JPWO2019053798A1 (ja) * | 2017-09-13 | 2020-10-29 | 株式会社Doog | 自律走行ロボットシステム |
US10969790B2 (en) | 2018-03-23 | 2021-04-06 | Casio Computer Co., Ltd. | Autonomous mobile apparatus, method for controlling the same, and recording medium |
KR20210037716A (ko) * | 2018-08-06 | 2021-04-06 | 다이슨 테크놀러지 리미티드 | 모바일 로봇 및 그 제어 방법 |
KR102590980B1 (ko) * | 2018-08-06 | 2023-10-20 | 다이슨 테크놀러지 리미티드 | 모바일 로봇 및 그 제어 방법 |
JP7161602B2 (ja) | 2018-08-06 | 2022-10-26 | ダイソン・テクノロジー・リミテッド | 移動ロボット及び当該移動ロボットを制御するための方法 |
JP2021531921A (ja) * | 2018-08-06 | 2021-11-25 | ダイソン・テクノロジー・リミテッド | 移動ロボット及び当該移動ロボットを制御するための方法 |
JP7219812B2 (ja) | 2018-10-12 | 2023-02-08 | ボストン ダイナミクス,インコーポレイテッド | 地形を意識したステッププランニングシステム |
JP2022504039A (ja) * | 2018-10-12 | 2022-01-13 | ボストン ダイナミクス,インコーポレイテッド | 地形を意識したステッププランニングシステム |
JP7340350B2 (ja) | 2019-05-07 | 2023-09-07 | 東芝テック株式会社 | 情報処理装置及び情報処理方法 |
CN114174766A (zh) * | 2019-08-06 | 2022-03-11 | 波士顿动力公司 | 中间路径点生成器 |
JP2022542807A (ja) * | 2019-08-06 | 2022-10-07 | ボストン ダイナミクス,インコーポレイテッド | 中間ウェイポイント生成器 |
JP7502409B2 (ja) | 2019-08-06 | 2024-06-18 | ボストン ダイナミクス,インコーポレイテッド | 中間ウェイポイント生成器 |
US11774247B2 (en) | 2019-08-06 | 2023-10-03 | Boston Dynamics, Inc. | Intermediate waypoint generator |
JP7288411B2 (ja) | 2020-02-26 | 2023-06-07 | 株式会社日立製作所 | 2次元マップデータ生成装置、2次元マップデータ生成方法、及び2次元マップデータ生成システム |
JP2021135629A (ja) * | 2020-02-26 | 2021-09-13 | 株式会社日立製作所 | 2次元マップデータ生成装置、2次元マップデータ生成方法、及び2次元マップデータ生成システム |
WO2021171694A1 (ja) * | 2020-02-26 | 2021-09-02 | 株式会社日立製作所 | 2次元マップデータ生成装置、2次元マップデータ生成方法、及び2次元マップデータ生成システム |
WO2021177540A1 (ko) * | 2020-03-04 | 2021-09-10 | 엘지전자 주식회사 | 이동 로봇 및 이의 제어 방법 |
JP2022163534A (ja) * | 2021-04-14 | 2022-10-26 | 株式会社クボタ | 経路生成システム |
JP7515436B2 (ja) | 2021-04-14 | 2024-07-12 | 株式会社クボタ | 経路生成システム |
KR102568651B1 (ko) * | 2022-10-26 | 2023-08-22 | 주식회사 클로봇 | 다수 무인이동체의 이동경로 생성을 위한 위상지도 형성장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20060241827A1 (en) | 2006-10-26 |
US7769491B2 (en) | 2010-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006239844A (ja) | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 | |
KR101121763B1 (ko) | 환경 인식 장치 및 방법 | |
JP4479372B2 (ja) | 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置 | |
JP4636016B2 (ja) | 平面検出装置、平面検出方法、及び平面検出装置を搭載したロボット装置 | |
JP3945279B2 (ja) | 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置 | |
JP4609584B2 (ja) | ロボット装置、顔認識方法及び顔認識装置 | |
JP3855812B2 (ja) | 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置 | |
JP2019125354A (ja) | 情報処理装置、システム、方法、およびプログラム | |
JP4618247B2 (ja) | ロボット装置及びその動作制御方法 | |
WO2004018159A1 (ja) | 環境同定装置及び環境同定方法、並びにロボット装置 | |
JP2003266345A (ja) | 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置 | |
JP2004298977A (ja) | 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置 | |
JP4239635B2 (ja) | ロボット装置、その動作制御方法、及びプログラム | |
KR102615685B1 (ko) | 멀티 센서를 동기화시켜 위치를 추정하는 방법 및 이를 구현하는 로봇 | |
JP4016180B2 (ja) | 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置 | |
KR20130073476A (ko) | 이동 장치 및 이동 장치의 위치 인식 방법 | |
JP2006082150A (ja) | ロボット装置及びその行動制御方法 | |
JP2007041656A (ja) | 移動体制御方法および移動体 | |
JP2004110802A (ja) | 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置 | |
US11992945B2 (en) | System and methods for training robot policies in the real world | |
JP2003266349A (ja) | 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置 | |
KR102246236B1 (ko) | 퓨전 슬램에서 맵을 업데이트하는 방법 및 이를 구현하는 로봇 | |
KR20130078913A (ko) | 물체 인식 방법과, 물체 인식을 위한 기술자 생성 방법, 물체 인식을 위한 기술자 | |
JP5480799B2 (ja) | 移動装置およびロボットならびにこれらの制御システム | |
JP2008009999A (ja) | 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100706 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101109 |